OpenAI released its advanced voice mode to more people. Here’s how to get it.
MIT Technology Review
OpenAI가 ChatGPT의 새로운 기능인 Advanced Voice Mode를 출시했습니다.
이 혁신적인 기능은 AI 모델과의 대화를 한층 더 자연스럽고 역동적으로 만들어 준다고 합니다.
아래 5가지 새로운 기능이 추가되었습니다. 이제 ai가 언어를 더 자연스럽게 인식하는 시대가 됐군요!
중간 개입 가능: 사용자는 AI의 응답 중간에 끼어들어 대화의 방향을 바꿀 수 있습니다.
감정 인식: 사용자의 음성 톤을 분석해 감정을 파악하고, 그에 맞춰 응답을 조절합니다.
개인화: 사용자 정보를 기억하여 맞춤형 대화가 가능합니다.
다국어 지원: 비영어권 언어의 발음이 개선되었습니다.
새로운 AI 음성: 'Arbor', 'Maple', 'Sol', 'Spruce', 'Vale'이라는 다섯 가지 새로운 AI 음성이 추가되었습니다.
https://www.technologyreview.com/2024/09/24/1104422/openai-released-its-advanced-voice-mode-to-more-people-heres-how-to-get-it/
다음 내용이 궁금하다면?
이미 회원이신가요?
2024년 9월 25일 오전 8:37
가짜 프로젝트의 일정이 지연되고 품질에 문제가 생겨 PM이 정칙게임의 희생양이 된다면 PM의 성장경로에 치명적일 뿐 아니라 PM의 마음도 견디기 힘들어진다. 진짜 프로젝트에서 마음 맞는 이해관계자들과 열심히 한 결과 프로젝트가 일정이 지연되면 덜 억울한데, 하지 말아야 할 가짜 프로젝트 부실을 책임지는 정치의 희생양이 되는 것은 피해야 한다.
... 더 보기오늘은 운영중인 프로젝트에 리얼 바이브코딩(채팅으로 요청만 함)을 시도 해 보았다. 😎
바이브코딩만으로 원하는 기능을 완성한 뒤, 검토는 수제 코딩으로 진행했다.
LLM으로 매우 복잡하고 복합적인 작업이 들어가는 실서비스를 꽤 오랜 기간 해 온 입장에서, 요즘 말하는 콘텍스트 엔지니어링도 사실 매우 옛말이고, 현재 LLM 프롬프트 엔지니어링의 핵심은 뭐랄까.. 명칭을 붙이자면 플로우 엔지니어링이라고 할 수 있겠다.