- 소수의 '플러스' 가입자에게 30일부터 지원 시작
오픈AI가 새로운 '고급 음성 모드'를 30일(현지시간)부터 배포하기 시작했다고 IT전문매체 더 버지와 CNN 등 다수 외신이 이날 보도했다.
기존 알렉사나 시리 같은 디지털 비서의 기계적인 음성과 달리, 챗GPT의 고급 음성 모드는 실제 사람의 목소리처럼 자연스럽고 생동감있게 들린다. 실시간 응답, 대화중 끼어들기에 대한 적응, 농담에 대한 웃음 반응, 사용자의 음성 톤을 통한 감정 상태 파악까지 가능하다.
챗GPT의 고급 음성모드 지원은 지난 5월 첫 시연 당시 스칼렛 요한슨의 목소리와 유사하다는 비판이 제기되자 안전상의 이유로 출시를 연기했다. 오픈AI는 당초 6월에 고급 음성 모드 출시를 계획했지만, 안전성 테스트와 실시간 응답 유지 등의 문제로 출시 시기를 한 달 미룬 것.
고급 음성 모드는 챗봇의 가장 강력한 버전인 ChatGPT-4와 함께 작동하며, 30일부터 유료 사용자를 대상으로 점진적으로 출시될 예정이다. 먼저 소수의 챗GPT 플러스( ChatGPT Plus) 가입자들에게 제공되며, 올가을에는 모든 플러스 사용자에게 확대 적용될 계획이다.
챗GPT의 고급 음성 모드 도입은 오픈AI에게 중요한 전환점이 될 수 있다. 단순한 AI 챗봇에서 벗어나, 사용자들이 친구와 대화하듯 자연스러운 음성 대화를 나눌 수 있는 가상 개인 비서로 발돋움할 수 있기 때문이다. 이러한 편리성은 사용자들의 챗GPT 이용 빈도를 높이고, 애플, 아마존 등 기존 가상 비서 시장에 도전장을 내밀 수 있는 계기가 될 것이라고 CNN은 진단했다.
그러나 더욱 발전된 음성 모드 도입은 몇 가지 의문점을 제기한다. '챗GPT가 사용자의 발화를 정확하게 이해할 수 있을까?', '특히 발음이나 억양이 다를 경우에도? 또한, 사람처럼 말하는 AI 비서에게 사용자들이 더욱 맹목적으로 의존하게 되는 것은 아닐까? 특히 AI가 잘못된 정보를 제공할 때도 말이다.
그러나 고급 음성 모드 도입에도 챗GPT가 사용자가 말하는 의도를 정확하게 이해할 수 있을지, 특히 발음이나 억양이 다른 문제를 어떻게 받아들일지, 또는 사람처럼 말하는 AI 비서에게 사용자들이 더욱 맹목적으로 의존하게 되는 것은 아닌지, 특히 AI가 잘못된 정보를 제공할 경우 등의 여러 가지 우려가 제기됐다.
최근 몇 달 동안 오픈AI는 100명 이상의 테스터를 대상으로 AI 모델의 음성 기능을 시험하며 잠재적인 약점을 파악했다. 이들은 총 45개 언어를 사용하며 29개 지역에 분포되어 있다고 이날 발표에서 밝혔다.