[뉴스토마토 이지은 기자] 챗GPT 개발사인 오픈AI가 음성 기반 인공지능(AI) 모델을 공개했습니다.
오픈AI는 13일(현지시간) 라이브 이벤트를 통해 GPT-4o(GPT-포오)를 공개했습니다. GPT-4o에서 o는 옴니(omni·모든)를 뜻하는데요.
오픈AI는 "훨씬 더 자연스러운 사람과 컴퓨터 간 상호 작용을 할 수 있다"며 "텍스트, 오디오, 이미지의 모든 조합을 받아들이고 텍스트, 오디오, 이미지 출력의 조합을 생성할 수 있다"고 설명했습니다.
오픈AI는 13일(현지시간) 라이브 이벤트를 통해 GPT-4o(GPT-포오)를 공개했다. (사진=오픈AI 홈페이지)
기존 챗GPT가 텍스트 기반으로 사용됐다면, GPT-4o는 실시간 음성 대화를 통해 질문하고 답변을 요청할 수 있는 AI 모델인 것이죠. 텍스트는 물론, 청각과 시각으로도 추론하고 이를 말할 수 있는 AI어시스턴트인 셈입니다.
가령 사람처럼 사용자와 대화하며 잘못된 컴퓨터 코드를 수정할 수 있고,사용자와 실시간 카메라 뷰를 공유해 사용자가 보는 것에 반응하는 것도 가능합니다.
오픈AI는 GPT-4o가 지난해 11월 공개한 GPT4 터보보다 두 배 더 빠르고 비용은 2분의1 수준이라고 설명했습니다. 아울러 GPT-4o를 통해 챗GPT가 50개 언어를 향상된 속도와 품질로 처리할 수 있게 됐다고 했습니다.
한편 오픈AI는 이번 업데이트를 통해 무료 버전의 GPT3.5를 사용하는 사용자를 포함한 모든 사용자에게 GPT-4o를 사용할 수 있도록 한다는 정책은 안내했습니다. 유료 사용자는 무료 이용자보다 5배 많은 질문을 할 수 있습니다.
이지은 기자 jieunee@etomato.com