오픈AI “챗GPT 환각, 2년 뒤면 줄어들 것”

챗GPT 이후 초거대 언어모델 GPT의 진화가 계속되고 있다. 지난 14일에는 오픈AI가 차세대 초거대 언어모델 GPT-4를 공개했다. GPT-4는 기존 모델보다 더 창의적이며 오류가 적고, 덜 편향적이라는 평가를 받는다.

하지만 여전히 사실과 전혀 다른 답을 내는 환각 문제는 여전하다. 창의적이면서 정확한 AI 구현은 정말 그렇게 어려운 일일까.

22일(현지시간) 엔비디아의 연례 개발자 컨퍼런스 GTC 2023에서는 젠슨 황(Jensen Huang) 엔비디아 최고경영자(CEO)와 일리야 수츠케버(Ilya Sutskever) 오픈AI 공동 설립자 겸 수석 과학자의 대담이 마련됐다. 어떻게 GPT가 오차를 줄이고,  미래의 AI가 어떻게 발전할 지에 대한 오픈AI의 생각을 들여다보는 자리다.

젠슨 황 CEO의 “1~2년 내, 이 전체 언어 모델의 영역이 어디에 있을 것이라 생각하냐”는 질문에 일리야 수츠케버 수석 과학자는 “2년 안에 환각 문제는 크게 줄어들 것”이라고 말했다.

결과물에 대한 신뢰성을 높이는 방향으로 기술을 개발하고, 지속해서 환각 문제를 해결해 나가는 게 오픈 AI의 목표다. 그는 “신경망의 신뢰성이 높아지고 더 나아가 AI가 사용자의 의도를 파악하기까지 한다면, (AI는) 더 많은 곳에 요긴하게 사용될 수 있다”며 “향후 2년 간 많은 혁신이 있으리라 기대한다”고 강조했다.

그는 또 GPT-4를 “정말 좋은 단어 예측기에 불과하다”고 평하면서도 정확한 추론에 대한 의지는 확고하게 전했다. 그는 “GPT-4는 내장 검색 지원을 하지 않지만, 더 나아질 수 있도록 정확한 추론을 하도록 만들겠다”고 말했다.

일리야 수츠케버(Ilya Sutskever) 오픈AI 공동 설립자 겸 수석 과학자.

오픈AI는 GPT-4에 적용한 멀티모달이 신뢰성을 높이는 열쇠가 될 것으로 본다. 일리야 수츠케버 수석 과학자는“멀티모달 도입은 AI가 세상을 좀 더 깊게 이해하는 데 도움이 됐다”며 “이미지를 통해 세상을 배운 AI는 더 정확한 답을 내놓을 수 있을 것”이라고 말했다.

AI가 자체적으로 만들어 낸 데이터를 사용하는 방안도 고려한다. 가상 데이터 사용을 어떻게 생각하냐는 젠슨 황 CEO의 질문에 일리야 수츠케버 수석 과학자는 “사람들이 인식하는 것보다 더 많은 데이터를 여기에서 얻어낼 수 있을 것”이라며 “적대 콘텐츠를 생성해 GPT 시리즈를 개선한 것처럼, 이는 AI의 신뢰성 개선에 도움이 될 것”이라고 답했다.

“오픈AI가 내놓는 GPT 시리즈는 모두 세상에 대한 이해를 기반으로 새로운 결과물을 만들어낸다. 세상에 대한 이해도를 높이기 위해서는 단순히 텍스트 외에도 다양한 방법으로 학습이 이뤄질 필요가 있다. 마치 사람이 세상을 볼 때 보고 들음으로 알게 되는 것처럼 말이다.”

일리야 수츠케버 수석 과학자의 말처럼 GPT 시리즈는 아직 배워야 할 것이 많다. 대신 필요한 데이터를 요구했을 때 명확한 답변을 낼 수 있도록 발전시키겠다는 게 그의 생각이다. 일리야 수츠케버 수석 과학자는 “자신이 알지 못할 때 무엇을 알지 못한다고 말하면 오히려 신뢰할 수 있게 된다”며 “특별한 능력을 검증한 뒤에는 얼마나 더 정확하게 신뢰할 수 있는지를 보여줘야 한다”고 말했다.

오픈AI는 현재의 한계를 극복하면 인간과 더 닮은 수준의 AI를 구현할 수 있을 것이라고 믿는다. 일리야 수츠케버 수석 과학자는 “오픈AI의 GPT 시리즈는 바보 같은 방식으로 오해를 할 수는 있지만, 시를 만드는 능력은 이미 많은 사람이 인정하고 있다”며 “지금도 챗GPT 시리즈는 주어진 지시를 명확하게 따르는데, 나중에는 사람들의 농담을 알아듣고 그것이 왜 재밌는지 분석하는 수준까지 발전하게 될 것”이라고 말했다.

글. 바이라인네트워크
<배유미 기자>youme@byline.network

관련 글

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다