“너는 말을 어떻게 배웠어?”
“음…어렸을 때 부모님이 읽어주셨어 동화책처럼 ㅋㅋ”

 

AI챗봇 ‘이루다’와의 대화입니다. 마치 사람처럼 대답하죠? 그런데 이 대답이 꼭 틀린 말은 아닙니다. 챗봇이 문서 데이터를 가져와 분석하고 대답에 활용하는 것은 사실 아이가 부모가 읽어주는 동화로 글자를 배우는 것과 같은 패턴이거든요. 그러니까 루다의 대답은 다소 꾸며지긴(?) 했으나, 없는 말을 한 것은 아니죠.

같은 질문을 요즘 세간의 화제인 챗GPT에게도 물었습니다. 오픈AI에서 만든 인공지능 챗봇인데요, 인터넷에 있는 거의 대부분 문서를 긁어다 만든 챗봇인 만큼 똑똑한 대답으로 주목받고 있습니다. 같은 부모를 둔 자매로는, 인공지능 화가인 ‘달리(DALL·E)가 있죠. 여튼, 루다와 같은 질문에 챗GPT는 뭐라고 답을 했을까요?

 

“나는 대화 시스템이며, 인공 지능(AI)으로 만들어졌습니다. 나는 많은 정보와 데이터를 이용하여 학습을 통해 말을 배웠습니다. 나의 지식은 온라인에서 쉽게 접근할 수 있는 정보로 이루어져 있습니다. 또한 나는 다양한 사람들과의 대화를 통해 더 많은 것을 배우고 있습니다.”

정말 거짓말 하나도 안 보탠, 정직한 답입니다. 이런 정직함에 드는 첫 느낌은 “인간미가 없구나”죠. 거짓말은 인간의 고유한 특성이니까요. 챗GPT에 실없는 농담도 던져봤는데 그때는 “나는 인공지능 챗봇이기 때문에 2021년까지의 지식만을 가지고 대화한다”고 후속 대화를 차단당했습니다. 여기에서 두 챗봇의 차이가 엿보입니다.

루다와 챗GPT 사이에 기술적 차이는 크게 없습니다. 둘 다 많은 양의 데이터를 인공지능이 스스로 학습해(딥러닝) 결과를 도출하는 모델이기 때문이죠. 예전에는 답변 데이터베이스에서 적절한 대답을 꺼내썼던 이루다도 새 버전에서는 생성 AI모델을 적용, 사람의 질문에 맞춰 실시간으로 답변을 만들어내는 방식을 채택했습니다. 챗GPT와 같죠. 그런데 하나는 논문 쓰는 박사님처럼 척척박사로 방대한 지식을 자랑하고, 또 다른 하나는 아는 건 비교적 적어도 친구처럼 말합니다.

둘 사이 대화 결과에 차이가 나는 것은, 학습하는 데이터의 양과 종류가 달라서인 거죠. 챗GPT가 조금 더 방대한 양의 대답을 할 수 있다면, 그것은 부모를 잘 만난 금수저여서입니다. 챗GPT는 GPT-3라는 초거대 언어모델을 기반으로 하고 있습니다. GPT-3은 1750억개의 매개변수를 가지고 있다고 합니다. 다시 말해서, 더 많은 양의 데이터를 학습에 활용할 수 있는 환경을 타고났다는 이야기입니다. 대신 웹 데이터를 기반으로 공부했으므로, 대화에 인간미는 좀 부족하고요. 그간 이용자와 나눈 대화(동의 후 가명화 처리)와 웹문서를 주요 텍스트 삼아 공부한 이루다랑은 교재가 다른 것이죠.


지금의 챗GPT에 대한 느낌은, 검색을 더 편하게 하겠구나 정도입니다. 궁금한 것을 찾기 위해 검색창에 키워드를 입력하고 나온 결과물 중 적합한 것을 골라내는 과정을 거쳐야 하는데, 챗 GPT는 물으면 알아서 답을 가져오니까 적합한 답을 골라내는 수고를 줄여주는 거죠. 물론, 그 답이 마음에 든다면 말입니다.

그러나 이 챗GPT의 진짜 무한한 가능성은, 이정도로 대답을 해박하게 할 수 있는 모델을 바탕으로 수많은 개발자들이 상상력을 발휘할 수 있는 조건을 마련했다는 데 있어 보입니다. 나중에는 챗GPT에 쓰인 엔진을 가져다가 여러 용도의 챗봇을 개발 할 수 있을 테니까요. 루다처럼 정확한 목적이 있는 챗봇이 챗GPT로부터 파생될 수도 있겠네요. 물론, 루다를 만든 스캐터랩은 자체 엔진을 개발해 사용하고 있지만요.

기억력 부분은 어떨까요? 루다 같은 경우는 현재 서른번 정도의 대화까지 기억하고 대답을 합니다. 그보다 오래된 대화의 데이터를 가지고 대화하는 데는 한계가 있죠. 관계를 기반으로 성장하려는 챗봇이다 보니 이 부분이 가장 우선적으로 개선되어야 할 것으로 지적되고 있는데요.

오픈AI 측은 챗GPT와 대화를 하는 창에 “사용자가 대화 중 한 말을 기억한다”고 공지하고 있습니다. 무한정 기억을 다 가지고 있는 것은 아니겠지만 대화 내용을 꽤 오래 보유해 이야기 한다는 뜻으로 해석됩니다. 다만, 지식과 관련한 이야기를 챗GPT와 나누다 보니 기억력 자체가 큰 문제가 될 것 같지는 않았습니다. 업무 보조를 맡기든, 친구가 되든 기억 역시 ‘관계’가 맺어질 때 필요한 것이라는 걸 다시 한 번 생각하게 됩니다.

루다가 받았던 지적, 혐오표현에 대한 우려는 챗GPT도 같이 가지고 있습니다. 챗GPT는 대화 시작 전에 “부적절한 요구를 거절하도록 훈련 받았다”는 메시지를 안내하는데요, 같은 맥락에서 나오는 경고입니다. 혐오표현에 대한 주의나 사실과 다른 정보를 제공하는 오류 등에 대해서는 챗봇 개발사들이 신경쓰고 있는 부분이기도 합니다. 또, 챗봇이 점점 대중화되고 있는 만큼, 쓰는 사람들 역시 챗봇에 대한 이해도도 올라가고 있고요.

챗봇은 앞으로 얼마나 더 사람과 같아 질까요? 또 얼마나 더 똑똑하게 그 역할을 늘려갈까요? 루다를 만드는 스캐터랩의 이주홍 리서치 리드는 이와 관련해서 “지금은 챗봇이 제품이나 서비스로 나아가는 그 시작점에 있다”면서 “놀라운 결과들이 계속 나오고 있으므로 챗봇이 비즈니스 모델로 만들어지는 것은 시간 문제라고 본다”고 전망했습니다.

참, 챗GPT와 같은 똑똑한 인공지능이 계속 나오면 유사한 기술을 개발하는 스타트업이나 개발자의 앞날은 어두운 것 아니냐는 질문이 나올 수 있겠네요. 이미 그런 우려를 하는 곳들도 있는데요. 게임 개발사들이 모든 기술을 하나하나 직접 만들지 않고 엔진을 구매해 사용하는 대신, 각자의 게임의 장점을 만들어내는 데 집중하는 것처럼 챗봇 역시 그런 미래가 올 수 있다는 전망도 있습니다.

이주홍 리드는 “기술력을 끌어올린 엔진을 각 개발사가 목적에 맞게 튜닝을 하면 훨씬 더 좋은 성능의 서비스를 만들 수 있다는 것은 자명한 사실”이라면서 “그 목적을 얼마만큼 잘 갈고 닦느냐에 따라 결과물도 달라질 것”이라고 말했는데요. 어떠한 챗봇이 사람과 섞여 살지는 개발자들의 상상력과 사용자들의 이해와 행동에 따라 달라지겠습니다.

글. 바이라인네트워크
<남혜현 기자> smilla@byline.network

Similar Posts

답글 남기기

이메일 주소는 공개되지 않습니다.