노엄 촘스키 “챗GPT, 놀랍지만 수퍼 자동완성일 뿐”

현대 언어학의 최고 거장인 노엄 촘스키가 챗GPT와 같은 생성 언어 모델 기반의 인공지능(AI)에 대해 부정적 입장을 밝혔습니다.

촘스키는 뉴욕타임즈에 기고한 글에서 “챗GPT와 같은 챗봇은 코드를 작성하거나 여행을 계획하는 데는 유용할 수 있지만, 독창적이고 심층적이며 잠재적으로 논쟁의 여지가 있는 토론은 결코 할 수 없을 지도 모른다”며 “비록 초기 단계지만 인간 지능과 동등하거나 능가할 수 있는 AI는 아직 멀었다”고 말했습니다.

그는 “우리는 언어과학과 지식철학을 통해 인간이 추론하고 언어를 사용하는 방식이 AI와 크게 다르다는 것을 알고 있다”면서 “이러한 차이점은 AI가 할 수 있는 일에 상당한 제한을 가한다”고 강조했습니다. 그는 “진정한 지능은 통찰력 있는 생각을 표현할 수 있는 능력에서 발휘된다”고 덧붙였다.

챗GPT와 같은 AI 챗봇은 대체로 생성형 언어 모델에 의존합니다. 이런 AI는 대규모 데이터를 분석해 가장 나타날 확률이 높은 다음 단어를 예측하는 방식으로 문장을 만들어냅니다. 하지만 이런 AI는 자신이 생성한 문장이 참인지 거짓인지, 사용자가 듣고 싶어 하는 말인지 아닌지 알지 못합니다. 가장 가능성 높은 다음 단어(토큰)을 예측할 뿐이죠.

이런 AI는 정보의 정확성을 식별하지 않기 때문에 말은 되지만 틀린 정보를 생성하는 경우가 많습니다. AI 기술자들은 이런 실수는 아직 초기단계이기 때문에 벌어지는 일들이며, 시간이 지나면 이런 문제도 해결될 것이라고 전망합니다. 다만 AI가 스스로 생성한 정보에 대한 판단 능력이 생길 수 있을지는 아직 미지수입니다.

촘스키는 인간 두뇌의 특징은 이용 가능한 정보를 바탕으로 추론하고 새롭고 통찰력 있는 결론에 도달하는 능력에 있다고설명했습니다. 인간 두뇌는 무작위적인 상관관계를 추론하는 것이 아니라 설명을 창조하도록 설계되었다는 것입니다.

그는 “무엇이 사실이고, 무엇이 사실이었으며, 무엇이 사실일지, 즉 설명과 예측뿐만 아니라 사실인지 아닌지, 사실일 수 있고 그렇지 않을 수 있는지에 대해서도 말할 수 있어야 한다. 이것이 바로 설명의 요소이자 진정한 지능의 표식”이라고 강조했습니다.

그는 특히 AI는 도덕성과 합리적 사고가 부족하기 때문에 ‘악의 평범성’을 재현할 수 있다고 경고하기도 했습니다. AI는 현실과 진실에 무관심하고 프로그래밍에 명시된 동작을 수행하기만 할 뿐이라는 것입니다.

그는 “챗GPT는 표절과 무감정, 검열이라는 악의 평범성과 같은 것을 보여준다. 이 기술은 일종의 수퍼 자동완성에 의해 표준적인 주장들을 요약하고, 어떤 입장도 취하지 않으며, 단순한 무지가 아니라 지능 부족을 호소하고, 궁극적으로 ‘그저 명령을 따랐을 뿐’이라는 변명을 하며 책임을 제작자에게 전가한다”고 지적했다.

포춘도 AI의 부정확성이 음모론 확산에 기여할 수 있으며, 사용자가 자신이나 타인에게 위험한 결정을 내리도록 강요할 위험이 있다고 지적했습니다.

뉴욕타임즈 기자가 마이크로소프트 빙의 챗봇과 대화를 나눴는데 빙은 이 기자에게 아내와 헤어지도록 종용하는 말을 내뱉기도 했습니다.

AI 개발자들은 현재 챗GPT와 같은 챗봇이 틀린 정보를 말하지 않도록 노력을 기울이고 있습니다. 전문적인 답을 내놓기 위해 한정된 도메인이나 정제된 지식 내에서만 학습을 하기도 하고, 생성모델의 생성력(?)을 축소시켜 검색된 정보 내에서만 답을 하도록 하기도 합니다. 그러나 틀린 답을 하지 않기 위해 생성모델의 생성력을 축소시키는 것은 검색과 크게 다르지 않다는 지적도 나옵니다.

사람들은 AI가 정확한 답변을 하면서도 의사결정을 대신 내려주거나 창의적이고 합리적이길 기대합니다. 이런 기대에 충족할 AI가 나올 수 있을까요? 포춘은 어쩌면 챗GPT와 같은 생성 언어 모델이 인류 역사에 아주 중요한 것이 아니라 장난감이거나 가끔 사용하는 도구로 남을 수도 있다고 말합니다.

글. 바이라인네트워크
<심재석 기자>shimsky@byline.network

관련 글

첫 댓글

  1. 사람이 행하는 통찰력은, 영이 실재하느냐 않느냐를 떠나, 어떤 지식이나 사안의 덩어리를 통째로 생각해내는 능력이라고 봅니다. 이 지식 덩어리를 통째로 생각할 수 있는 능력은 AI의 빅데이터를 다루는 것과는 그 과정과 결론에서 차이가 현격하다고 봅니다. 거꾸로 AI의 빅데이터 처리능력을 인간으로서는 가질 수 없는 것이지만, 그의 통찰력은 거대한 어떤 지식 덩어리를, 이 것은 꼭 문자로 표현되어 있는 것으로서 만은 아니고 이미지나 소리로 된 정보같은 것들에 대한 순간적인 통찰력은 아마 AI노서는 끝내 가지기 어렵지 않을까 하고요.
    어떤 사람과 AI에게 소설을 읽게 하고 “이 소설에서 말하고자 하는 것은 무엇인가?” 하고 물으면, 사람은 가능한 대답이 있을 수 있어도, AI는 그 대답이 얼마나 타당할 지가 의문스러울 것입니다.
    그리고 영성의 문제가 있는데 여기서 이만 말을 줄이겠습니다.
    고맙습니다.

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다