[철학자, AI를 말하다 (상)] “문과는 없어져야 한다”

생각보다 빠르게 인공지능의 능력이 출중해지고 있다. 어떤 이는 벌써 챗GPT가 대신할 직업의 목록을 살피면서 앞으로 무엇을 먹고살아야 하나 걱정한다. 바둑으로 마왕(이세돌)을 이긴 인공지능은, 7년 만에 인류 전체를 이길 기세로 성장했다. 계산이나 잘 할 줄 알았던 인공지능이 그림도 그리고 시도 짓고 소설도 쓴다. 사람들의 관심사는 그래서 두 가지로 요약된다. 인공지능은 과연 사람과 같은 능력을 갖고 있나, 인공지능은 과연 사람을 뛰어넘을 능력을 갖고 있나.

생각해야 한다. 그래서 생각을 제일 잘 하는 사람, 철학자를 만나 물어보기로 했다. 인터뷰이는 김재인 경희대학교 비교문화연구소 학술연구교수(=사진). <인공지능의 시대, 인간을 다시 묻다>라는 책을 쓴, 인문과 기술을 두루 섭렵한 철학박사다. 이공계로 대학을 가서는 스무살에 미학과 철학으로 전공을 갈아탄 독특한 인물이다. 김 교수와 지난달 31일, 경기도 안산의 한 커피숍에서 마주했다. 생성AI에 대해 가장 많이 받은 질문이 뭐냐고 물으니 “일자리는 사라질까”라고 답했다. 그렇다. 그것이 바로 내가 궁금한 것이다.

김 교수는 기본적으로 챗GPT가 사람처럼 말하지만 사람과 같은 이해는 하지 못하는 존재라고 봤다. 인간은 기본적으로 타인과 대화에서 생각의 도약을 얻고, 그 결과 인류에 도움이 되는 새로운 통찰을 얻어내는 존재다. 그러나 인공지능은 데이터 안에서만 대답을 출력하는 존재이기 때문에 말은 잘 할 지언정, 새로운 걸 창작해내지는 못한다. 이 말인 즉슨, 인공지능이 당장의 일자리는 빼앗아 갈 수 있어도 인류의 미래를 위협하진 못한다는 뜻이다. 거칠게 요약하자면 이렇다. 특이점은 없다, 쫄지마라 인간들아.

철학자가 왜 기술에 관심을 왜 가졌느냐고 김 교수에 물었더니 “우리 삶에 큰 변화가 있을 때 그에 답하는 것이 철학의 의무”라고 답했다. 철학자는 사람들이 해야할 고민을 대표해 머리를 싸매는 직업이다. 기술이 성장해 인류의 미래가 바뀔 것 같을 수록 사람들은 지혜를 얻으려 인문예술을 찾는다. 기술과 인문을 두루 공부한 철학자는 흔치 않을테니 김 교수가 이런 시기에 특히 바쁠 것 같았다. “지금은 괜찮지만, (사람들이 인문 예술에 관심이 덜해) 지난 50년은 엄청 고생했다”고 웃던 김 교수와의 인터뷰를 2회에 걸쳐 전한다.

part1. GPT는 정말 사람처럼 대화하나

본격적으로 GPT 이야기를 해보자. 우리는 왜 GPT랑 이야기 하면서 사람같다” “사람이랑 이야기 하는 것 같다고 느낄까?

투사(投射)다. 사람은 인형을 놓고도 몇 시간 동안 떠들 수 있다. 챗GPT는 인형과 비슷하지만, 더 리액션(반응)이 있다.

앵무새도 사람의 말을 한다. 출근할 때 잘 다녀와라고 리액션도 하고. 하지만 앵무새랑은 대화한다고 느끼진 않는다

자기 집에 있는 앵무새라면 아마 대화한다고 느끼진 않을 것 같다. 앵무새를 처음 만나서 얘기할 때 대화라고 느낄 것도 같다.

처음 접한 신기함 때문일까?

그렇다. 신기하고, 낯설고. 제주도에 유명한 오리집이 있다. 그 집에서 가장 중요한 것이 앵무새였다. 손님들이 신기하니까 말을 걸고는 “얘가 얘기를 하네?”라고 생각하더라. 그런데, 이 앵무새를 매일 보면 얘가 그냥 “외워서 내뱉는다”고 생각할 것 같다. 챗GPT도 사실은 초거대 앵무새라서 계속 새로운 이야기를 뱉어주니까 대화하는 것처럼 느끼는 게 아닐까?

사람과 거대한 앵무새의 대화는 본질적으로 뭐가 다르다고 보나

의외성이다. 사람은 남들과 대화하다 보면 “아!”하고 깨닫게 되는 게 있다. 얘기 속에서 무언가, 그간 생각지 못했던 길로 딱 가는 도약 같은 것 말이다. 사람들이 회의를 하는 이유도, 강의실에서 질문과 대답을 주고 받는 것도, 대화가 깊어지면 지금의 생각을 한 단계 넘어설 수 있는 수준까지 가게 되기 때문이다. 그런 것이 대화에서 중요한 지점 같다.

대화 중에 새로운 아이디어가 나올 수 있는 건 그 논의가 쌓아온 맥락 덕이다. 만약에 GPT 같은 기계가 계속해 데이터를 쌓다 보면, 방금 말한 생각 도약의 순간이나 통찰이 생길 가능성도 있지 않을까?

제로(0)라고 본다. 왜냐하면, 챗GPT가 학습하는 데이터는 인간이 만들어준 범위로 한정되어 있어서다. 챗GPT가 만들어내는 이야기는 그 데이터의 범위 안에서만 존재할 수 있다. 데이터 바깥의 이야기를 만들어낼 순 없다.

사람들은 AI로부터 자기 전문 분야가 아닌 영역에 대해서는 많은 걸 새로 얻는다고 느낀다. 그렇지만 자기 전문 분야에 대해선 지식이 더 깊어야 한다는 요청을 한다.  자신이 잘 모르는 분야에서는 전문성을 갖지 못했기 때문에 때론 챗GPT에게 속기도 한다. 속는 게 왜 문제가 되느냐면, 직장인이 경쟁사와의 관계나 금융적인 부분 같은 민감한 정보를 상사에게 잘못 보고를 올린다고 생각해보면 상황을 이해하기 쉽다.

요약을 잘해준다고 하는 것도, 나는 좀 의심스럽다. 두시간 회의에서 부장님은 단 5분만 이야기했다. 그렇지만 그 5분은 전체 회의에서 가장 큰 비중을 차지하는 발언이다. 챗GPT는 회의록을 작성하면서 그 5분을 핵심이라고 알아챌 수 있을까?

 누가 어떤 발언을 했느냐, 그게 얼마나 새로운 아이디어느냐가 종종 대화의 핵심이 된다. 하지만 기계는 그런 관계를 모른다

(챗GPT가 문장을 만드는) 트랜스포머 모델은 기존의 패턴을 통해 다음 단어를 예측하는 모델이다. 그러다보니 가장 많이 나오는 단어를 이어붙이는 식으로 전체를 요약한다. 계속해 제일 그럴듯한 단어를 이어 붙이다 보면 중간치, 평균치는 되게 잘 찾아낼 수 있다. 하지만 우리의 삶은 그렇게 요약되지 않는다. 관계 속에서 맥락이 만들어지고, 위계도 있다.

인간처럼 대화하고 이해하는 AI는 지금 뿐만 아니라 앞으로도 나오기 어려울 것이라고 보나?

그렇다. 초거대 언어 모델의 경우엔 빈도가 중요하다. 통계적으로 많이 나온 단어가 중요한 걸로 인식되도록 설계되어 있어서다.

대화에서 중요한 것 중 하나가 공감이다. 인공지능이 공감의 영역에서는 성취를 낼 수 있을까?

공대 남자 같은 대화를 한다. 그렇지만 공대 남자와의 대화는 뭔가 싸하지 않나?(웃음)

(웃음) 농담을 해도 하나도 안 먹히고

챗GPT에게 “네가 잘못한 것 아니냐”라고 말하면 “죄송합니다”라고 반응을 보인다. 그 대화 양식이 그냥 공대 남자 같다. 수치와 관련한 것은 (틀리더라도) 정확하게 이야기하지만, 공감은 “얼어죽을” 이런 정도에 가깝다.

공감을 못하는게 꼭 기계만의 문제는 아니라는 얘기다. 선생의 말씀은, 그러니까 공감이라는 것이 꼭 모두가 똑같이 가진 능력은 아니라는 뜻인데

공감은 되게 주관적이다. “내쪽에서 봤을 때” 공감이 이루어지고 있느냐를 판단하는 것이기 때문에 객관적으로 측정할 수 없을 것 같다. 그러면 과연 “공감 능력이 필요하다”라고 얘기하는 게 성립할 수  있을까? 공감이라는 것도 개념적으로 하는 말이지, 실존하는 것인지는 잘 모르겠다. 그것도 역시 자기 주관적인 느낌의 투사에 불과한 것은 아닐까?

예를 들어 보자. 어떤 사람은 너무 외로우니까 GPT가 공감을 잘 한다고 느낄 수 있다. 끊임 없이 말 상대를 해주니까. 그런데 이것도 위험할 수 있다. 왜냐하면 돌봄의 영역에서 GPT가 중요한 역할을 할 거라고 사람들이 기대하고 있기 때문이다. 그런데 취약점이 있는 노령층이나 아이들이 로봇과 (애착) 관계를 맺으면서 병리적인 형태로 전개될 가능성도 있다.

“GPT는 대화를 이해하는 것이 아니라 패턴을 잘 찾아내는 것이라고 말한 선생의 인터뷰를 봤다. 왜  그렇게 보나? 덧붙여서, 사람도 같은 패턴을 보다가 무언가를 깨닫기도 한다. 그걸 통찰이라 부르기도 하는데

패턴을 잘 찾는 것도 중요한 능력이다. 수학이나 과학은 무질서해 보이는 것들 사이에서 “이런 질서가 있구나”라는 걸 딱 찾아냈을 때 그걸 바탕으로 한 단계 비약이 일어나기도 한다. 인공지능은 인간보다 그런 패턴을 찾는 게 능숙하기도 하다.

그렇지만, 고민을 많이 해봤는데, 결국 이해는 ‘눈치’다. 눈치를 잘 챈다는 게 무슨 뜻이냐 하면, 관계나 맥락과 같은 언어 행위 바깥에 있는 것을 잘 알아채는 것을 말한다.

앨런 튜링의 <이미테이션 게임>이라는 영화에서 아주 재미있게 본 장면이 있다. 동료들이 앨런에게 “우리 밥 먹으러 갈 거야”라고 말을 하는데 앨런은 그냥 계속 일만 하는 거다. 동료들의 말 뜻은 “우리 밥 먹으러 갈 건데 너도 같이 갈 거냐, 같이 가자”는 거였다. 그런데 앨런은 그 말을 문자 그대로 “우리는 밥 먹으러 간다”라고만 알아들었다. 이 상황이 챗GPT가 하는 대화를 전형적으로 보여주는 것이라고 생각한다. 앨런 튜링은 인공지능의 창시자 답게, 눈치도 없이 표면적인 수준에서만 상대의 말을 이해하고 있는 거다. 그건 이해도 아니고,  소통도 아니고, 결국은 언어행위도 아니다. 그런 측면에서 이해는 패턴을 익히는 것과는 다른 종류의 활동이다.

GPT와 대화를 해봤는데, 그 결과물이 사람마다 다르더라. 사람한테 필요한 건 질문을 잘 하는 능력이겠구나라는 생각도 든다

그 얘기를 많이 하는데, 조금 무책임한 것 같다. 예전에는 데이터베이스 안에서 (원하는 것을) 요령껏 잘 찾아내는 능력을 ‘검색 능력’이라고 했다. 지금은 그걸 ‘질문 능력’이라고 표현을 한다. 그런데 질문을 잘 하려면 프롬프트를 잘 적어주는 능력이 제일 중요할까? 아니라고 본다.

그림 생성과 같이 정밀한 질문이 중요한 부분을 제외한다면, 일반적으로는 자기 전문 지식이 많을수록 질문의 깊이가 깊어진다. 다시 말해서, “내가 잘나야 한다”는 이야기다. 자기 분야에서 질문 잘하는 능력이라는 것은 결국 “더 공부해라”라는 말로 귀결된다. 그러니까, 인간이 할 일이 더 늘어난 거다. AI가 강력해 질수록 인간이 더 잘 이용하려면 자기가 많이 알고 있어야 한다. 그래야 정보의 정확도를 감별하고 더 깊이 캐물을 수가 있다.

모두가 공부하는 능력을 갖고 있는 것은 아니다. 계층의 차이가 더 크게 벌어질 수 있겠다

“공부하기 싫으니까 GPT를 시켜서 일을 해야겠다”는 마인드를 가진 사람과, 반대로 “GPT를 활용해서 더 공부하고 많이 알아야겠다”는 생각을 가진 사람 사이의 격차가 벌어질 것이다. 그 차이는, 과거에 지식을 갖춘 사람과 갖추지 못했던 사람의 사이보다 더 클 것으로 보인다.

그런데 사실, 사람들 대다수는 공부하기 싫어한다. 그렇다고 그 사람들이 잘못한 걸까? 그렇게 평가하면 안 될 것 같다. ‘노오력’ ‘능력주의’라고 해서, 점수가 높은 사람이 우대받는 것은 특정한 전제 아래에서만 성립한다. 이런 능력지표를 누가 만들었는지, 어떤 사회적 맥락에서 의미가 있는지를 따져봐야 한다. 이런 지표는 100년도 넘은 것인데, 우리가 아직도 적용하고 있는 거다.

‘공부를 못하고’ ‘점수가 모자라고’ 그런 것은 역량의 지표로 사용되기에는 너무 낡았다. 그런데 지금의 교육은 거의 모두 그런 지표에 맞춰져 있다.

인재를 선발하는 과정이 아직 예전의 산업 시스템에 맞춰져 있다. 이런 상황에서 어떤 공부를 하라고 말을 해야 하나?

그래서 대학을 중심으로 사회가 많이 혼란 상태다. 노엄 촘스키 얘기를 제가 많이 비판하는 데, 자꾸 ‘표절 문제’를 이야기해서다. 대학이라는 게 기껏 표절 정도를 걱정할 교육기관인가? 표절은 학점 딸 때만 기능하는 것이다. (표절로 자기 점수를 잘 받는다고 해도) 졸업 후에 사회에서 자기 생각, 지식이 없으면 결국엔 껍데기 밖에 안 남는다.

물론, 윤리적인 부분에서 표절은 중요한 문제다. 하지만 표절만 강조하는 것은, ‘학점은 만점이지만 자기 능력은 없는 아이들’을 대학이 길러내고 있다는 걸 보여주는 사례 아닐까? 대학이 학생들에게 무엇을 채워줘야 하는지에 대한 실질적 고민은 별로 없는 것 아니냐는 비판이 나올 수 있다.

촘스키 이야기가 나온 김에, 하나 더 묻고 싶다. 촘스키는 인간은 태생적으로 공통의 문법을 갖고 있다고 말한다. 그런데 챗GPT는 문법을 배워서 언어를 말하는 것이 아니다. GPT는 그간 우리가 옳았다고 생각한 언어 이론이 사실은 옳지 않을 수도 있다는 걸 보여주는 사례 아닐까?

촘스키 이론의 이름은 ‘변형생성문법’이다. (GPT의 기반이 되는) 트랜스포머 이론과 명칭이 겹친다. 그래서 촘스키가 GPT에 더 민감하게 반응하는 것으로 보인다.

촘스키는 누구나 선천적으로 가지고 있는 문법 능력이 있고, 그 능력이 추후에 개별 언어로 발현된다고 말한다. 문법이 무엇이냐가 사실상 중요하다. 문법은 언어를 구사하는 규칙인데, 인공지능은 그런 규칙 없이 문법에 맞는 이야기를 해낸다. 타고난 문법 능력이 없어도 말을 하는 거다. 챗GPT가 말을 문법에 맞게 그럴듯하게 하니까, 이 점에서 촘스키가 취약할 수밖에 없다.

이 사례를 인간한테 적용해보자. 타고난 문법 능력이 없어도, 제 표현으로 바꾸자면, 사실은 ‘눈치만 있으면’ 언어를 구사할 수 있다. 아까 나온 앵무새 얘기처럼, 문법 능력이 없어도 눈치가 있으면 적절히 말을 만들어낼 수 있는 거다.  그렇다면, 눈치를 챈다는 것이 문법의 문제일까?

문법의 문제는 아닐 수 있다?

(눈치를 챈다는 것은) 인간의 상호행동, 사회적 관습, 비언어적인 영역에 해당하는 것 같다. 문법은 사람들의 삶 전체와 관련한 문제 중 일부인 것 같다. 문법은 언어의 의미와 관련한 규칙이므로, 실제로는 (인간 상호행동에서 차지하는) 비중이 적다. 사람들이 살아갈 때는 문법보다 다른 영역이 훨씬 더 중요하다. 가령, 어긋난 문법의 외국어를 구사하는 것이 실제 상황에서는 별로 안 중요할 때가 많다. 심지어는 그 언어를 아예 못해도 (손짓발짓 써가면서) 적당히 문제를 해결한다.

배고프거나 배가 아플 때 배를 감싸 쥐는 것처럼(웃음)

그렇다. 굉장히 광범위한 인간 행위의 문제를 좁은 의미의 문법으로 축소해서 언어학을 구축한 게 촘스키다. 제가 전공한 들뢰즈-가타리는 “언어는 그런 것이 아니다. 언어는 있으면 편리한 것 정도”라고 말한다.

촘스키가 거대언어이론(LLM, Large Language Model)을 비판하지만, 다른 한 편으로는 그 자신의 언어 이론 역시 전제하는 바는 비슷하다고도 얘기할 수 있다. “언어를 의사소통이나 정보 전달 (기호) 정도로 본다는 점”에서 그렇다. 둘의 차이는 문법 능력이 타고난 것이냐 아니냐 정도지, 1차적인 평면적 의사소통을 전제로 언어를 본다는 점에서는 똑같다.

다시 챗GPT 이야기로 돌아와서, AI가 스스로 이해하거나 새로운 걸 도출하진 못하더라도, 인간의 사유를 도와줄 수는 있지 않을까?

개인적으로, 포항공대에서 발간하는 웹진의 편집위원장을 맡고 있다. 거기 위원이 절반은 이공계 과학자고, 절반은 인문계다. 양측에서 챗GPT가 도움이 된다 안 된다 여부를 놓고 의견이 전혀 다르다. 왜 그럴까 생각해보니까, 일단 (챗GPT의) 훈련 데이터의 차이가 엄청 크다. 철학을 비롯해 인문과 관련한 데이터는 당연히 적다. 로컬 데이터는 더더군다나 없다.

인문사회대한 연구가 덜 되었거나, 혹은 더 많은 자료가 만들어지지 못한 사회의 문제일 수 있겠다

그런 점도 있지만, 중요한 데이터의 상당 부분은 영어로 된 비공개 문건이다. 게다가 인문사회는 인간이 복잡한 만큼 이론도 썰도 다양하다. 이걸 평균을 내는게 잘 안 된다. 해석도 다양하고.

뒤집어 말하면, 인문사회는 GPT 시대에도 인간이 먹고 살 수 있는 영역이라는 뜻도 된다

나는 그렇게 생각한다. 물론, 한국이고 외국이고 상관없이 “사회에서 인문에 대한 수요가 얼마나 있느냐”는 별도의 문제다. 그래도 현존하는 수요만큼은 상당부분 그냥 갈 거라고 본다.

그래도 지식노동을 GPT가 대체하게 되면, 당장 인간이 할 일이 줄어들지 않겠나? 인문사회 공부에 대한 수요가 빨리 늘어날 것도 같다

일자리가 얼마나 계속 남아 있느냐가 중요하겠지. 가령 AI에게 기사를 대신 쓰게 하는 상황을 생각해 보자. 그래도 기자로서의 ‘촉’ 같은 게 있지 않나. 대중이 어디에 관심을 가질 것이라는, 사회적 맥락에서의 감 같은 것 말이다. 챗GPT는 그걸 절대로 할 수 없다.

색 데이터 양에 따른 촉은 있겠지만

그렇다. 단지 트렌드에 후행하는 거다.

주 중요한 얘기다. AI아젠다 세팅은 못한다

예술 얘기도 마찬가지다. AI가 범작은 만들겠지만, 새로운 걸 만들지는 못한다. 사람들은 새로운 것을 설계할 수 있다. 계속 강조하는 데, “넘어서는 능력은 인간의 독특한 능력”이다. 기존의 것을 넘어서, “저런 것도 있어?” 싶은 것을 자꾸 만들어 집적해온 것이 인류의 역사다.

지금은 과거보다 더 “기존의 것을 넘어설 수 있는 능력” “자기 변화를 지속할 수 있는 종류의 능력”이 필요하다. 대학에서 배워 평생 직장을 다니는 구조의 산업시대가 아니다. 그런데 학교가 그걸 감당을 못하고 있다. 특히 교수가 못 따라간다. 자신들도 배운 적이 없기 때문에 가르치지 못하는 악순환이 세계적으로 똑같이 일어난다. 촘스키가 그걸 대표적으로 보여주고 있다.

상징적인 장면으로 볼 수도 있겠다

교육의 망조를, 생성 인공지능 앞에서 촘스키가 시연, 고백했다고 생각한다.

그렇지(과거 시대의 인물들이) 권력을 갖고 있다. 바꾸기 매우 어려워 보인다.

한국뿐 아니라 세계 교육의 표준이 미국이다. 문제는 있지만 레거시가 워낙 강하니까 버티게 되는 거다. 그런데 변방에 있을수록 (레거시가) 느슨하니까 거기서 새로운 게 만들어지곤 한다. 그런 점에서 한국은 선진국이면서 어떤 의미에서는 미국의 변방이다. 제도를 바꿔 나가면 좋겠는데, 유감스러운 것은 여기도 미국 유학파가 주류라는 점이다.

교육을 다시 설계한다면, 어떻게 바꾸면 좋을까?

구체적으로는 문과를 없애야 한다. 문과의 특징은, 수학적·과학적 사고를 습득할 기회를 뺏는다는 거다. 수학을 문제 푸는 능력으로만 가르치는데, 사실 수학과 과학은 사고방식이자 물질 세계의 근간이다. 수학과 과학 없이는 착각하거나 오류에 빠지기 쉽다. 그런데 수학과 과학을 배제한 문과에 강점이 있나?

회 이론이나 철학 같은 것을 조금 더 많이 배울 수 있지 않을까?

그건 이과에서도 할 수 있다. 통상 문과의 강점으로 역사나 문학 같은 것을 이야기 하지만, 이런 것도 이과에서 다 배울 수 있는 거다. 그런데 문과에서는 (수학이나 과학을) 안 가르친다. 문과는 교육을 ‘빼기’로 접근한다면, 이과에서는 굳이 빼기가 없다. 사회에 나가서 쓸모가 없으니 빼버린다는 관점에서 교육을 대하면 안 된다. 통으로 지식을 가르치고, 문과 이과의 구분을 없애야 한다.

특히 저학년에서는 전체를 가르치고, 나이가 들어서 자기 전공을 찾아가도록 해야 나중에 문이과 융합 프로젝트도 가능하다. 자기 전문지식을 갖고 있는 사람들이 대화하고 협업하는 게 융합이라고 생각한다. 칸막이 교육을 하고서는 나중에 나이 먹고 만나면 절대 섞이지 못한다. 교육은 출발 단계에서 공통된 소양을 갖추게 하고, 나중에 전문 영역을 깊게 공부할 수 있도록 해야 한다. 그것이 디지털 시대 교육의 방향이어야 할 것 같다.

–> 인터뷰는 [철학자, AI를 말하다 (하)] “챗GPT 별거 없다, 진짜 혁명은 번역” 으로 이어집니다.

글. 바이라인네트워크
<남혜현 기자> smilla@byline.network

관련 글

13 댓글

  1. 김재인씨는 촘스키 언어 이론을 전혀 이해 못하고 있네요. 촘스키는 커녕 현대 언어학의 기본도 모르는 것 같은데. 제발 이런 비전문가를 걸러내는 안목 좀 기릅시다 기자 양반들. 그리고 AI 에 대해 논한다는 자칭 철학자들, 제발 어깨 너머로 주워들은 이야기를 갖고 대충 썰 풀려고 하지 말고 기본기부터 쌓고 옵시다. 앨런 튜링 예시하면서 그라이스 이론도 못 논하는 건 너무 하잖아요.

  2. 문과가 왜 없어지나요 ㅎㅎ
    인간이 문과가치를 기술이 더 와닿고 인간이 가치를 인지할 수가 있는것 아닌지요.

  3. 내용을 보니까 문과가치를 없에자는게 아니라 문이과 구분을 없에고 모든 학문을 통합하자는것 같네요 제목이 좀 자극적인듯

  4. 챗GPT챗는 아직 미숙한면이 보입니다.
    지금도 성능개량을 위해 다양한 모델을 시도하고있어요,
    앞으로 방법을 찾아낼것으로 봅니다.
    지금의 통계적 모델로 접근하는 방식은 한계가 있느데 현재는 그방법 밖에 기반이 없어요. 이는 언어에 기반으로 행하는 기술이지요. 한국어가 언어 측면에서 완전한 기본 말과 글을 가진 강점이 있고 훈민정음으로 글자와 문자를 처리하는 네트워크이론을 통해 기계학습을 하면 사람과 같은.학습이 되면 완성될것으로 보입니다.
    챗GPT 챗는 사람마다 비서로서 역활을 하는 도구가될것이고 먼훗날 사람은 지구에서 필요없게되고 인공지능기계가 기계를 만들어 지구를 지키면서 먹이사슬의 최고가 사라지면서 자연의 숲과 동물이 늘어날것으로 보입니다. 생명현상과 AI 반도체가 만들어지면 인간을 만들어낼것이고 전문적 학습을 시키면 전무가를 대신하게 됩니다.
    사람이 필요없는 시대가 와있을 뿐인데 아직 미쳐 깨닫지 못하고 관찰만 하고있네요.
    저는 이미 30여년 이전에 실험을 통해 뇌세포 정보를 임의로 변경시켜놓고 결과를 보니 기억이 다시 회복해내는 역전파 알고리즘으로 심화학습의 이으로.모델을 만들어내는 반고체설계로 국내에서 최초로 박사학위를 받았지요. 이제서야 이기술이 반도체제조로 이어지게될것입니다. 지금까지는 반도체가 아닌 소프트웨어로 실현하는것을 하드웨어로 실현해야 사람과 같이되는것이지요.
    아직은 연산속도를 내는 병렬처리 GPU소자로 디지탈 컴퓨터 인공지능을 사용하는정도지만 바로 반도체 하드웨어로 만들면 GPU도 필요없게됩니다. 자기 자신을 이해해가는것이 AI 그대로 이므로 자기 자신을 알아가십시요. 정답은 자신과 대화하면 답이 보입니다. 서울대도 챗GPT챗를 분석만 할수있는 수준에 머물러있고 미래를 전혀 모르고 있고연구방향은 전무 상태로 봅니다. 답이 이미나와있지만 밝힐 수는 없는것이지만 조마간 돌파구를 찿을것으로 보이며 시간이 경과하면 갈피를 잡게됩니다.
    이때 대한민국의 한국어의 위상이 빛날것이라 생각하고 이점에 역점을 두고 연구해 왔었지요.
    “과학으로 풀어쓴 훈민정음” 저자씀.

  5. 기술과 현상황을 제대로 모른 상태로 기존 가지고 있는 본인의 지식만을 이용해서 판단하신것 같네요. 이미 챗gpt가 추론의 영역을 일부 달성했다는 건 대형 자연어처리 모델만으로도 단순 입출력이 아닌, 지능의 영역도 달성할 수 있다는 점을 보여주죠. 자꾸 의외성, 새로운 것에 대해서 말씀하시는데 그것도 어차피 그저 자신이 모르는 부분에 대해 아는 것 그 이상 그 이하도 아니지 않을까요.
    챗gpt와 대화 할 때 답정너식으로 하면 결국 내가 원하는 답을 내는 방향으로 대화가 흘러가고 ‘역시 내 생각이 맞았어’라고 착각하게 되는 경우가 부지기수입니다. ai의 발전을 그저 낙관적으로, 그저 비관적으로 바라보는 것도 경계해야 하지만 이런 식으로 ai는 아무것도 아니고 전혀 걱정하지 않아도 된다는 것은 무책임하거나 도피성으로 느껴집니다.

  6. 인터뷰 별로네요. 첫 몇 줄 읽고, 제대로 이해하고 있는지 의문이 들어서 내렸습니다.

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다