수츠케버 창업 이유는 “인간의 목적에 부합하는 AI 만들기 위해”

일리야 수츠케버는 항상 AI 연구의 최전선에 서 있던 인물이다. 잘 알려진 오픈 AI의 수석과학자 역할 외에도 AI 연구의 기점이 된 사건들 중심에 항상 서 있었다.

수츠케버가 세상에 모습을 처음으로 드러낸 건 딥러닝 혁명을 이끈 알렉스넷 때부터였다. AI 업계의 거장으로 꼽히는 제프리 힌튼 토론토대학교 교수가 두명의 대학원생과 알렉스넷을 선보였다. 그중 한명이 수츠케버였으며, AI 연구에서 딥러닝이 주류가 된 순간에 해당한다.

이후 힌튼 교수의 회사 DNN리서치는 구글에 인수됐고, 수츠케버는 잠깐동안 구글에서 일하게 된다. 구글에서 아주 잠깐 언어 모델에 대한 연구를 진행하던 수츠케버는 2014년 오픈 AI의 공동 창업자로 나선다.

GPT의 첫번째 모델은 2016년에 등장했으며, 2022년 11월, GPT-3.5 버전이 일반으로 공개되며 시대는 생성형 AI 대격변기에 접어든다.

GPT-4까지 공개되며 승승장구하던 오픈 AI는 ‘쿠데타’로 불리는 사건을 겪게 된다. CEO인 샘 알트만이 이사회 합의를 통해 해임된 것이다. 추후 “후회한다”는 소회를 밝히기도 했지만 수츠케버 역시 해임안에 동의한 상태였다. 이사회는 “알트먼이 이사회와의 커뮤니케이션에 솔직하지 않았다”며 알트만 해임 사유를 밝혔다. 이후 샘 알트만은 MS로 소속을 옮기기로 했으나, 알트만을 지지하는 여론의 반발을 이겨내지 못하고, 이사회와 임시 CEO의 합의를 통해 5일만에 CEO 자리로 복귀했다.

수츠케버와의 충돌은 ‘AI의 안전’에 관한 것이었다. 수츠케버는 2023년, 블로그에 “인간보다 뛰어난 지능을 갖춘 AI가 10년 이내 출시될 것”으로 예측하며, AI를 제어하고 제한하는 연구가 필요하다고 밝힌 바 있다. 알트만 CEO는 이런 안전 문제보다는 성장과 확장에 더 몰입한다는 것이 당시 이사회의 주된 평가다.

수츠케버가 당시 일하고 있던 팀도 수츠케버의 철학을 반영한다. 수츠케버는 ‘초정렬(Superalignment)’ 팀에서 일했는데, 해당 팀은 인간보다 훨씬 똑똑한 AI 시스템이 인간의 의도를 따르도록 제어하는 방법에 대해 연구하는 팀이다. 해당 팀은 수츠케버 퇴사 이후 해체돼있으며, 각 팀으로 인력이 분산된 것으로 알려져 있다. 당시 초정렬 팀을 함께 이끌던 잰 레이크(Jan Leike)는 현재 앤스로픽에서 일하고 있다.

수츠케버의 다음 행보는 창업이었다. 공동창업자는 전임 애플 AI 리더인 다니엘 그로스(Daniel Gross), 오픈 AI 전 직원 다니엘 레비(Daniel Levy)와 함께 Safe Superintelligence Inc, SSI)를 창업한다고 밝히며, 캘리포니아 팔로알토와 이스라엘 텔아비브에서 인재를 모집한다고 밝혔다.

SSI의 목표는 수츠케버가 오픈 AI Superalignment 팀에서 일하던 것과 궤를 같이한다.

SSI는 ▲매우 똑똑하며(초지능), ▲인간에게 안전하며 ▲인간의 가치에 부합하는 AI를 만들고자 하는 기업이다.

이를 위해 ▲AI 정렬 문제 해결, ▲업계 전반의 안전 표준 만들기, ▲AI 안전에 중점을 둔 타 기업과의 경쟁 등을 주요 과제로 한다.

SSI와 OpenAI의 차이점

주안점 SSI 오픈AI
주요 초점 안전 제일 고급 AI 제품
접근하다 조심스럽고 안전에 중점 빠른 속도의 상업용 AI 개발
우선 사항 AI를 안전하게 만들기 새로운 AI 도구 만들기

 

핵심은 “인간의 가치와 부합하는 안전한 AI”다. 인간의 지식을 AI가 뛰어넘게 되는 순간, AI가 인간에게 위협이 될 것이라는 목적에 반해, 처음부터 인간의 뜻에 부합하는 AI를 만들고 정렬하는 것이 SSI의 목적인 것이다.

SSI는 이를 위해 AI 역량보다는 안전을 최우선으로 생각해 연구한다고 밝혔다. 또한, 적대적 테스트, 레드팀, 인지 아키텍처 등의 방식을 통해 AI의 위험성을 끊임없이 검증하겠다고 밝혔다.
이러한 방식은 언뜻 보면 낭만적으로 들리지만 단점도 있다. 다른 회사와 비교해 AI 성능이 발전하는 데 오랜 시간이 소요될 수 있으며, 그 기간 동안 충분한 성과를 내지 못한다면 시장에서 외면받을 수도 있기 때문이다.

안전 문제를 중점으로 두는 회사는 SSI뿐만이 아니다. 앤스로픽 역시 안전 문제를 항상 강조한다. 즉, 성능과 안전 모두를 보장할 수 있는 제품은 이미 존재한다. 여기서 조금 더 안전에 치우친 것이 SSI의 설립 목적이다.

수츠케버는 이 안전의 수준을 “신뢰와 안전 수준이 아닌 원자력과 안전 수준”이라고 밝혔다. AGI(일반 인공 지능, 사람이 할 수 있는 모든 것들을 할 수 있는 인공지능) 시대가 오면 안전 문제가 무엇보다 중요할 것이고, 따라서 인간의 뜻에 부합하는 AI를 만들어야 한다는 것이 수츠케버의 주장이다.

글. 바이라인네트워크
<이종철 기자> jude@byline.network

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다