에릭 슈미트 “AI 개발을 핵무기처럼 경쟁하면 더 위험 ”
– AGI(Artificial General Intelligence, 인공일반지능) 개발은 원자폭탄 개발 경쟁이 되어선 안된다… 새로운 접근 방식 필요
– 고급 AI 칩 접근에 제한 등 우위를 점하는 것보다 방어적 전략 제안
미국의 AI 개발 경쟁이 핵무기 경쟁처럼 되면 안된다는 정책 논문이 제시됐다. 구글 전 최고경영자 에릭 슈미트, 스케일 AI 최고경영자 알렉산드르 왕, AI 안전센터 총괄 댄 헨드릭스는 이같은 내용을 담은 “초지능 전략(Superintelligence Strategy)”이라는 논문을 5일 발표했다.
미국이 AGI 개발을 ‘맨해튼 프로젝트’처럼 하면 안된다는 것이 이들의 핵심 주장이다. 맨해튼 프로젝트는 미국이 주도한 핵폭탄 개발 프로젝트로, 독일보다 먼저 개발해야한다는 것을 목표로 진행되었다.
인공일반지능, 즉 AGI는 인간과 유사한 학습, 이해, 추론 능력을 갖춘 인공지능을 말한다. 스스로 학습할 수 있는 능력을 갖춰 인간의 수동적인 개입 없이도 다양한 영역의 문제를 해결하는 것을 목표로 한다. 초인적 지능을 갖춘 AI 시스템이다.
슈미트, 왕, 헨드릭스가 공동 발표한 논문에 따르면, 미국이 AI 시스템을 독점하고 통제권을 가지려고 하는 시도가 중국의 강력한 보복으로 이어질 수 있다고 경고했다. 이는 사이버 공격과 같은 행동을 일으킬 수 있고 국제관계 불안 요소로 작용할 수 있다고 말했다. 공동 저자는 “강력한 무기인 AGI와 그 통제권을 얻기 위한 전략은 적대적인 대응책을 촉발하고 긴장을 고조시키며, 그로 인해 확보하려는 안정성이 훼손된다”고 주장했다.
미국 의회가 첨단 기술 경쟁에서 우위를 점하기 위해 중국보다 먼저 AGI를 개발해야 한다고 주장하며 ‘맨해튼 프로젝트’처럼 AGI 개발 자금을 조달하는 프로젝트를 제안한 지 불과 몇 달 만에 이에 반대하는 논문이 발표된 것이다.

이 논문에는 타 국가보다 우위를 점하기 위한 목적으로 AGI 개발을 지원하는 정부의 정책에 의문을 제기했다.
세 명의 의견에 따르면, 세계 강대국이 핵무기에 대한 독점을 추구하지 않는 것과 마찬가지로(이는 적대국의 선제공격을 유발할 가능성) 미국이 강력한 AI 시스템을 갖기 위해 경쟁하는 것에 신중히 해야 한다고 주장했다. AI 시스템을 핵무기에 비유하는 것은 극단적으로 보일 수 있지만, 세계 지도자들과 미 국방부는 AI가 군사 작전에 큰 도움이 된다는 시각이다.
미국이 초지능 AI 경쟁에서 이기는 것에서 다른 국가들이 초지능 AI 개발을 막을 수 있는 방법을 개발하는 방향으로 초점을 바꿔야한다는 것이 저자들의 종합된 의견이다. 이를 위해서 미국에 적대적인 세력이 고급 AI 칩과 오픈 소스 모델에 접근하지 못하도록 하는 것이 필요하다고 강조했다.
이 주장은 일종의 방어전략이다. 이들은 AI 개발의 우위를 점하려고 하면 모든 국가의 안보가 위태로워진다고 보고, 유능한 AI를 생산하고 통제한다고 하더라도 다른 국가의 생존에 위협이 된다고 보았다. 그렇기에 AI를 개발할 수 있는 AI 칩이나 인프라 배치를 신중히 하고, 데이터 센터를 확보하는 등 생산에 필요한 것들을 통제해 ‘강력한 AI’라는 무기를 확산시키지 않도록 해야한다고 말한다.
중국이 저렴하면서도 뛰어난 성능의 AI인 딥시크(DeepSeek)로 AI 경쟁에서 전환점을 만든 만큼, 트럼프 행정부는 미국의 AI 개발을 멈추지 않을 것이라고 외신은 보도했다. AGI 개발에 대한 미국의 결정은 전세계가 주목하고 있으며, 슈미트를 비롯한 저자들은 방어적인 접근 전략이 더 현명할 것이라고 제안했다.
글. 바이라인네트워크
<최가람 기자> ggchoi@byline.network
[컨퍼런스] AI 에이전트와 지능형 인터페이스 시대
◎ 일시 : 2025년 3월 27일 오후 12:30 ~
◎ 장소 : 서울 강남구 테헤란로7길 22 ST Center (과학기술컨벤션센터) 지하 1층 대회의실 2