“AI 발전 빠른데, 발전방안과 안전에 대한 논의는 충분치 않아”

공공과 민간 협력 GPU 확충
최소한의 규제, AI 기본법
AI 안전은 글로벌 경쟁력 요소

AI가 국가 산업의 중심으로 떠오르면서, 기술 발전에 맞춰 규제와 안전이 따라가야 세계에서 경쟁력을 가질 수 있다는 목소리가 나왔다.

국제인공지능윤리협회(이하 IAAE)는 27일 서울 강남구 구글 스타트업 캠퍼스에서 ‘2025 AI 세이프티 캠퍼스(ASC, AI Safety Compass)’ 컨퍼런스를 진행했다.

지난해 이어 두 번째로 열린 이번 컨퍼런스 주제는 ‘변화하는 AI 환경에서의 기업 경쟁력 확보’다. 오는 6.3 대선과 내년 1월 AI 기본법 시행을 앞두고 쏟아지는 AI 공약들 속에서 중요한 쟁점을 짚고 넘어가는 자리라는 점에서 의미가 있다.

이번 행사는 테크 스타트업 PR 전문 에이전시 팀쿠키가 IAAE와 공동 주최했으며, 다양한 공공기관과 민간 기업이 한 자리에 모였다. 과학기술정보통신부, 한국과학기술정보연구원(KISTI), AI안전연구소 등 공공기관을 비롯해, 엘지유플러스(LGU+), 원티드랩, 셀렉트스타, AI3 등 민간 기업들이 발표를 진행했다.

개회사를 맡은 전창배 IAAE 이사장은 “오늘 컨퍼런스가 대한민국이 인공지능 강국으로 도약하는 데 나침반 역할을 할 수 있길 바란다”며, “이 자리에 계신 모든 강연자와 참석자분이 함께 참여하고 논의하고, 발전적인 제안을 나누는 의미 있는 시간이 되길 바란다”며 소감을 전했다.

환영사를 맡은 임기태 팀쿠키 부대표 겸 IAAE 대외협력이사는 “기술이 지속 가능하기 위해서는 사회적 책임도 함께 논의되어야 한다는 점을 깊이 생각했다”며, “신뢰할 수 있는 AI란 무엇인가, 유용하면서도 안전한 인공지능을 도입하려면 어떤 원칙이 필요한가 등에 대한 논의의 장도 필요하다는 것을 느꼈다”며 행사 개최 의미를 되짚었다.

최우선 과제, “국가 예산으로 GPU 우선 확보”

27일 ‘2025 ASC 컨퍼런스’에서 발표하는 공진호 과학기술정보통신부 인공지능기반정책과장 (제공=팀쿠키)

이날 첫 번째 발표자로 나선 공진호 과학기술정보통신부 인공지능기반정책과장은 ‘대한민국 인공지능 정책 대응’을 주제로 발표했다.

공진호 과장은 “이제 글로벌 AI 패권 경쟁이 최근 딥시크 돌풍을 통해서 새로운 국면에 진입했다”고 말했다. 미국이 스타게이트 프로젝트로 700조원을 투자하고, EU가 300조원을 투자하는 등 AI 분야에 국가 차원의 지원이 이뤄진다고 봤다. 공 과장은 “아직 우리나라는 미국이나 중국 같은 AI 선도국에 비해 격차가 상당하지만, 충분히 따라잡을 수 있는 잠재력이 있다”고 분석했다.

공 과장은 AI 선두국으로 도약하기 위해 ‘그래픽처리장치(GPU) 자원 부족 해소’를 최우선 과제로 꼽았다. 구체적 방안으로 ▲1단계 민간과 공공 협력으로 GPU 확충 ▲2단계 26년 상반기까지 1만8000장분 분량 GPU 조기 확보 ▲3단계 국가 AI 컴퓨팅 데이터 센터 가동 등 단계별로 구분했다. 퓨리오사나 리벨리온 같은 국산 AI 반도체 기업 비중을 50% 이상 늘리겠다는 목표도 세웠다.

이달 초 정부는 1조9000억원 규모 AI 분야 추가경정예산(추경)을 편성했다. 공 과장은 “이러한 추경으로 충분한 예산을 확보했다”며, “연내 GPU 1만장 확보와 민간 보유 GPU 3000장을 즉작 확보해 임대해 드릴 것”이라고 말했다. 그는 “예산 1조9000억원 중 약 1조6400억원 가량이 GPU 확보에 쓰일 예정”이라고 덧붙였다.

AI 기본법은 말 그대로 ‘기본’ 법

AI 기본법 역시 중요한 화두다. 내년 1월 시행 예정인 ‘인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(일명 AI 기본법)’은 산업 현장에서 기대와 우려가 섞인 목소리가 나오고 있다. 법안의 주요 내용으로는 ▲고영향AI 신뢰성 확보 책무 ▲생성형 AI 결과물물 표시 의무 ▲국가 AI위원회 설치 ▲ AI안전연구소 운영 ▲AI 데이터 센터 구축 및 지원 ▲AI 전문인력 확보 등이 있다.

유럽연합(EU)에 이어 세계에서 두 번째로 제정된 AI 관련 법이다. 공 과장은 “AI 기본법은 미국이나 EU가 기본적인 AI 관련 규범 정립에 나서면서 국내 환경을 감안한 틀을 마련했다”고 전했다.

공 과장은 “산업 현장에서 민감하게 받아들이는 부분을 이해하고 있다”고 설명했다. 생성형 AI 결과물에 대한 고지와 표시 의무, 고영향 AI의 위험관리 방안과 이용자 보호 방안 수립 및 운영 등에 대한 책무 등이 그렇다. 업계에서는 생성형 AI와 고영향 AI는 적용 범위를 명확히 정의 내릴 수 없지 않냐는 우려가 있다.

이에 대해 공 과장은 “기본적으로 기업과 비즈니스를 하는 사람들에게 도움이 되고, 지원하려는 입장”이라며, “규제 조항들에 대해서 필요 최소한도로 해 부담을 줄일 수 있도록 준비하고 있다”는 입장을 밝혔다.

예시로, “AI로 만든 CG를 사용하는 영화 사업자라면, 규제를 받아야 하나?”라는 의문이 있다면, 인공지능 사업자의 범위를 최소화하고 협의회에 속한 사업자만 최소한의 규제를 받을 수 있게 준비하고 있다고 공 과장은 설명했다.

27일 ‘2025 ASC 컨퍼런스’에서 발표하는 공진호 과학기술정보통신부 인공지능기반정책과장 (제공=팀쿠키)

AI 기본법과 관련해 개인 목소리나 얼굴 등을 모방하는 딥페이크 같은 범죄 예방책이 빠졌다는 참석자의 질문도 나왔다.

공 과장은 “AI 기본법은 말 그대로 기본법”이라며, “AI 기본법에서는 정말 최소한의 규제만 규정해야 한다”고 설명했다. 그는 “법률에서는 모든 걸 담을 수 없고 구체적인 기준과 이행 방법은 하위 법령에서 담 되어있다”고 덧붙였다. 또, 하위 법령에서는 고영향 AI에 대한 예시와 기준에 관한 가이드라인이나 사업자 책무를 구체적으로 어떻게 해야 할지 준비 중이라고 밝혔다.

AI 기본법에서 세세하고 개별적인 규칙은 추후 마련하겠다는 입장이다. 공 과장은 “개인정보에 대한 보호는 개인정보 보호법과 관련이 있고, 영화 등은 저작권법과 관련되어 있기 때문에 기본적인 AI와 관련된 규제 조항을 중심으로 말할 수밖에 없다”고 AI 기본법 제정 배경을 설명했다.

규제보다는 AI 안전

27일 ‘2025 ASC 컨퍼런스’에서 발표하는 김명주 AI안전연구소 소장 (제공=팀쿠키)

AI 관련 규제는 현 상황에서 꼭 필요할까? 이날 ‘안전한 AI와 글로벌 경쟁력’을 주제로 발표를 진행한 김명주 AI안전연구소 소장은 대선 공약과 관련해 “AI 논의를 하지만, AI 안전에 관한 논의는 없다”는 점을 지적했다.

김 소장은 “규제 이슈가 굉장히 강하다. 하지만 지속적으로, 바람직하게 성장하기 위해서는 결국 안전 문제가 나올 수밖에 없다”고 목소리를 높였다. AI 규제는 글로벌 경쟁력을 높이는 요소가 될 수도 있다는 입장이다.

샘 올트먼 오픈AI CEO는 GPT-4를 발표했을 때, “사람이 불완전한데 AI라고 완전하겠느냐?”는 발언을 했다. 샘 올트먼은 AI에 대한 규제가 필요하다는 의견을 표명해 왔다. 딥러닝에 대한 연구로 잘 알려진 제프리 힌튼 전 구글 부사장 역시 “딥러닝을 만든 걸 후회한다”며 AI 기술이 위험을 가져온다고 우려하기도 했다.

김 소장은 “AI에 관해 아직 드러나지 않은 위험이 있을 수 있다”고 걱정했다. 김 소장은 “AI를 수출할 때도 안전하다는 이미지를 가질 수 있도록 안전 기준을 판단하고 제공할 수 있도록 연구하겠다”는 의지를 드러냈다. 더 나아가 AI안전연구소가 제공하는 분석 기준이 세계 표준이 될 수 있도록 노력하겠다는 입장을 전했다.

최근 AI가 ‘스스로 종료하라’는 인간의 명령을 거부했다는 이야기가 나왔다. 수학 문제를 푸는 테스트 중 작동을 멈추는 명령을 내렸지만, AI가 이를 거부하고 계속 문제를 푼 것이다. 이 사례를 공유한 연구팀은 AI가 인간의 통제를 벗어난 첫 사례로 봤다. 한 질문자는 이 사례와 관련해 AI가 인간의 명령을 거부하는 상황에 대한 우려를 표하기도 했다.

AI 기본법 시행을 앞두고 고민이 필요한 시점이다. 이번 컨퍼런스는 AI 강국으로 도약하기 위한 정책, 규제, 안전에 관한 이야기 등 중요한 방안을 이야기했다. AI 기술의 발전보다 더 많은 논의가 필요한 이유다.

글. 바이라인네트워크
<최가람 기자> ggchoi@byline.network

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다