[이진호의 시선] 발전하는 AI…이제는 진짜 ‘룰’ 논의해야 할 때

인공지능(AI)의 쓰임새가 날로 확장되는 가운데 안전장치를 거는 규범들이 차츰 생겨나고 있습니다. AI가 만든 결과물에 대한 신뢰도를 판단하거나 AI 기술 자체에 공정하게 접근할 수 있게 보장하는 등 형태도 가지각색입니다.

하지만 급물살을 타고 있는 AI 규범 마련 논의에도 한계는 있습니다. 투명성이나 공정성 같은 멋들어진 말 외에도 진짜 지켜야 할 ‘명분’을 만드는 게 숙제입니다. 지난해 챗GPT 출시 이후 1년이 가까워진 지금. 다양한 형태의 전략이 나타나고 있지만 지켜지지 않는다면 무슨 소용일까요.

한 AI 기업 관계자는 “할루시네이션(환각) 문제는 늘 고민거리”라며 “AI가 정확하다는 맹신이 가장 큰 적”이라고 말했습니다. 이에 최소한의 안전장치를 걸어야 한다는 게 그의 생각입니다. 꼭 이게 아니더라도 실제 AI 기술에 따른 부작용은 적지 않습니다.

AI 챗봇이 내놓은 잘못된 답변이 잘못된 정보의 홍수로 사람들을 이끌거나, 생성AI 솔루션에 입력하는 프롬프트로 내부 정보가 새는 문제, 생성AI의 결과물에 대한 저작권 논쟁 등도 화두입니다. 이 뿐만 아닙니다. AI 모델 학습에 필요한 원천 데이터에 대한 저작권 산정 방식이나 AI 기술 개발에 필요한 컴퓨팅 파워 등 자원 문제도 AI 기술 발전이 낳은 고민거리입니다.

이에 기업들도 저마다 안전장치를 걸고 있긴 합니다. 부작용의 형태도 다양할테니 범용성 높은 원칙들이 생겨났죠. 하지만 꼭 지켜야 할 룰이나 법이 아닌 ‘원칙’ 수준에 그치는 게 한계입니다.

지금 GPT 엔진의 토대인 트랜스포머(Transformer) 모델을 창시한 구글은 열풍이 불기 훨씬 전인 2018년 AI 원칙을 발표한 바 있습니다. 이 원칙은 크게 ▲사회적으로 유익한 일에 사용할 것 ▲불공정한 편견을 만들지 말 것 ▲안정성 확보를 위한 테스트 선행 ▲책임성을 갖출 것 ▲개인정보 보호 설계 반영 ▲높은 수준의 과학적 우수성 유지 등을 지키면서 AI 기술이 개발돼야 한다고 강조합니다.

마이크로소프트도 ‘윤리’와 ‘설명 가능성’을 골자로 ▲책임성 ▲포용성 ▲공정성 ▲신뢰성과 안정성 ▲투명성 ▲개인정보 보호와 보안 등을 AI 기술 개발에 반드시 뒤따라야 할 원칙으로 삼았죠.

마이크로소프트가 제시하는 책임성 있는 AI 원칙 (출처=마이크로소프트)

표현 각각만 보면 정말 착하고 완벽한 AI를 만드는 약속 같지만 실상은 그렇지 않습니다. 구글의 챗봇 ‘바드(Bard)’는 처음 모습을 공개하는 시연회에서 오답을 내밀었고, 마이크로소프트 솔루션에 녹아든 챗GPT의 할루시네이션 문제는 언제나 뉴스의 단골 소재입니다. 안정성 확보를 위한 테스트를 원칙으로 삼았지만 불안정하고, 할루시네이션이 AI의 신뢰성을 흔드는 꼴입니다.

정부 차원의 노력도 있습니다. 미국은 지난해 가을 AI 관련 인권 보호 원칙을 제시했고, 영국의 경쟁시장청(CMA)은 건강한 기반 모델(FM)을 위한 7대 원칙을 발표했습니다. 특히 7대 원칙은 구글과 마이크로소프트 등 빅테크를 대상으로 FM의 잘못된 사용에 따른 사회적 피해를 경고한 것이 특징입니다. 하지만 경고는 경고일 뿐 이에 따른 페널티는 제시하지 않았죠.

우리나라도 원칙은 많지만…이제는 법령 논의 박차 가할 때

네이버와 카카오 등 생성AI 기술을 개발하고 있는 큰 IT 기업을 비롯해 업스테이지와 코난테크놀로지 등 자체 거대언어모델(LLM) 개발에 나선 기업이 많습니다. 이에 기업들의 자체 노력과 함께 정부 차원의 노력도 함께 이뤄지고 있습니다.

특히 업스테이지는 스타트업이면서도 자체적으로 5대 원칙을 세워 LLM을 개발하고 있어 눈에 띕니다. 사람 중심의 AI를 포함해 ▲신뢰성 ▲공정성 ▲안정성 ▲보편성을 내세웠습니다. 업스테이지 관계자는 “AI 윤리와 신뢰성은 우리의 미래를 결정하는 중요한 요소”라며 “삶과 사회에 많은 영향을 미칠 수 있기 때문에 사람의 존엄성과 공공선을 존중하고 보호하는 방식으로 설계돼야 한다”고 설명했습니다.

한국은 2019년 AI윤리협회가 발표한 ‘AI 윤리헌장’이 가장 기초로 여겨집니다. 헌장은 ‘선한 인공지능’ 추구를 기본 개념으로 ▲인간과 AI와의 관계 ▲선하고 안전한 AI ▲AI 개발자 윤리 ▲AI 소비자 윤리 ▲인류 공동의 책임 등을 대제로 삼아 구체적인 방법을 제시합니다.

하지만 기업 자체 윤리 원칙이나 헌장의 경우 강제성이 없어 한계가 남습니다. 선언적 성격이라 일종의 가이드라인 역할만 할 뿐 냉정히 말해 지키지 않아도 전혀 손해가 없는 구조입니다.

그래서 기대를 거는 건 국회에 계류된 AI법입니다. 풀네임은 ‘인공지능산업육성 및 신뢰 기반 조성에 관한 법률’입니다. 아직 법안 소위원회만 통과한 상태입니다. 이 법안을 기대하는 건 AI 기술을 제공하는 기업에게 신뢰성과 안전성을 확보하기 위한 조치 의무를 지우고 정부가 신뢰성 확보조치의 구체적 내용을 정해 고시하도록 한 강제성 때문입니다.

또 지난 8월 발의됐던 ‘인공지능 책임 및 규제법안’은 특정 AI 기술에 대한 위험성 기준을 대통령령으로 정해 사용을 금지하거나 고위험 기술을 추려 사용을 규제하는 게 골자입니다. 모두 AI가 가져올 수 있는 위험성을 원천적으로 차단하려는 목적이 녹아들었습니다.

최근에는 개인정보보호위원회도 힘을 보탰습니다. AI 관련 개인정보 현안을 전담하는‘AI프라이버시팀’을 신설하는 내용의 개인정보보호위원회 직제 시행규칙을 공포했습니다. 오늘부터 본격 가동하는 팀은 AI 분야 개인정보 관련 법령해석과 컨설팅 등을 제공합니다. 자칫 헷갈릴 수 있는 규제 이슈나 윤리성 판단 등에 전문가가 도움을 주는 조직입니다.

진짜 착한 AI에 대한 생각은 모두 다를 겁니다. 하지만 지켜야 할 마지막 보루는 AI가 사람을 잡아먹는 괴물이 되어서는 안 된다는 겁니다. 성선설과 성악설. AI는 과연 어떤 운명으로 태어난 걸까요.

완벽해 보이는 AI도 누구에게는 무기가 될 수 있습니다. 계류되고 있는 법이 또 모범답안은 아닐 겁니다. 당연히 산업 발전의 장애물이 되어서도 안되겠죠. 챗GPT가 바꿔놓은 1년. 이제는 AI 못지 않은 집단지성으로 물길을 제대로 터야 할 때인 것 같습니다.

글. 바이라인네트워크
<이진호 기자>jhlee26@byline.network

관련 글

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다