챗GPT 등장 1년, 업계 뒤흔든 생성AI

2022년 11월30일. 오픈AI의 ‘챗GPT’가 세상에 모습을 드러낸 날이다. 사회 전반이 생성형 인공지능(AI) 열풍에 휩싸였고, 출시 1년을 맞은 지금까지 열기가 이어지고 있다. 모바일 시대 이후 최대 변화라는 AI 시대가 도래한 가운데 기업들은 저마다 “누가 누가 AI를 잘하나” 경쟁에 빠져들었다. 인간만의 재주인 줄 알았던 ‘창작’을 뚝딱 해내는 생성AI 기술의 넓은 쓰임새가 AI의 잠재력을 다시금 확인시켰고,  IT 기업들의 먹거리도 바꿔 놓았다.

챗GPT가 쏘아 올린 큰 공

챗GPT는 거대언어모델(LLM)을 바탕으로 빠른 질의와 답변 능력과 쉬운 사용법을 통해 순식간에 세계를 사로잡았다. 서비스 공개 닷새 만에 100만명, 2달 만에 1억명의 사용자를 모았다. 이름도 생경하던 오픈AI라는 회사는 세계가 주목하는 기업이 됐고, 대규모 투자를 진행했던 마이크로소프트는 오피스 제품군 ‘마이크로소프트 365 코파일럿(Copilot)’을 공개하면서 생성AI를 붙인 소프트웨어(SW)의 편리함과 가능성을 세상에 알렸다. 뿐만 아니라 윈도우를 비롯해 검색엔진 빙(Bing)과 웹브라우저 엣지(Edge) 등 자사 솔루션에 연이어 GPT 모델을 심으면서 생성AI의 파괴력을 알린 메신저 역할을 했다.

먼저 AI 개발에 나섰던 빅테크들은 당황할 수밖에 없었다. 세계의 찬사를 오픈AI가 모두 가져간 모양새가 됐다. 챗GPT 발표 이후 구글이 자체 개발한 LLM ‘팜(PaLM)2’를 활용한 챗봇 ‘바드(Bard)’를 내놓는가 하면 메타도 LLM ‘라마(LLaMA)2’를 오픈소스로 풀었지만 일반인들의 시각에서는 오픈AI를 뒤따르는 후발주자의 모습으로 비춰졌다.

생성AI는 국내 기업들에게도 새로운 먹거리로 자리 잡았다. 코난테크놀로지, 업스테이지, 솔트룩스 등 스타트업들이 자체 LLM을 소개했고, 네이버는 한국어에 특화한 LLM ‘하이퍼클로바X’를 출시했다. 삼성전자도 자체 생성AI ‘삼성 가우스(Gauss)’를 자사 스마트폰에 탑재할 계획이다. 업계 전체가 생성AI라는 신문물(?)에 힘을 주기 시작한 것이다.

한 보안 기업 홍보 담당자는 “올해는 AI가 없으면 이야기가 되지 않았다”고 말했다. 이 담당자는 “꼭 AI와 직접적인 관계가 없는 솔루션이라도 AI라는 단어를 보도자료에 넣으라는 지시가 많았다”며 “그래야 눈길을 끌지 않겠나”라고 말했다. 분야와 관계없이 AI가 업계 전체를 관통한 테마가 됐음을 시사하는 대목이다.

넓은 파급력

AI 기술은 하드웨어 기업의 약진도 이끌었다. AI 모델 학습에는 고성능 그래픽처리장치(GPU)가 필수다. 엔비디아는 H100 제품을 내세워 AI 칩 시장을 장악했다. H100은 품귀 현상을 빚으면서 내년에야 신규 출고가 가능한 것으로 알려졌다. 엔비디아 주가는 올해만 2배 이상 뛰었다.

국내 기업도 마찬가지다. NHN클라우드는 최근 광주시와 함께 운영하는 ‘NHN 광주 AI 데이터센터’의 문을 열었다. 높은 컴퓨팅 연산 능력 제공하는 AI 특화 데이터센터다. 10년 기간의 사업권을 따낸 NHN클라우드는 회사의 서비스 다각화에 이 데이터센터를 활용하겠다는 복안이다. 김동훈 NHN클라우드 공동대표는 지난 2분기 실적발표 컨퍼런스콜에서 “센터를 기반으로 한 협업을 추진해 다양한 비즈니스를 선도할 계획”이라고 밝힌 바 있다.

특히 클라우드 환경의 확산 속에서 글로벌 클라우드서비스제공사(CSP) 빅3로 불리는 기업들은 모두 생성AI 솔루션을 바탕으로 경쟁에 나서는 모습이다.  구글클라우드플랫폼(GCP)은 바드, 마이크로소프트는 애저(Azure)에 오픈AI의 챗GPT를 붙인 것에 더해 최근에는 아마존웹서비스(AWS)까지 ‘아마존 Q’를 출시하며 생성AI 시장에 출사표를 냈다.

안전한 AI 개발 노력도 활발

AI의 파급력이 확인될수록 안전한 AI 사용에 대한 요구도 늘어나고 있다. 생성AI의 환각 문제나 AI에 대한 높은 의존 등 부작용 우려가 큰 상황에서 좋은 기술을 건강하게 활용하려는 노력이 활발하다.

최근 국가정보원은 영국 국가사이버안보센터(NCSC), 미국 사이버안보·인프라보호청(CISA) 등을 비롯한 주요국가 23개 기관이 참여한 ‘안전한 AI 시스템 개발 가이드라인’을 공동으로 발표했다.

가이드라인은 영국 NCSC와 미국 CISA가 안전한 AI시스템 확보를 위해 AI 개발과 관련한 가이드 마련을 주도하고, 국정원 등 주요 국가의 안보기관이 파트너로 참여한 결과물이다. 개발 과정 전반에 걸친 ‘보안내재화’ 강조와 함께 ▲보안에 대한 책임 ▲책임성·투명성 보장 ▲기업 영업시 보안내재화 최우선 고려 등 3개 원칙을 제시했다.

또한 이달 초 영국에서 열린 ‘제1차 AI 안전정상회의(Safety Summit)’에서는 G7을 포함한 28개국과 유럽연합(EU)이 안전한 AI 협력을 다짐하는 ‘블레츨리 선언(Bletchley Declaration)’을 채택하는 등 기술 개발을 넘어 안전한 사용법에 대한 논의가 활발해지고 있다.

글. 바이라인네트워크
<이진호 기자>jhlee26@byline.network

관련 글

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다