솔트룩스 “루시아GPT는 작고 안전한 수소폭탄…환각 줄였다”
[무료 웨비나] 개발자를 위한 클라우드플레어를 소개합니다
◎ 일시 : 2025년 2월 6일 (목) 14:00 ~ 15:00
[무료 웨비나] 중동의 ICT 및 테크 기업 생태계 – 사우디 아라비아, UAE를 중심으로
◎ 일시 : 2025년 1월 23일 (목) 14:00 ~ 15:10
“연쇄반응을 일으키는 핵분열처럼 새로운 기술이 배포되고 혁신을 일으키는 것이 또 하나 있습니다. 바로 생성 인공지능(AI)입니다. 생성AI 모멘트가 펼쳐지고 있습니다.”
솔트룩스가 7일 서울 삼성동 코엑스 오디토리움에서 개최한 컨퍼런스 ‘SAC 2023’ 키노트에 나선 이경일 대표의 말이다. 이날 컨퍼런스는 회사의 새로운 거대언어모델(LLM)을 공개하고 앞으로의 사업 전략을 소개하는 자리다.
이날 이 대표는 지금의 AI 기술 흐름을 과거 핵 개발 경쟁과 비교했다. 1949년 처음 소련이 핵폭탄 실험을 한 이후 미국이 뛰어들었고 지금은 북한마저 핵을 보유할 만큼 경쟁이 가속화됐다고 되짚었다.
AI도 흐름은 비슷하다. 2006년 알파고가 세상에 놀라움을 가져온 데 이어 GPT-1부터 지금의 GPT-4, 메타 라마(LLaMA)까지 갈수록 기술 개발 속도와 신기술의 등장 빈도가 빨라지고 있다. 빨라진 AI기술의 개발 속도만큼이나 현재 시장에는 다양한 LLM이 등장했다. 이 가운데 솔트룩스의 ‘루시아GPT’는 할루시네이션(환각) 문제를 없앤 것이 특징이라는 게 그의 설명이다.
1테라바이트(1TB) 분량의 한국어 데이터를 사전 학습한 루시아 GPT는 지식그래프기반의 ‘사실·지식 그라운딩(FG·KG) 활용과 ‘검색 증강 생성(RAG)’이라는 2가지 접근법으로 환각을 줄였다. 자체 개발한 지식 베이스를 LLM에 녹이고 외부의 정보를 실시간으로 참조할 수 있도록 설계해 질문과 관계없는 정보나 답변을 가져오는 LLM의 단점을 보완했다는 설명이다.
이 대표는 솔트룩스의 자체 평가 결과 GPT-3.5′, LLaMA2와 대비했을 때, 한국어 할루시네이션 자체 평가에서 40% 더 우수한 성능을 확인할 수 있었다고 밝혔다. 그는 “솔트룩스는 자체 장비와 데이터를 통해 바닥부터 학습한 모델을 만들어야 한다고 생각했다”면서 “추가적인 파인튜닝을 통해 (기업 환경에) 최적화한 LLM을 만들 수도 있다”고 말했다
앞서 핵 개발과 AI 기술 경쟁을 비교한 그는 거대한 핵폭탄이 아닌 작고 안전한 수소폭탄 같은 LLM을 만들었다고 강조했다. 환각을 줄인 모델이 파인튜닝을 거쳐 효율 높은 시스템을 만들었다는 것.
이 대표는 “오픈AI나 구글이 마치 대규모 원자력 발전소를 짓는 것처럼 거대 AI를 내세우는 것과 달리 적절한 규모로 최적화하고 안전한 LLM인 루시아GPT를 통해 세상 모든 사람이 자유롭게 지식 소통하는 세상을 만들어 가겠다”고 목소리를 높였다.
글. 바이라인네트워크
<이진호 기자>jhlee26@byline.network