기업 LLM 시장 출사표 낸 파수…벡터 내세운 ‘엘름(ELLM)’ 공개

파수가 기업용 거대언어모델(LLM) 시장에 본격적인 출사표를 던졌다. 빠르고 정확한 데이터 검색 기능을 통해 비즈니스 생산성 향상에 힘을 보탠다. 그간의 솔루션 개발 역량을 바탕으로 높은 성능의 모델을 제공한다는 게 회사의 전언이다.

파수는 3일 여의도 페어몬트 앰배서더 서울에서 연례 고객행사 ‘파수 디지털 인텔리전스(FDI) 2024’를 개최했다. 고객사와 업계 관계자를 대상으로 새로운 기술과 제품을 소개하는 자리다.

파수는 지난해 행사에서 ‘로컬 LLM’의 필요성을 강조한 바 있다. 로컬 LLM은 기업의 비즈니스 분야에 맞춰 활용하는 특화모델을 뜻한다. 파수는 이날 이 같은 개념을 적용한 ‘엔터프라이즈 LLM’의 자세한 기능을 소개했다.

솔루션의 정식 명칭은 엔터프라이즈(Enterprise)의 머리글자 E를 붙여 ‘엘름(ELLM)’으로 지었다. 범용과 프라이빗 LLM의 장점만 추려 정보 유출 우려는 줄이고 답변의 정확도는 높였다. 온프레미스 구축형으로 조직 특성에 맞는 생성AI로 활약할 거라는 게 파수의 전언이다.

3일 열린 FDI 2024에서 윤경구 파수 본부장이 세션 발표에 나선 모습

두뇌에 해당하는 기반 모델은 구글의 젬마(Gemma) 7B(파라미터 70억개) 버전을 활용한다. 파수 개발진은 해당 오픈 모델에 한글 데이터를 추가 트레이닝하고 멀티 턴 대화 능력을 높였다.

엘름은 특히 검색증강생성(RAG)을 접목한 게 핵심이다. 기반 모델의 성능에 더해 벡터(Vector) 데이터에서 더 정확한 정보를 추려 답변을 낸다.

다양한 포맷의 데이터를 숫자로 표현하는 벡터화를 통해 정형 데이터뿐 아니라 이미지, 음성 등 비정형 데이터도 쉽게 검색할 수 있다. 기업 데이터베이스(DB)를 연결하고 여기에 들어있는 데이터를 벡터화함으로써 답변에 필요한 정보를 빨리 찾아낸다.

이를 통해 프롬프트의 품질도 높인다. 엘름은 벡터 데이터를 반영한 프롬프트를 만들어 더 구체적인 질의가 가능하다. 프롬프트가 자세할수록 LLM이 더 많은 정보를 인식할 수 있다.

파수는 이를 ‘멀티홉(Multi-hop)’ 방식이라고 설명했다. 윤경구 파수 본부장은 “사용자의 프롬프트를 바로 보내지 않고, 벡터 DB 내의 데이터를 기반으로 더 정확한 프롬프트를 구성해 인식시키는 형태”라고 설명했다.

엘름은 설치형으로 간단하게 온프레미스에 구축할 수 있다. 이를 통해 클라우드 사용에 따른 데이터 유출 우려를 줄인다. 챗GPT처럼 대화형 인터페이스를 제공하고 기업 환경에 맞는 디자인과 메뉴 커스터마이징을 지원한다.

업무에 많이 쓰이는 용어와 개념 등 도메인 특화 데이터셋을 비롯해 기업 내부 데이터를 별도로 학습시키는 파인튜닝 서비스도 제공할 방침이다.

파수는 이 밖에 일반 LLM사용자들을 위한 ‘AI-R DLP’도 솔루션도 제공한다. 챗GPT나 제미나이와 같은 AI 챗봇에 입력되는 민감 정보를 탐지해 차단하는 솔루션이다. 파수는 문서관리 플랫폼 ‘랩소디(Wrapsody)’에도 엘름의 생성AI 기술을 결합할 계획이다.

조규곤 파수 대표

조규곤 파수 대표는 생성AI가 단순한 기술이 아니라 새로운 컴퓨팅 패러다임으로 자리 잡았다고 평가했다. LLM이 기업의 지식 기반(Knowledge base)이 된 상황에서 어떤 LLM을 쓸지 고민해야 할 시점이라고 강조했다.

조 대표는 “파수가 AI 여정에 앞장서는 기업들을 적극 지원하겠다”며 “AI 활용을 돕기 위한 실용적이고 필수적인 솔루션과 서비스를 지속적으로 선보일 예정”이라고 밝혔다.

글. 바이라인네트워크
<이진호 기자>jhlee26@byline.network

관련 글

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다