메타의 첫 라마콘, ‘수익화’ 군불 지피기

메타가 라마(llama) 모델을 주제로 한 첫번째 인공지능(AI) 개발자 컨퍼런스 ‘라마콘’을 30일 개최했다. 이 행사에서 소비자를 위한 AI 채팅 앱 ‘메타 AI’와 개발자에게 모델 API를 제공하는 ‘라마 API’를 공개했다. 마크 저커버그는 데이터브릭스 창업자이자 CEO인 알리 고드시와 대담을 나누고, 마이크로소프트의 사티아 나델라 CEO와도 대담을 나눴다.

첫번째 라마콘의 기조연설과 마크 저커버그의 대담은 오픈소스 AI 모델의 중요성과 시장 파급력을 강조하는 내용으로 꾸며졌다. 하지만, 컨퍼런스를 채운 전반적인 콘텐츠는 ‘라마의 상용화’다.

‘메타 AI’는 라마콘 개막 직전 독립형 앱으로 정식 출시됐다. 메타 AI 앱에서 개인화된 AI와 대화하고, 요청한 결과물을 받아 바로 소셜미디어에 공유할 수 있다. 라마4의 멀티모달리티를 활용해 음성 대화, 이미지 생성 및 편집 등을 빠르게 이용할 수 있게 됐다. 디스커버 메뉴에서 다른 사람들이 메타 AI 앱으로 생성한 콘텐츠를 살펴볼 수 있다. 메타의 메타버스 디바이스 ‘레이뱅 메타 글래스’에서도 이용가능하다.

라마 API는 비공개 미리보기로 공개됐다. 그동안 라마 모델은 허깅페이스에서 다운로드 받거나, 호스팅 사업자를 통해 접근할 수 있었다. 메타는 이제 라마를 API로 접근하는 상용 추론 서비스를 직접 제공한다.

마노하르 팔루리 메타 AI 부사장과 안젤라 팡 메타 생성형AI 리서치사이언티스트가 라마 API를 소개하고 있다.

개발자는 메타에서 호스팅하는 라마 API를 활용해 AI 애플리케이션을 쉽게 개발할 수 있다. 대화형 플레이그라운드에서 클릭 한번으로 API 키를 생성하고, 다양한 라마 모델을 탐색할 수 있다. 소프트웨어개발도구(SDK)도 제공된다. 라마 API SDK는 파이썬, 타입스크립트 등으로 작성됐다. 이 SDK는 또한 오픈AI SDK와 호환된다.

메타에 따르면, 라마 API는 라마4 매버릭, 스카웃과 공개된 라마3 모델 시리즈, 그리고 공개되지 않은 라마3.3 8B에 접근하게 한다.

API로 제공하는 기능은 채팅 완성, 이미지 이해, JSON 구조화된 출력, 도구 호출, 검토, 미세조정 및 평가, 가속화된 추론 등이다.

라마콘에서 미세조정 및 평가 기능이 강조됐다. 라마 API에서 해당 기능을 이용해 데이터를 생성하고 학습시킨 후 평가 도구를 사용해 새 모델의 품질을 테스트할 수 있다.

REST와 유사한 인터페이스를 제공해 대부분의 프로그래밍 언어에서 직접 API를 호출할 수 있다고 메타 측은 밝혔다.

메타는 라마 API에서 고객 콘텐츠나 데이터를 활용해 파운데이션 모델을 훈련하지 않는다고 강조했다.

메타는 이와 함께 세레브라스(Cerebras), 그록(Groq) 등과 라마 API 파트너십을 체결했다고 밝혔다. 세레브라스와 그록은 라마 API를 통한 라마4 모델 추론 서비스를 제공한다. 각사의 전용 하드웨어로 라마4를 구동해 일반적인 GPU 방식대비 더 빠른 속도로 라마 API를 서비스한다.

라마 API

메타는 새로운 라마 보호 및 보안 도구를 출시했다. 라마 가드4, 라마 파이어월, 라마 프롬프트가드2 등이 출시됐다.

라마가드4는 다양한 모달리티에 통합된 보안 기능을 제공해 텍스트와 이미지 인식을 보호한다. 라마 API를 통해서도 이용할 수 있다.

라마 파이어월은 AI 보안 가드레일 도구다. 여러 보안 모델을 조율하고, 다양한 보호 도구와 연동해 프롬프트 인젝션, 안전하지 않은 코드, 위험한 LLM 플러그인 상호작용 등의 위협을 탐지하고 차단한다.

라마 프롬프트가드2는 모델 탈옥과 프롬프트 인젝션 탐지 성능을 향상시킨다. 성능 저하를 최소화하면서 지연시간과 연산 비용을 절약할 수 있는 소형 버전도 출시됐다.

메타는 라마 API의 미리보기 참가 신청을 받고 있다. 대기자 명단에 신청한 후 접근을 허용받아 이용할 수 있게 된다.

메타는 향후 수주일에서 수개월 내 라마 API 접근성을 확대할 계획이라고 밝혔다.

메타 AI 앱과 라마 API는 단순히 우수한 AI 모델을 제공하는 데서 벗어나, 상용 서비스로 나아가는 모습을 보여준다.

크리스 콕스 메타 최고제품책임자(CPO)는 라마콘 기조연설에서 줄기차게 오픈소스 모델이란 점을 강조했다.

그는 라마4 출시 후 10억다운로드를 돌파했다고 밝혔다. 수천명의 개발자가 수만개의 파생 모델을 만들고 기여하고 있다고 덧붙였다. 그는 라마를 이용하면 저렴한 비용으로 최신 모델의 성능 혜택을 보면서도 특정 모델에 종속되지 않는다고 강조했다.

메타는 지난 3년간 라마 모델을 개발하고 다운로드 가능하게 공개하면서 오픈AI, 구글 같은 폐쇄형 AI 모델 위주의 시장에 균열을 만들어왔다. 하지만 최근들어 외부자의 라마 자본 투입을 바라고 수익화를 꾀하는 듯한 뉘앙스를 풍기고 있다.

1년 전 컨퍼런스콜에서 마크 저커버그는 라마 모델을 통한 수익화의 몇가지 가능성을 언급했다. 라마3를 활용한 메타 AI 앱에 유료 구독 서비스나 광고 모델을 내놓는 식이다. 작년 7월 마크 저커버그는 블로그에서 라마 모델 접근을 수익 모델로 삼지 않는다고 밝혔었다.

마크 저커버그 메타 CEO(왼쪽)와 알리 고드시 데이터브릭스 CEO가 라마콘에서 대담하는 모습

올해 초 마이크로소프트, AWS 같은 호스팅 파트너에게 라마 학습을 위한 자금 지원을 요청하고 있다는 보도가 나왔다. 또 호스팅 파트너가 라마 모델을 서비스해 발생하는 수익의 일부를 메타에 공유한다는 내용이 메타의 저작권 소송 서류를 통해 알려졌다.

메타는 올해 600억달러 규모의 자본을 투자할 예정이다. 메타버스와 AI 개발에 투입되는 자본으로, 매출액의 3분의1 수준에 해당한다. 메타는 엔비디아 최신 GPU 구매자 중 상위 3위에 오를 정도로 막대한 인프라 구축 비용을 집행하고 있다. AI 모델의 규모가 갈수록 더 커지는 가운데, 최신 모델을 지속적으로 학습시키려면 막대한 자본 지출이 유지돼야 한다. 3년차에 이르러 메타는 투자자들로부터 AI 모델 수익화에 대한 질문을 계속 받고 있다. 메타는 미래 기술에 대한 투자란 점을 강조하고 있지만 점점 수익화 언급을 늘리는 모습을 보인다.

현재 라마API의 구체적인 요금은 공개되지 않은 상태다.

참고로, 구글의 경우 제미나이 2.5 플래시는 입력 토큰 100만개당 0.15달러이며, 추론 기능 비활성 시 출력 토큰 100만개당 0.6달러다. 추론 기능 활성 시 토큰 100만개당 3.5달러다.

메타는 라마4 매버릭의 성능을 오픈AI의 GPT-4o와 구글 제미나이 2.0과 비교하는데, GPT-4o의 토큰 비용은 입력토큰 1000개당 2.5달러, 출력토큰 1000개당 10달러다. 메타에 의하면 GPT-4o의 입출력 비용은 100만개 토큰당 4.38달러다. 구글 제미나이 2.0의 100만개 토큰 당 비용은 0.17달러다.

메타의 블로그에 의하면, 라마4 매버릭의 입출력 토큰 비용은 100만개 토큰당 0.19~0.49달러다.

라마의 첫 공개 후 작년까지 메타의 생성형 AI 행보는 공격적이었고, 업계의 환호를 이끌어냈다. 누구나 자유롭게 상용 모델에 필적하는 강력한 LLM을 활용하게 한다는 점에서 라마 모델의 존재가치는 충분하다. 작년 라마3 발표는 역사적 순간이란 평가까지 받았다.

라마4에 이르러 대중의 환호는 다소 사그라든 모습이다. 올해초 중국발 딥시크 쇼크로 추론(Reasoning) 모델에 대한 관심이 폭발한 와중에도 메타는 라마의 별도의 추론 모델을 내놓지 않고 있다.  오픈AI, 구글, 앤트로픽 등이 추론 모델을 선보이며 앞서가는 이미지를 얻을 동안 메타의 행보는 뒤처진다는 인상을 주고 있다.

라마4는 스카웃과 매버릭이란 중소형 규모의 에디션만 공개됐고, 가장 큰 에디션인 베헤모스는 아직 공개되지 않고 있다.

라마4는 공개 직후 벤치마크 조작 논란을 일으켰다. 메타는 라마4 매버릭 버전의 LM아레나 벤치마크에서 1위를 강조했지만, 이후 개발자에게 실제로 제공된 매버릭의 성능은 공개된 기록과 달랐다는 지적이 잇달아 제기됐다. 메타가 벤치마크를 위한 맞춤형 버전으로 테스트해 성능을 부풀렸다는 게 주장의 골자다. 메타는 조작 의혹을 부인했다.

라마콘은 이제 본격적으로 메타가 라마 모델로 직접 시장에서 뛸 것이란 점을 보여준다. 라마를 오픈소스 모델이라 강조하지만, 사실 오픈소스이니셔티브(OCI)에서 만든 ‘오픈소스 AI’의 정의에 메타의 라마 모델은 부합되지 않는다. 오픈소스 AI란 공식적인 정의를 사용하려면 학습에 쓴 데이터와 모델의 코드를 공개해야 하지만, 메타는 라마의 가중치만 공개하고, 모델의 다운로드만 제공한다. 라이선스도 상용 서비스 구축에 제한을 둔다. 메타의 라마는 실제로 ‘오픈 웨이트’ 모델로 분류된다.

라마 모델에 개발자가 직접 접근하는 경로를 만든 만큼 앞으로 더 구체적인 상용 서비스 모델이 나올 것으로 예상된다. 메타는 페이스북 시절부터 API를 불시에 수시로 변경하는 것으로 악명 높았다. 개발자는 라마 API를 사용할 경우 API 문서 업데이트를 지속적으로 모니터할 필요가 있다.

글. 바이라인네트워크
<김우용 기자>yong2@byline.network

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다