프렌들리AI, 허깅페이스에 멀티모달 AI 지원 추가
프렌들리AI가 세계 최대 AI 오픈소스 모델 공유 플랫폼 허깅페이스(Hugging Face)에서 배포할 수 있는 AI 모델을 확대한다고 10일 밝혔다.
기존 텍스트 기반 대형 언어 모델(LLM) 뿐만 아니라, 이미지・오디오・영상 등을 이해할 수 있는 멀티모달 AI 모델까지 지원 범위를 넓힌다. ‘단일 클릭’으로 배포할 수 있는 모델에 DeepSeek-VL2, Qwen2.5-VL, LLaVA 등 비전-언어 모델(VL 모델), 이미지 이해, 비디오 이해, 오디오 이해, 음성 인식, 음성 변환, OCR 모델 등이 추가될 예정이다.
AI 개발자와 연구자는 별도의 GPU 인프라 구축이나 최적화 과정 없이, 프렌들리AI가 최적화 제공하는 모델을 입맛에 맞춰 편리하게 활용(커스텀)할 수 있게 된다.
프렌들리AI는 추론 속도 부문 세계 1위(Artificial Analysis 벤치마크) GPU API 제공사로 스타트업으로는 세계에서 유일하게 선정된 허깅페이스의 공식 모델 배포 파트너라는 설명이다.
회사 관계자는 “허깅페이스 모델 배포 파트너로 제휴를 맺은 뒤 전세계에서 사용자가 크게 늘고 있다”면서 “최근의 딥시크(DeepSeek) R1지원에 이어서 멀티모달 지원을 추가하면서 전년 동기 대비 10배 이상의 고객 증가를 기대하고 있다”고 전했다.
프렌들리AI는 앞으로 간편한 UI에서 AI 모델과 바로 대화하며 AI 에이전트를 만들어서 운영하는 프렌들리 에이전트도 지원할 것이라고 밝혔다.
전병곤 프렌들리AI 대표는 “텍스트뿐만 아니라 이미지·오디오·영상 이해 모델까지 허깅페이스에서 바로 프렌들리 플랫폼으로 가속 수행할 수 있게 되는 것은 멀티모달 AI 서비스를 개발하는 기업들에게 중요한 전환점이 될 것“이라며, “프렌들리AI를 통해 기업들이 AI로 도약할 수 있도록 지원할 것“이라고 밝혔다.
글. 바이라인네트워크
<이대호 기자>ldhdd@byline.network
[컨퍼런스] AI 에이전트와 지능형 인터페이스 시대
◎ 일시 : 2025년 3월 27일 오후 12:30 ~
◎ 장소 : 서울 강남구 테헤란로7길 22 ST Center (과학기술컨벤션센터) 지하 1층 대회의실 2