“아마존도 생성AI 잘해요…마법과도 같을 것”
‘AWS 서밋 서울 2024’ 개막
개최 10주년 맞아 최대 규모로 참관객 맞아
기조연설서 ‘생성AI 혁신’에 상당 시간 할애
마법과 구별할 수 없도록 손쉬운 활용 지원
아마존웹서비스(AWS)가 16일 서울 코엑스에서 ‘AWS 서밋 서울 2024(AWS Summit Seoul 2024)’을 개최했다. 17일까지 이틀간 행사다. 올해 AWS 서밋 서울은 개최 10주년을 기념해 최대 규모로 열었다.
특히 올해는 생성AI에 힘준 모습을 보였다. 경쟁사 대비 생성AI 대응에 한발 늦었다는 외부 비판에 신경 쓴 모양새다. 기조 연설의 상당 시간을 ‘생성AI 구축 제휴 사례’와 ‘아마존Q’ 등 생성AI 관련에 할애했고, 아마존이 대규모 투자를 단행한 AI 스타트업 앤트로픽 제휴총괄이 잠시 얼굴을 비춰 혁신 사례를 재차 짚었다. 첫날 기조 연설엔 우아한형제들 송재하 CTO, SKT의 정석근 AI 사업 총괄도 참석했다.
니라브 킹스랜드(Neerav Kingsland) 앤스로픽 글로벌 제휴총괄은 AI칩의 품질 개선과 알고리즘 연구 및 데이터 수준이 올라가면서, 3년에 10배 이상 AI 성능이 강력해지는 흐름을 보일 것으로 내다봤다. 그는 앤트로픽이 몇 년 이후 출시할 클로드5는 클로드3 대비 100배 이상 개선된 성능을 가질 것으로 자신했다.
고객 사례로는 화이자(Pfizer)가 클로드3를 항암연구에 활용해 몇 개월이 걸릴 연구를 며칠 만에 끝냈다고 알렸고, 작년 첫 방한한 이후 SKT와 파트너십 끝에 텔코(통신회사)에 맞춤화된 LLM의 미세조정을 통해 AI 기반 컨택센터 구축하고, AI 어시스턴스를 개발한 사례를 언급했다.
기조 연설 전반을 주도한 프란체스카 바스케스(Francessca Vasquez) 프로페셔널 서비스 및 생성형 AI 혁신 센터 부사장은 ‘마법(magic)’이라는 단어로 생성AI 혁신을 강조했다. 바스케스 부사장은 “AWS에서는 기술 장벽을 극복하여 생성 AI에 대한 접근성을 높이고 있다”며 “최첨단 기술을 더 쉽게 사용, 확장 및 배포해 고객에게 제공할 수 있는 것을 마법과 구별할 수 없도록 혁신을 이뤄왔다”고 말했다. 또 행사 마지막에 “당신은 한국에서 어떤 마법을 만들 것인가”라며 청중들에게 되물었다.
AWS 서밋 서울 2024엔 2만9000여명이 사전 등록을 마쳤고, 다양한 산업 분야와 기술 주제에 대한 100여 개 이상의 강연이 진행된다. 70여곳 이상의 고객사가 AWS를 통한 성공 사례를 공유할 예정이다. 스폰서 및 파트너들이 준비한 60개 이상의 다양한 세션과 엑스포 부스도 마련됐다.
함기호 AWS코리아 대표 “지속 가능성과 비용 절감 전환점 맞아”
함기호 AWS코리아 대표는 “한국 클라우드 업계가 10년의 역사를 넘어서 새로운 10년을 준비하는 지금, 우리는 지속 가능성과 비용 절감 측면에서 중요한 전환점을 맞이하고 있다”며 파트너사들이 AWS인프라로 혁신에 동참할 것을 주문했다.
함 대표는 AWS는 저전력 프로세서 ‘그래비톤’을 활용해 탄소 배출을 획기적으로 줄이고 있으며, 한국이 아시아태평양 지역에서 두 번째로 많은 그래비톤 인스턴스를 활용한다고 짚었다. 그는 생성AI 비용도 최적화했다고 강조했다. 엔비디아 일변도의 그래픽처리장치(GPU) 의존에서 벗어날 수 있도록 자체 제작 GPU를 도입해 이를 검토 중인 고객사가 증가 중이라고도 알렸다.
고객사로는 ▲엔씨소프트 ▲LG AI연구원 ▲업스테이지 등을 꼽았다.
엔씨소프트는 고객이 머신러닝을 시작할 수 있도록 사전 학습된 오픈소스 모델을 제공하는 아마존 세이지메이커 점프스타트(Amazon SageMaker JumpStart)를 기반으로 거대 언어 모델(LLM)을 출시했다. 엔씨소프트는 아마존 세이지메이커 점프스타트에 바르코(VARCO: Via AI, Realize your Creativity and Originality) LLM 제품군을 출시했다. 아마존 세이지메이커 점프스타트는 고객이 엔씨소프트의 바르코 LLM과 같은 사전 구축된 솔루션을 활용해 생성형 AI를 쉽게 시작하고, 모델을 처음부터 학습시키지 않고도 자체 데이터 세트로 맞춤화하며 특정 사용 사례에 맞는 새로운 애플리케이션을 출시할 수 있도록 지원한다.
LG AI연구원은 AWS 기반의 AI 이미지-투-텍스트(image-to-text) 캡셔닝 솔루션을 출시했다. 이 솔루션은 광고, 패션, 리테일 등 다양한 산업 분야의 전 세계 고객을 위해 보다 정확하고 적절한 콘텐츠를 생성하는 3000억개의 파라미터를 보유한 LG AI연구원의 멀티모달 FM인 엑사원(EXAONE)을 활용한다. 엑사원의 학습 과정에서 LG AI연구원은 안전하고 조정 가능한 클라우드 컴퓨팅 용량을 제공하여 파라미터 확장 필요에 따라 IT 자원을 확장할 수 있는 서비스가 필요했다. 아마존 세이지메이커와 아마존 엘라스틱 컴퓨터 클라우드(Amazon EC2)를 도입한 LG AI연구원은 엑사원 내에 체크포인트를 구현하고 데이터 편향 문제를 빠르게 해결할 수 있었다는 게 AWS 설명이다.
업스테이지는 소형 언어 모델(SLM) 솔라 미니(Solar Mini)를 학습시키기 위해 비용 효율적이고 강력한 컴퓨팅 시스템과 다양한 언어를 정확하게 처리하기 위한 안정적인 운영을 보장하는 환경이 필요했다. 아마존 세이지메이커 점프스타트와 AWS 마켓플레이스를 비롯한 AWS의 서버리스 및 완전 관리형 서비스를 통해 업스테이지는 AWS의 안전하고 확장 가능한 스택을 활용하여 AI 제품을 확장하고 다양한 산업 분야의 기업이 애플리케이션에 생성형 AI를 쉽게 배포하는 데 필요한 툴을 제공했다. 업스테이지는 AWS의 서비스를 통해 솔라 미니를 미세 조정하는 동시에 다른 기업들에게도 솔루션을 확장했다.
AWS서 거의 모든 LLM과 통하시라
바스케즈 부사장은 “단 하나의 모델이 모든 것을 지배할 수 없다”고 설명하며 아마존(Amazon), 앤스로픽(Anthropic), 코히어(Cohere), 메타(Meta), 미스트랄 AI(Mistral AI), 스태빌리티AI(Stability AI) 등 아마존 베드록(Amazon Bedrock)에서 다양한 파운데이션모델(FM)을 고객에게 제공해 여러 모델을 사용해보고 선택할 수 있다는 점을 강조했다. 어떤 모델을 선택하든 안전하고 신뢰할 수 있으며 책임감 있는 방식으로 배포할 수 있는 책임감 있는 AI를 구축하기 위한 ‘가드레일 포 아마존 베드록(Guardrails for Amazon Bedrock)’도 소개했다.
데이터, 사용 사례, 고객에게 맞춤화된 생성형 AI를 쉽게 구축하고 확장할 수 있도록 지원하는 AWS의 생성형 AI 스택을 소개했다.
생성형 AI 스택은 FM 훈련 및 추론을 위한 인프라, 생성형 AI 애플리케이션을 구축하고 확장하는 데 필요한 FM 및 거대언어모델(LLM) 등을 제공하는 플랫폼, FM 및 LLM을 활용해 구축된 애플리케이션의 3계층으로 구성된다.
바스케즈 부사장은 AWS 트레이니움(AWS Trainium), AWS 인퍼런시아(AWS Inferentia), 아마존 세이지메이커(Amazon SageMaker) 등 인프라에 대한 투자가 상위 계층에서 제공하는 서비스의 역량 향상으로 이어진다고 말했다. 비용 효율적인 고성능의 인프라를 구축하기 위한 노력의 일환으로 AWS는 엔비디아(NVIDIA)와의 전략적 협력을 확대하여 AWS 클라우드에서 엔비디아 H100 GPU를 제공하고 프로젝트 세이바(Project Ceiba)를 통해 AI 슈퍼컴퓨터를 구축하고 있다. 또한 AWS 트레이니움과 AWS 인퍼런시아를 통해 비용을 절감하고, 성능과 에너지 효율성을 향상시키고 있다.
베드록에서 제공하는 미세조정(fine-tuning), 검색증강생성(RAG) 등 포괄적인 기능 세트와 보안 기능을 통해 기업의 자체 데이터를 이용하여 비즈니스 관련 애플리케이션을 안전하게 구축할 수 있다고 말했다.
아마존Q는 문제해결사…4개월새 10만줄 코드 생성
바스케즈 부사장은 고객 비즈니스에 맞춤화된 업무용 생성형 AI 비서인 ‘아마존 Q(Amazon Q)’에 대해 소개했다. 이번 서밋에서는 여러 전문 분야 중에서도 아마존 Q 디벨롭퍼(Amazon Q Developer)를 중점적으로 다뤘다.
바스케즈 부사장은 아마존 Q가 ▲기획 ▲디자인 ▲코드 구현 ▲테스트 ▲배포 ▲운영에 이르는 개발의 모든 단계에서 생산성을 향상시킨다고 설명하며, 아마존 Q와 아마존 베드록을 통해 생성형 AI 애플리케이션을 개발하는 데모를 직접 시연했다. 특히 애플리케이션의 작동 방식을 파악하고 싶은 경우, 기존 애플리케이션에서 업데이트해야 할 부분을 알고 싶은 경우, 콘솔에서 예기치 못한 오류가 발생했을 경우, 기존 데이터를 바탕으로 RAG를 구현하고 싶은 경우 등 개발자들이 마주하는 다양한 상황에서 아마존 Q와 아마존 베드록을 어떻게 이용할 수 있는지 구체적으로 보여줬다. 이를 통해 AWS를 활용해 복잡한 생성형 AI 애플리케이션을 빠르고 효율적으로, 안전하게 구축할 수 있음을 강조했다.
아마존 베드락 API가 생소한 개발자도 아마존Q에서 자연어 질의를 통해 람다 핸들러 함수를 불러와 사입하고, 추천 코드까지도 제안받을 수 있다. 팀에 새롭게 합류한 개발자도 아마존Q의 도움을 받아 작업 속도를 낼 수 있다. 트러블슈트 버튼을 누르면 오류 위치도 찾아준다. BT그룹은 아마존Q를 도입해 4개월간 10만개 이상 코드 줄을 생성했다.
글. 바이라인네트워크
<이대호 기자>ldhdd@byline.network