이은주 한국IBM 사장 “생성AI 도입으로 기업 환경 복잡성 더 증가, 자동화는 필수”

“많은 기업들이 퍼블릭과 프라이빗 클라우드, 온프레미스를 함께 사용하는 하이브리드 클라우드 환경과 수많은 애플리케이션을 비즈니스에 활용하고 있다. 이같은 환경은 생성형 인공지능(AI) 도입으로 더욱 복잡해지고 있다.”

이은주 한국IBM 사장은 13일 여의도 본사에서 가진 기자간담회에서 이같이 말하면서 “생성형 AI가 2028년까지 최대 10억개의 앱을 만들어낼 것으로 예상되는 상황에서 자동화는 더 이상 선택사항이 아니다. 기업의 기술 운영방식에 있어 기본이 돼야 한다”고 강조했다.

이 사장은 “자동화를 통해 기업은 시간을 절약하고, 문제를 해결하고, 더 빠르게 의사결정을 내릴 수 있다”라면서 “IBM은 업계에서 가장 완벽한 자동화 솔루션을 제공한다. IBM은 통합 가시성, 네트워크, 고객사의 기술 관련 비용, 인사이트 확보 방법까지 자동화 전략을 완성하는 데 중요한 모든 측면을 고려해 제공하고 있다”고 밝혔다.

이날 한국IBM은 하이브리드 클라우드와 AI, 자동화를 중심으로 한 비즈니스 전략과 포트폴리오를 업데이트하고, 최근 발표한 왓슨x 플랫폼 관련 기술들에 대해 소개했다.

이 사장이 강조한대로 IBM은 통합 가시성, 네트워크, 고객사의 기술 관련 비용, 인사이트 확보 자동화를 모두 지원하는 포트폴리오를 보유하고 있다.

그에 따르면, 기업은 프라이빗 클라우드와 퍼블릭 클라우드, 엣지 디바이스 등 다양한 환경의 운영 상태에 대한 자동화된 통합 가시성과 인사이트를 확보할 수 있어야 한다. 이를 위해 IBM은 인스타나(Instana)를 출시해 제공하고 있다.

IBM의 자원 최적화 관리 솔루션인 터보노믹(Turbonomic)은 자원을 사용하지 않을 시간대에는 중지하거나 과다 할당된 경우 자원을 줄여 비용 절감할 수 있는 기회를 찾아낸다. 특히, 이 기술은 최근 AI 플랫폼이나 자체 거대언어모델(LLM) 구축 시 가장 큰 문제가 되고 있는 GPU 자원 최적화에도 적용이 가능해, 기업의 하드웨어와 소프트웨어 인프라 비용 및 GPU 비용 절감에도 도움을 줄 수 있다.

이 사장은 “터보노믹의 핵심은 애플리케이션 성능을 저해하지 않으면서 자원에 대한 최적화 관리를 제공할 수 있도록 추천하고, 추천 결과를 자동 반영하는 역량을 제공한다”며 “터보노믹을 이용해 하드웨어 인프라와 VM웨어 소프트웨어 비용 최적화 그리고 GPU 비용 절감을 통해 과도한 소프트웨어와 하드웨어 자원 사용으로 인한 낭비를 방지할 수 있도록 지원하고 있다”고 설명했다.

IBM은 클라우드 비용 지출을 현황을 보여주는 핀옵스(FINnOps) 솔루션도 제공한다. 클라우더빌리티(Cloudability), 앱티오(Apptio)가 관련 기능을 지원한다. 예를 들어 앱티오를 사용하면 기술 투자에 대한 지출과 여기에서 창출된 비즈니스 가치를 명확하게 파악해 데이터에 기반한 투자 결정을 내리고, 변화하는 시장 상황에 신속하게 대응할 수 있다는 게 한국IBM의 설명이다.

이러한 제품에 더해 최근 IBM은 인프라 수명주기 관리와 보안 수명주기 관리로 멀티 클라우드 및 하이브리드 환경을 자동화하는 테라폼(Terraform), 볼트(Vault) 등의 제품을 제공하는 하시코프(HashiCorp)를 인수할 계획이라고 발표했다. 하시코프를 통해 고객은 멀티 클라우드 및 하이브리드 클라우드 환경으로 쉽게 전환하고 이를 운영할 수 있다.

이 사장은 “하이브리드 클라우드와 AI 기술은 비즈니스 성장에 실질적인 도움을 줄 수 있는 성숙 단계에 접어들고 있다. 이러한 기술들은 기업의 생산성을 높이고 자동화를 실현해 비즈니스 혁신을 가져온다. 수십 년 전에는 상상조차 할 수 없었던 방식으로 비즈니스를 대규모로 지원한다”며 “기업용 솔루션 전문 기업인 IBM은 고객들에게 AI 기술의 혜택을 전달하기 위해 ‘개방성, 신뢰성, 맞춤형, 역량 강화’라는 차별화된 접근방식을 취하고 있다”고 말했다.

이 사장은 이날 곧 출시될 새로운 생성형 AI 기반 툴인 IBM 콘서트(Concert)도 소개했다. 왓슨x의 AI를 기반으로 하는 IBM 콘서트는 고객의 애플리케이션 포트폴리오 전반에 걸쳐 문제를 식별, 예측, 해결책을 제시하는 생성형 AI 기반 통찰력을 제공한다. 이 새로운 도구는 고객의 기존 시스템에 통합되어 생성형 AI를 사용하여 클라우드 인프라, 소스 리포지토리, 지속 통합 지속 개발(CI/CD) 파이프라인 및 기타 기존 애플리케이션 관리 솔루션의 데이터와 연결하고 연결된 애플리케이션에 대한 자세한 시각정보를 제공한다.

한편, 이날 행사에는 IBM 리서치의 케이트 소울 (Kate Soule) 생성형 AI 리서치 프로그램 디렉터가 참가해, 최근 IBM에서 발표한 왓슨x 관련 정책, 기술과 그 의미에 대해 설명했다.

그에 따르면, IBM은 최근 IBM에서 성능이 가장 뛰어난 언어 및 코드 그래니트(Granite) AI 모델 제품군을 오픈소스로 배포했다. 이로써 고객, 개발자, 글로벌 전문가들은 엔터프라이즈 환경에서 AI가 달성할 수 있는 한계를 확장할 수 있게 됐다.

현재 허깅페이스와 깃허브에서 아파치 2.0 라이선스로 제공되는 오픈소스 그래니트 모델은 개발 프로세스, 품질, 투명성, 효율성 면에서 매우 뛰어나다. 그래니트 코드 모델은 30억개~340억개의 매개변수 범위에서 기본형과 명령어 추종형 모델들로 제공된다. 복잡한 애플리케이션 현대화, 코드 생성, 버그 수정, 코드 설명 및 문서화, 리포지토리 유지 관리 등의 작업에 적합하다. 파이썬(Python), 자바스크립트(JavaScript), 자바(Java), 고(Go), C++, 러스트(Rust) 등 116개 프로그래밍 언어가 학습되어 있는 그래니트 코드 모델은 IBM의 테스트 결과, 두 배나 큰 다른 오픈소스 코드 모델보다 우수한 성능을 보이는 등 다양한 코드 관련 작업에서 오픈소스 코드 거대언어모델(LLM) 중 최고 수준의 성능을 발휘하는 것으로 나타났다는 게 소울 디렉터의 얘기다.

이와 함께 케이트 소울 디렉터는 LLM 성능을 높이기 위해 IBM과 레드햇이 함께 개발한 인스트럭트랩(InstructLab)을 소개했다. 인스트럭트랩 방법론은 수십 년 동안 오픈소스에서 소프트웨어 개발이 진행되어 온 것처럼 지속적이고 점진적 기여를 통해 기본 모델을 지속적으로 발전시킬 수 있도록 한다.

기업의 개발자는 인스트럭트랩을 통해 자사의 데이터로 해당 비즈니스 도메인이나 산업에 특화된 모델을 구축할 수 있으므로 AI의 직접적인 가치를 확인할 수 있다. IBM은 이 접근법을 왓슨x.ai 및 새로운 레드햇 엔터프라이즈 리눅스 AI(RHEL AI) 솔루션에 통합함으로써 고객에게 추가적인 가치를 제공하는데 이러한 오픈소스 기여 모델을 활용할 계획이다.

IBM은 지난해 7월 파운데이션 모델(FM)을 제공하는 AI 기술 개발 스튜디오인 왓슨X.ai와, AI 워크로드에 최적화한 저장소 플랫폼인 왓슨X.데이터, 왓슨x.거버넌스를 잇달아 선보이며, AI 모델 활용-저장-정책 관리까지 AI 활용 절차를 아우르는 라인업을 갖췄다.

글. 바이라인네트워크
<이유지 기자>yjlee@byline.network

관련 글

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다