A10네트웍스, AI LLM 인프라 보안 솔루션 발표…AI 방화벽 기능 시연
네트워크 보안 전문기업인 A10네트웍스는 오는 11일부터 13일까지 도쿄에서 열리는 일본 최대 정보기술(IT) 전시회 ‘인터롭 도쿄((Interop Tokyo) 2025’에서 강력한 보안, 복원력, 성능을 제공하는 인공지능(AI) 및 대규모언어모델(LLM) 인프라 보안 솔루션을 발표하고, AI 방화벽(AI firewall)과 예측 성능(Predictive Performance) 관련 기능을 시연할 예정이라고 밝혔다.
A10은 GPU 기반 엣지 최적화 아키텍처를 바탕으로 AI와 LLM 인프라를 사이버 위협으로부터 보호하고 실시간 성능을 제공하는 AI 방화벽을 출시해 프롬프트 인젝션과 민감 정보 노출 등 위협을 탐지·완화하며, 네트워크 성능 이상 징후를 사전 감지해 안정성과 복원력을 강화한다.
전 세계 조직들이 운영 자동화와 효율성을 위해 새로운 AI 애플리케이션을 빠르게 도입하고, AI에 최적화된 데이터센터를 구축하고 있다. 이를 위해서는 실시간 응답을 제공할 수 있는 초고성능 AI 및 대규모 언어 모델(LLM) 추론 환경과 이를 보호할 새로운 사이버 보안 솔루션이 필요하다. 이러한 새로운 AI 환경을 준비하고 보호하기 위해 A10네트웍스는 이 솔루션을 발표, 시연할 예정이다.
이번에 열리는 인터롭 도쿄 행사는 ‘AI 현실로 들어오다(AI Steps into Reality)’에서 AI 방화벽(AI firewall) 및 예측 성능(Predictive Performance) 기능을 시연할 예정이다.
AI·LLM 인프라의 사이버 위협을 예방, 탐지 및 완화
A10은 애플리케이션프로그래밍인터페이스(API) 또는 URL을 통해 LLM을 노출하는 환경에 배포할 수 있는 새로운 AI 방화벽을 발표했다. 이 기능은 맞춤형 LLM은 물론 오픈AI나 앤트로픽(Anthropic)과 같은 상업용 솔루션 위에 개발된 LLM을 모두 지원한다. 엣지 최적화 아키텍처와 GPU 지원 하드웨어를 기반으로 구축된 이 기능은 고성능으로 AI와 LLM 인프라를 보호하며, 기존 모든 인프라에 추가 보안 기능으로 배치할 수 있다.
이러한 기능은 고객이 자신들의 AI 추론 모델을 기존에 알려진 취약점에 노출되어 있는지를 테스트하고, A10의 독자적인 ‘LLM 보호 기술(LLM safeguarding techniques)’을 활용해 취약점을 제거할 수 있도록 지원한다. 또한 간편하게 프롬프트 수준(사람이 AI에게 질문하거나 지시)에서 요청(request)과 응답(response) 트래픽을 검사하고, 관련 보안 정책을 적용해 해커가 시스템 출력을 조작하기 위해 AI 시스템에 악의적인 명령어를 주입하는 프롬프트 인젝션(prompt injection), 민감정보 노출 등 AI 수준의 위협을 탐지, 완화할 수 있다.
AI·LLM 추론 환경을 위한 실시간 성능 제공
A10은 AI 및 LLM 기반 애플리케이션에 대해 고성능과 복원력을 지속적으로 제공한다. 이를 위해 TLS/SSL 복호화, 캐싱, 트래픽 라우팅 최적화같은 프로세서 집약적 작업(Processor-intensive tasks)을 오프로드하고, 네트워크 가용성과 성능 극대화를 위한 실행 가능한 인사이트를 제공한다.
새로운 기능은 일종의 조기 경보 시스템처럼 작동해 네트워크 성능 이슈를 조기에 감지할 수 있다. 이는 단기적인 혼잡(congestion)이나 용량 부족(capacity deficiencies)을 사전에 파악하여, 고객이 문제가 심각해지기 전에 선제적으로 대응할 수 있도록 돕는다. 이러한 기능은 예기치 못한 다운타임을 방지하고, 최적의 네트워크 성능을 계획하는 데 기여한다. 예측 성능 기능(Predictive performance)은 ‘GPU 기반 A10 어플라이언스’에서 실행되며, 방대한 데이터를 신속하게 분석하고 이상 징후를 사전에 인지할 수 있는 인사이트를 제공한다.
이러한 AI 보안 및 인프라 기능을 통해 기업 고객은 관리 편의성, 정확한 위협 탐지를 위한 광범위한 인텔리전스를 확보할 수 있으며, 최적의 고객 경험을 제공할 수 있다.
드루파드 트리베디(Dhrupad Trivedi) A10네트웍스 사장 겸 최고경영자(CEO)는 “기업들은 AI 및 LLM 추론 모델을 온프레미스(내부구축형) 또는 클라우드 환경에서 빠르게 배포하고 학습시키고 있다. 이러한 새로운 환경에서는 지연시간(latency), 보안, 운영 복잡성이라는 세 가지 주요 과제를 해결할 수 있는 새로운 기능이 필요하다”라면서 “A10은 지난 20년간 애플리케이션을 보호하고 전달해온 경험을 바탕으로, AI 및 LLM 인프라 환경에서 복원력, 고성능, 보안을 제공하기 위한 역량을 지속적으로 확장하고 있다”고 말했다.
글. 바이라인네트워크
<이유지 기자>yjlee@byline.network