SK텔레콤의 개발자 소통 커뮤니티 플랫폼 데보션(DEVOCEAN)은 지난 2022년부터 지속적으로 기술 공유 행사 ‘데보션 테크 데이(DEVOCEAN Tech Day)’를 개최해왔다.
8회차를 맞은 이번 테크 데이는 인공지능(AI) 인프라 개발자와 관련 업계 전문가들이 기술을 공유하고 소통할 수 있는 자리로 마련됐다. 8회차를 맞은 이번 행사는 AI 데이터센터(AI DC) 관련 업계 솔루션을 공유하는 'AI 인프라의 핵심, 데이터센터를 말하다'라는 주제로 진행됐다.
SK뉴스룸에 따르면 이날 참석한 양승현 CTO는 “오늘 테크데이 행사에 참여하신 여러 기업의 개발자분들이 각자 서로의 노하우와 운영 경험, 기술 등을 공유해서 좋은 인사이트를 얻어가시길 바란다”라고 말했다.
이어 이동기 AI데이터센터 Lab장은 키노트 스피치를 통해 "AI DC가 ‘AI 토큰 생산 팩토리’로 진화하고 있으며, AI 인프라 산업은 전통적인 설비업에서 AI 운영체계 전반으로 확장되고 있다"라고 강조했다.
첫 번째 세션은 ‘유연하고 확장 가능한 AI 클라우드는 어디까지 진화했을까?’를 주제로, AI 클라우드 아키텍처와 이를 활용한 실제 운영 사례 중심의 발표가 이어졌다. AWS의 최영락 Containers Specialist는 ‘쿠버네티스로 구현하는 생성형 AI 클라우드 네이티브 아키텍처’를 주제로 발표했다.
최영락 Containers Specialist는 생성형 AI 워크로드에 적합한 클라우드 환경을 만들기 위한 핵심 요소로 쿠버네티스 기반 GPU 스케줄링, 최적화된 Pod 오케스트레이션, 데이터와 모델의 효율적 분리를 꼽았다.
그는 특히 “AI 인프라는 이제 ‘어떻게 효율적으로 GPU 자원을 쓰느냐’의 문제로 수렴하고 있다”면서, GPU 워크로드 최적화를 위한 다양한 설정과 실전 사례를 공유했다.
두 번째 발표는 SKT의 ‘페타서스 AI 클라우드(Petasus AI Cloud)’ 소개로 이어졌다. 페타서스는 AI DC 구축과 운영을 위한 고성능·고효율 클라우드 플랫폼으로, 지난 3월 MWC25에서 SKT 부스를 통해 공개된 데 이어, GSMA 글로벌 모바일 어워드(GLOMO) 2025 ‘최고의 클라우드 솔루션(Best Cloud Solution)’ 부문을 수상한 바 있다.
AI DC가상화개발팀 이건 매니저는 “국내 최초로 AI 인프라 하드웨어 환경에 최적화된 가상화 소프트웨어와 운영 자동화 소프트웨어 등 핵심 컴포넌트를 자체 개발해 탑재한 AI 클라우드 플랫폼”이라고 페타서스를 정의했다. 이건 매니저는 ▲초거대 AI 학습과 추론 환경 제공 ▲GPU/NPU 자원 최적화 ▲AI 서비스 운영 효율화 등 다방면의 고도화 계획을 설명했다.
이어 아토리서치(Atto Research)의 최규휘 수석은 ‘오픈스택 기반 AI 클라우드 플랫폼 설계 및 구축, 운영 경험’ 발표를 통해, 교육용 AI 인프라 및 지능형 교통망 구축 등 실전 구축 사례를 중심으로 현장에서의 시행착오와 솔루션을 소개했다.
그는 “AI 클라우드 인프라는 단지 기술의 문제가 아니라, 학습 데이터를 다루는 방식과 실제 사용자의 요구를 반영한 설계가 핵심”이라고 강조했다. 첫 번째 세션의 마지막 발표는 AI 인프라 전문기업 텐(TEN)의 여상호 책임이 맡았다.
그는 ‘MPSFlow: NVIDIA MPS를 컨테이너 레벨의 분할 기술로 확장하기’ 발표를 통해 GPU 자원의 비효율 문제를 짚었다. 여상호 책임은 “초거대 GPU를 온전히 활용하지 못하는 상황에서, GPU 자원 분할과 직렬화가 비용 효율성과 SLA 보장을 위한 핵심 기술로 떠오르고 있다”고 설명했다.
쿠팡 예기헌 이사도 연사로 나서 ‘AI Without Limits: From Alternative Compute to Green Hyperscaler’에 대해 소개했다. 그는 “AI 인프라는 더 이상 단일 기술이 아닌, 환경과 비용까지 고려한 통합적인 설계가 요구된다”라고 강조했다.
리벨리온의 김홍석 Chief Software Architect는 ‘리벨리온의 LLM Serving Stack’ 발표를 통해, 자사 칩 아키텍처에 최적화된 LLM 서빙 프레임워크를 공개했다. 특히 자체 개발한 NPU 기반 칩 ‘ATOM’을 활용한 서빙 구조와, 이를 통한 초저지연·고효율 추론 환경 구현 방식을 상세히 설명하며 “기존 GPU 중심에서 NPU로 서빙 인프라 패러다임이 이동하고 있다”는 점을 강조했다.
마지막 발표자는 글로벌 스토리지 솔루션 기업 DDN의 Shuichi Ihara Principal Engineer였다. 그는 ‘Building Scalable and High-performance AI Infrastructure with DDN’ 발표에서, HPC(고성능 컴퓨팅)와 AI 워크로드에 최적화된 분산 스토리지 기술과 그 확장성을 소개했다. 또한 DDN의 대표 솔루션인 ‘Exascaler’와 ‘Infinia’를 기반으로 한 초고속·초저지연 저장 구조에 대해서도 설명했다.
AI포스트(AIPOST) 나호정 기자 hojeong9983@daum.net

