“AWS의 서비스는 기업들의 기술 한계 극복에 활용되고 있다. 앞으로의 생성형 AI 시대에도 AWS는 ‘마법과 같은’ 경험을 제공하고자 한다.”
프란체스카 바스케즈(Francessca Vasquez) 아마존웹서비스(AWS) 프로페셔널 서비스 및 생성형 AI 혁신센터 부사장은 기조연설에서 AWS가 주도하는 생성형 인공지능 기반 혁신의 미래를 소개하며 이와 같이 밝혔다.
서울 강남구 코엑스(COEX)서 16일과 17일 양일간 열리는 ‘AWS 서밋 서울 2024’는 10주년을 맞아 사전 등록자 수만 해도 2만9000여명이고, 행사 기간 참가자수는 2만명 이상이 예상되는 대규모 행사로 준비됐다. 특히 ‘생성형 AI’를 중심으로, 기조 연설과 함께 다양한 산업 분야와 기술 주제에 걸쳐 70개 이상 고객 사례를 포함한 100개 이상의 강연과 60개 이상 스폰서 및 파트너사가 세션 및 엑스포 부스를 통해 노하우를 공유하는 자리가 펼쳐진다.
AWS 서밋 서울 2024, 10주년 맞이 대규모 행사로 준비
함기호 AWS코리아 대표는 이 자리에서 “올해는 AWS 서밋 서울이 10주년을 맞는 해다. 지금까지 10만명 이상의 고객이 행사에 참여했고, 90% 이상의 고객이 다시 참석하는 모습을 보였다. 지금까지 AWS 서밋 행사는 고객들의 비즈니스 혁신을 지원해 왔고, 앞으로도 혁신적인 미래를 위해 함께 나아갈 것이다”라고 밝혔다.
이어 함기호 대표는 “AWS 서밋 서울 2024 행사는 2만9000여명이 사전 등록했고, 행사 기간 동안 2만명 이상 참석을 예상한다. 올해 행사는 생성형 AI를 중심으로 다양한 산업 분야와 기술 주제에 걸쳐 100개 이상의 강연과 70개 이상 고객 사례, 60개 이상의 스폰서 및 파트너가 클라우드를 통한 혁신의 노하우를 공유하는 자리가 될 것이다”라고 소개했다.
또한 “AWS는 지난 10년간 한국 고객들을 위해 지속적인 투자를 해 왔고, 1000여 파트너들과 협력해 한국 리전에서 200개 이상의 서비스를 선보이고, 다양한 고객들의 기술 요구에 부응하고 있다. 앞으로도 국내 기업과 고객을 위한 최고의 클라우드 서비스를 제공하며 동행할 것이다”라고 강조했다.
AI 시대의 지속가능성과 비용 절감 측면에서는 기존 중앙처리장치(CPU), 그래픽처리장치(GPU) 대비 효율이 높은 자체 프로세서가 국내에서도 많이 활용되고 있다고 언급했다. 함기호 대표는 “한국은 전력 효율이 높은 그래비톤(Graviton) 프로세서 기반 인스턴스를 아시아태평양 지역에서 두 번째로 많이 사용하고 있다. 또한 생성형 AI 비용 최적화 측면에서 AWS의 자체 가속기 ‘인퍼런시아(Inferentia)’ 등을 검토하는 고객사도 빠르게 늘고 있다”고 밝혔다.
AWS 환경을 기반으로 AI 서비스를 구현한 고객 사례로는 엔씨소프트, LG AI연구원, 업스테이지, SKT와 KT, 샌드버드, 클레온 등이 언급됐다. 그리고 함기호 대표는 “AWS는 앤트로픽(Anthropic)과의 전략적 파트너십과 대규모 투자를 통해 생성형 AI 혁신을 함께 이끌어가기로 했다”고 강조했다.
니라브 킹스랜드(Neerav Kingsland) 앤트로픽 제휴 총괄은 이 자리에서 “앤트로픽의 클로드 모델은 모든 모델에서 높은 인텔리전스를 제공하며, 현재 AWS의 베드록 서비스에서 사용할 수 있다”고 소개했다. 이어 “거대언어모델(LLM)의 발전에는 하드웨어와 알고리즘, 학습 데이터 등 세 가지 요소가 핵심인데, 이 중 하드웨어와 알고리즘은 빠르게 발전하고 있다. 향후 ‘클로드 5’에 이르면 현재보다도 100배 이상 성능 향상도 가능할 것이다”라고 언급했다.
또한 “현재 기업들은 AI를 좀 더 진지하게 받아들이고 있다. 화이자(Pfizer)는 클로드를 활용해 수 개월이 걸리던 평가 프로세스를 며칠 정도로 줄였다. SK텔레콤 또한 클로드 모델을 미세조정해 통신에 최적화했다. 론니플래닛(Lonely Planet)도 AWS 베드록에서 클로드 모델을 활용해 맞춤화된 경험을 제공하면서 비용을 80%까지 절감하는 효과를 거뒀다”고 소개했다.
AI 시대 기술 장벽 허물고 ‘마법과 같은 경험’ 제공할 것
프란체스카 바스케즈(Francessca Vasquez) AWS 프로패셔널 서비스 및 생성형 AI 혁신센터 부사장은 기조연설에서 AWS가 주도하는 생성형 인공지능(AI) 기반 혁신의 미래를 소개했다. 프란체스카 부사장은 “현재 AWS가 제공하고 있는 200개 이상의 서비스는 기업들의 기술 한계 극복에 활용되고 있다. 앞으로의 생성형 AI 시대에도 과거에는 생각하기 어려운 기능을 구현하고, 제품 개발과 비즈니스 구축 방법을 근본적으로 바꿀 것이다”라고 강조했다.
AWS는 클라우드와 AI 기술을 통해 기업이 당면한 기술 한계를 극복하는 것을 돕고 있다고 강조했다. 그리고 AI 시대에는 업무 효율을 넘어 복잡한 작업들을 자동화하고, 생성형 AI 기술에 대한 접근성을 높이면서 기술 장벽을 허물고 있다고 밝혔다. 프란체스카 부사장은 이에 대해 “우리는 고객들에 ‘마법과 같은’ 경험을 만들고자 한다”고 언급했다.
이러한 혁신 고객의 국내 사례로는 우아한형제들이 꼽혔다. 송재하 우아한형제들 CTO는 이 자리에서 “현재 배달의민족 플랫폼은 연간 11억건 주문을 처리하는 거대한 플랫폼이다. AWS 기반에서 마이크로서비스 아키텍처와 핀옵스(FinOps), 데이터 분석과 머신러닝, 생성형 AI 기술 등이 서로 상호 작용하면서 지속적으로 서비스를 확장하고 혁신을 만들어 왔다”고 밝혔다.
배달의민족 플랫폼은 2016년 모든 환경을 AWS 기반 클라우드 환경으로 이전하기로 결정한 바 있다. 또한 2019년 전후로는 마이크로서비스 아키텍처로 전환하면서 시스템 유연성과 확장성을 확보하고, 개발 속도를 높여 변화하는 시장 요구에 빠르게 대응할 수 있게 됐다고 소개됐다. 또한 엔데믹 이후 비용 최적화 측면에서는 2022년 ‘핀옵스’ 개념 도입으로 운영 비용을 최적화해, 전년 대비 주문당 서비스 비용을 15% 가량 절감했다고 덧붙였다.
배달의민족 또한 미래 혁신의 중요한 요소로는 ‘AI’를 꼽았다. 먼저, AI는 사용자 경험 개선과 리뷰 필터링, 배차 엔진 최적화 등 운영 전반에 적용될 예정이고, 개발자의 생산성 향상에도 활용될 것이라 언급됐다. 또한 배달의민족이 준비중인 자율주행 배달로봇도 연말 베타테스트 진행을 목표로 고도화 진행 중이라고 밝혔다. 생성형 AI를 통한 사용자 경험 혁신 시도에는 ‘베드록’과 ‘클로드 3’가 큰 도움이 될 것으로 기대한다고 언급했다.
기업이 생성형 AI에 좀 더 쉽게 접근할 수 있게 돕는 AWS의 생성형 AI 스택은 크게 파운데이션 모델의 훈련 및 추론을 위한 ‘인프라’, 생성형 AI 애플리케이션을 구축하고 확장하는 데 필요한 모델을 제공하는 ‘플랫폼’, 모델을 활용해 구축된 ‘애플리케이션’ 등 세 개 계층으로 구성된다.
인프라 측면에서 AWS는 엔비디아와의 전략적 협력을 확대해 AWS 클라우드에서 H100 GPU 기반 인스턴스를 제공하고 있고, GB200 2만개로 구성된 프로젝트 세이바(Project Ceiba)를 통해 414엑사플롭스(EFlops) 성능의 AI 슈퍼컴퓨터를 구축하고 있다. 또한 ‘AWS 트레이니움(AWS Trainium)이나’’ AWS 인퍼런시아(AWS Inferentia)’ 등의 자체 가속기는 서비스 비용을 절감하고 성능과 에너지 효율성을 높이고 있다고 소개했다.
다양한 사용 사례를 하나의 모델로 모두 만족시킬 수는 없는 만큼, AWS는 ‘아마존 배드록(Bedrock)’에서 다양한 파운데이션 모델을 고객에 제공하고 있다. 또한 다양한 사용 사례에서 고객이 최적의 모델을 선택할 수 있는 평가 모델을 제공하고 있으며, 모든 모델에 일관적인 정책을 적용하고 안전하게 활용할 수 있게 돕는 ‘가드레일’ 기능도 제공하고 있다고 밝혔다.
이 외에도 기업의 데이터 활용 측면에서는 기존의 S3 서비스 등을 활용할 수도 있고, 베드록의 미세조정, 검색증강생성(RAG) 등의 기능을 활용해 기업의 자체 데이터를 이용해 비즈니스 관련 애플리케이션을 안전하게 구축할 수 있다고 소개했다. 특히 베드록에서 고객 데이터는 파운데이션 모델 훈련에 사용되지 않고 암호화되는 등 주요 개인정보 관련 규제를 충족시킨다고 덧붙였다.
고객의 비즈니스에 맞춤화된 생성형 AI 비서 ‘아마존 Q’는 다양한 비즈니스 요구사항을 충족하기 위해 여러 전문 분야를 제공한다. 이 자리에서는 개발자를 위한 특징이 소개됐는데 아마존 Q는 기획에서 디자인, 코드 구현, 테스트, 배포, 운영에 이르는 개발의 모든 단계에서 코드 생성이나 분석, 문제 해결 등을 통해 쉽고 빠르게 안전한 앱을 개발할 수 있게 돕는다. 고객 사례로는 BT그룹이 아마존 Q를 통해 지난 4개월 동안 10만 라인의 코드를 생성해 반복적이고 시간을 많이 소비하는 작업을 12% 줄였다는 점이 꼽혔다.
정석근 SK 텔레콤 글로벌·AI테크 사업부장(부사장)은 이 자리에서 “SK텔레콤은 서비스에 AI를 적용해 효율을 높이고 고객에 가치를 제공하는 것과 AI 시대에 일반 사용자들도 쉽고 편리하게 사용할 수 있는 AI 서비스를 선보이는 것, 글로벌 진출을 위한 초석 등에서 AI를 중요하게 생각하고 있다”고 밝혔다.
SK텔레콤은 글로벌 통신사들과 글로벌 텔코 AI 얼라이언스(GTTA: Global Telco AI Alliance)를 설립해 AI 기술 혁신 및 산업 선도를 위한 글로벌 AI 생태계를 연결하고, GTTA와 글로벌 빅테크를 이어주는 가교의 역할을 하고자 한다고 밝혔다.
또한 SK텔레콤은 도이치텔레콤(Deutsche Telekom), 이앤(e&), 싱텔(Singtel), 소프트뱅크(Softbank)가 공동 개발한 거대 언어 모델 ‘텔코 LLM’(Telco LLM)을 소개하며, 이를 향상시킬 RAG을 개발하기 위해 앤트로픽, AWS와 협력하고 있다고 말했다. 특히 정석근 부사장은 “SK텔레콤은 이 텔코 LLM을 운영에 활용할 계획이며, 상용화 수준에 가까이 가고 있다”고 언급했다.
이 외에도 SK텔레콤은 AI 기술로 고객 가치를 더하는 글로벌 AI 개인 비서(PAA: Personal AI Assistant) 서비스를 준비 중이라고 발표했다. PAA는 고객 일상의 크고 작은 일들을 더욱 편리하게 바꿔주는 것을 목표로 한다.
정석근 부사장은 “AI 생태계 전반적으로 모델과 반도체 개발에는 큰 투자가 필요하며, 지속을 위해서는 수요에 대한 고민이 필요하다. 이를 위해서는 일반 사용자들이 AI와 LLM을 쉽고 편리하게 쓸 수 있어야 하며, 통신사들이 여기서 중요한 역할을 할 수 있을 것이다. 이 PAA를 통해 고객들이 쉽고 편리하게, 안전하게 사용할 수 있는 서비스를 만들고자 한다. 하반기 런칭을 준비하고 있다”고 밝혔다.
권용만 기자 yongman.kwon@chosunbiz.com
댓글0