[아이뉴스24 김종성 기자] “인공지능(AI)은 생산성을 높여줄 수 있는 잠재력이 아주 높습니다. 윤리적 원칙에 따라 사업을 수행하고, 안전하고 모두에게 이로운 방식으로 AI를 사용해야 합니다.”
베리티 하딩(Verity Harding) 영국 케임브리지대학교 베넷공공정책연구소 AI 및 지정학 프로젝트 디렉터는 6일 서울 용산구 드래곤시티호텔 한라홀에서 열린 ‘아이포럼 2023’에서 ‘초거대 AI가 가져올 미래의 변화’라는 주제로 기조강연하며 이같이 말했다.
하딩은 딥마인드 최초의 글로벌공공정책 대표를 역임했다. 공공과 민간 부문 모두에서 풍부한 경험을 갖춰 AI와 공공정책의 세계적인 권위자로 평가받는 인물이다. ‘TIME 100’의 가장 영향력 있는 AI인물 중 한 명으로 선정되기도 했다.
◇ AI 분야, 다양성·공정성·투명성·책임성 등 가치 중요성 부각…정부·기업·민관 참여 다자간 논의 필요
하딩은 이날 강연에서 기술, 윤리, AI, 국제협력 등의 주제가 융합되면서 나타나고 있는 각종 트렌드를 소개했다. 특히 지난 2016년 알파고와 이세돌이 벌인 ‘세기의 대결’을 AI 역사에 한 획을 그은 여러 사건 중 하나로 꼽았다.
하딩은 “딥마인드가 알파고 프로그램을 선보이면서 한국에서 바둑을 두는 이벤트를 개최하며 알고리즘이 사람과 대등한 수준으로 발전한 것을 모두가 지켜봤다”며 “그 시기가 마침 AI 산업에서 혁신이 꽃을 피우던 초입이었고, 그때부터 7년여의 시간이 지난 지금 소위 생성형 AI가 세상에 모습을 드러냈다”고 말했다.
생성형 AI는 새로운 것을 창조하는 AI다. 과거 AI가 보통 데이터 내에 있는 패턴을 분석하는 데 주로 쓰였다면, 이제 AI는 새로운 글, 사진, 영상과 같이 무언가를 새롭게 창조하는 데까지 이르렀다.
이러한 AI의 발전으로 인류와 사회에 미칠 지대한 영향에 대한 우려도 나온다. 기술적인 능력에 더해 이제는 AI가 활용하는 데이터의 투명성, 책임성, 보안, 편향성 문제 등 정치적, 윤리적인 문제의 중요성이 부각되고 있다. 하딩은 “이제는 다양한 기업들이 AI 개발시 윤리적 사안을 고려하는 것이 하나의 트렌드로 자리잡았다”며 “AI 사업을 진행할 때 따라야 하는 일련의 AI 원칙을 세워 이를 준수하는 등 기업의 AI 개발 방향이 매우 긍정적인 방향으로 나아가고 있다”고 소개했다.
구글이나 마이크로소프트(MS)와 같은 기업은 공정성, 투명성, 책임성을 우선시하는 AI 원칙을 채택했다. 경제협력개발기구(OECD), 주요 7개국(G7), 유럽연합(EU) 등 국제기구에서도 AI 감독과 관련된 여러 원칙을 제시하고 있다.
G7 국가는 AI 글로벌 파트너십(GPAI) 협의체를 구성해 AI 감독과 관련한 국제 협력을 위한 바탕을 마련했다. 올해는 일본이 주최한 G7에서 생성형 AI에 관한 히로시마 AI 프로세스가 채택됐다. EU는 AI 법안을 통과시키며 AI를 여러 종류의 리스크로 분류해 수용 불가한 리스크에 AI 활용이 무엇인지 제시하는 등 규제의 첫 스타트를 끊었다.
하딩은 “예를 들어, 사람들이 어디로 가는지 추적하는 실시간 얼굴 인식 기술 등이 수용 불가한 활용 사례로 지적됐다”며 “AI 기술을 고위험과 저위험 카테고리로 나누면서 AI가 하나의 기술이 아님을 보여주었는데, 이 부분이 핵심이라고 생각한다”고 강조했다. 그는 “AI라는 것은 다양한 활동과 다양한 기술을 아우르는 상위 개념”이라며 “어떤 기술을 사용하는가에 따라 수반되는 리스크의 수준이 매우 다르기 때문에 서로 다른 방식으로 규제를 하고 관리될 필요가 있다”고 주장했다.
최근에는 미국 조 바이든 대통령이 AI에 관한 행정 명령을 공표하면서 기업들이 AI 관련 모델을 안전한 방식으로 만들 것을 주문했다. 영국은 AI의 미래를 그려나가는 과정에서 기업과 정부간 협력, 그리고 국제 협력을 촉진하기 위해 최초의 AI 안전 정상회담을 조직했다.
하딩은 “향후 10년간 AI의 복잡성과 불확실성으로 인해 나타날 문제들을 해결하기 위해서는 국제협력이 필수적”이라며 “한국 입장에서도 생성형 AI 등 여러 AI가 빠르게 발전하는 지금, 혁신과 인권 보호간 균형을 맞추기 위한 세심한 노력은 물론 국제 협력 과정에도 지속적으로 참여하고 투자해 미래 담론에 한국의 목소리를 담아내야 한다”고 조언했다.
◇ “AI 미래는 ‘긍정적’…국제협력 강화속 한국도 정치적 리더십 필요”
하딩은 “AI가 큰 혜택을 가져다줄 수도 있지만, 오용될 가능성이나 의도치 않은 결과를 낳을 가능성도 있다”고 경고하면서도, AI가 가져올 미래 변화는 긍정적일 것이라고 봤다. 그는 “워드프로세서가 탄생했을 때도, 인터넷이 생겼을 때도, 아이폰이 발명됐을 때도, 소셜네트워크서비스(SNS)와 각종 앱이 출시됐을 때도 항상 부정적인 영향은 있었다”며 “긍정적인 면이 부정적인 면을 언제나 압도했고, 생성형 AI도 예외는 아니라고 생각한다”고 말했다.
이어 “인터넷 덕분에 여러 나라에 있는 다양한 사람과 소통을 할 수 있게 됐고, 기업이 서비스를 제공하는 방식, 우리가 소통하는 방식 자체도 180도 바뀌었다”며 “생성형 AI는 인터넷의 등장만큼 혁신적이지 않을 지도 모르지만, 그럼에도 분명 기술을 활용하는 방식을 혁신적으로 바꿔 놓을 것이고, 그 결과는 긍정적일 수밖에 없다”고 강조했다.
그는 “생성형 AI도 조심하지 않으면 큰 위험이 될 수 있는 딥페이크 기술의 탄생 등 걱정되는 요소가 있다”며 “그러나 진짜와 가짜를 구별하고, 특정 창작물이 AI를 통해 만든 것인지 사람이 만든 것인지 구분할 수 있는 솔루션 등 이미 이런 기술에 대응할 수 있는 해결책이 나오고 있다”고 설명했다. 또 “이렇게 인류는 해결책을 언제나 찾을 것이며, 사람은 사실 비기술적 해결책을 찾는 능력이 뛰어나다”고 덧붙였다.
이 때문에 정부와 기업, 국민이 모두 참여하는 다자간 논의를 통해 AI와 윤리간 균형점을 찾아내고, AI를 최선의 방식으로 활용할 수 있는 방안을 찾아야 한다고 역설했다. 하딩은 “AI는 생산성을 높여줄 수 있는 잠재력이 아주 높다”며 “윤리적 원칙에 따라 사업을 수행하고, 안전하고 모두에게 이로운 방식으로 AI를 사용해야 한다”는 점을 강조했다.
AI와 관련해 국제사회의 협력이 강화되는 상황에서, 한국도 강한 목소리를 낼 수 있는 역할과 정치적 리더십이 필요하다고 강조했다. 하딩은 “분명 AI 기술은 앞으로 지정학적인 성격이 강해질 것이고, 이는 피할 수 없는 일”이라며 “AI를 통해 우리가 어떻게 힘을 합치고 협력할지 고민하는 것이 중요하고, 또 국가 간 갈등이 골이 깊어지지 않게 해야 한다”고 지적했다.
이어 “인터넷 기술 초기 단계에서 경험한 바와 같이, AI 역량이 있는 국가와 그렇지 못한 국가간 거대한 격차가 생기는 것을 지양해야 한다”며 “기술력이 뛰어난 한국의 아시아 내 위상을 감안했을 때 아시아의 목소리를 강하게 전달할 수 있는 역할을 맡는 것이 중요하다”고 조언했다.
댓글0