미국 정부가 인공지능(AI) 개발 업체들이 시스템 및 서비스를 개시하기 전 당국의 안전성 평가를 받도록 의무화한다. 미국이 AI와 관련한 법적 규제 장치를 마련하는 것은 이번이 처음이다.
30일(현지 시간) 워싱턴포스트(WP) 등에 따르면 조 바이든 미국 대통령은 이날 AI 활용에 대한 구체적인 규제 방안을 담은 행정명령을 발표했다. 이에 따라 업체들은 AI 시스템을 출시하기 전 미 상무부 산하 국립표준기술연구소(NIST)의 안전성 평가를 의무적으로 거쳐야 한다. NIST는 시스템이 사이버 공격에 대한 방어력을 갖췄는지, 이용자에게 차별·편견을 조장할 위험성이 없는지 등을 중점적으로 평가한다. 행정명령은 오픈AI·마이크로소프트(MS)·구글·엔비디아 등 주요 15개 사의 자발적 합의에 기반한 것으로 알려졌다.
미 상무부는 가짜 정보의 확산을 방지하기 위해 AI 콘텐츠에 워터마크를 부착해 어떤 시스템에서 생성됐는지 식별이 가능하도록 할 방침이다. 이와 함께 AI 인재를 유치하고 기술 혁신을 가속하기 위한 조치도 담는다. 해외 AI 인력에 대한 비자 발급 요건을 완화하고 수용 인원도 확대한다. 또 스타트업들의 시장 진입을 돕기 위해 AI 관련 국가 데이터에 대한 접근성을 높이고 보조금 역시 증액한다는 방침이다. 의료·교육 등 특정 분야에서는 AI 활용과 관련한 안전 지침을 따로 마련한다. 행정명령에 따른 규제와 지침은 현재 시중에 판매되는 모델이 아닌 차세대 AI 모델을 대상으로 적용될 예정이다.
한편 이날 주요 7개국(G7) 역시 AI 시스템 개발 업체에 대한 국제 행동 강령에 합의할 예정이라고 로이터통신이 전했다. AI 기술의 위험성에 대한 우려가 커지자 전 세계적으로 규제 움직임이 빨라지는 모습이다. 강령은 기업이 AI 시스템의 기능과 안전성 등을 평가한 보고서를 공개해야 하며 보안성 강화에 투자해야 한다는 등 총 11개 항목으로 구성된다. 로이터는 “이는 구속력은 없지만 기업들이 첨단 AI 시스템을 개발하는 데 있어 자발적인 행동 지침을 제공하는 역할을 할 것”이라고 전했다.
댓글0