인공지능 규제 논의.jpg

인공지능(AI) 시장이 급성장하면서 안토니오 구테흐스 유엔 사무총장을 비롯해 국제사회에서 AI 규제를 서둘러야 한다는  논의가  뜨겁다.   사진=로이터/연합뉴스

 

인공지능(Artificial Intelligence, AI)을 인간이 어디까지 규제할 수 있을까.

 

인공지능은 기계가 인간의 학습 능력, 추론 능력, 지각 능력, 자연어 이해 능력 등 인간의 지능을 모방하도록 설계된 컴퓨터 시스템이나 소프트웨어를 말한다.

 

기계가 데이터를 통해 학습하고, 그 학습된 내용을 기반으로 예측하거나 분류하는 기술인 머신러닝, 인공 신경망을 기반으로 복잡한 문제를 해결하려고 하는 딥러닝, 자동화된 기계가 인간의 행동을 모방하도록 설계와 프로그래밍하는 분야인 로보틱스 등이 모두 인공지능에 속한다.

 

현재 인공지능 기술은 의료, 금융, 제조, 자동차, 엔터테인먼트 등 다양한 산업 분야에서 활용되며, 효율성을 높이고 새로운 가능성을 열고 있다.

 

그런데, 하루가 다르게 성장하는 인공지능 시장을 두고 규제 방안을 먼저 마련해야 한다는 목소리가 높아지고 있다.

 

구테흐스 UN 사무총장, AI 규제 제안

 

안토니우 구테흐스 유엔 사무총장은 올여름 처음으로 유엔 안전보장이사회 회의를 소집해 AI의 잠재적 위험성에 대해 구체적으로 논의하면서 AI를 규제해야 하는지, 어느 정도까지 규제해야 하는지에 대한 논의가 뜨거워졌다.

 

BBC에 따르면 구테흐스 총장은 AI 기반 사이버 공격부터 오작동하는 AI의 위험, AI가 잘못된 정보를 퍼뜨리는 방법, 심지어 AI와 핵무기 간의 상호 작용에 이르기까지 다양한 분야에 대해 언급했다. 그는 "AI의 이러한 위험에 대처하지 않으면 현재와 미래 세대에 대한 우리의 책임을 방기하는 것"이라고 주장했다.

 

이후 구테흐스 총장은 글로벌 규제 필요성을 조사하기 위해 유엔 패널 설립을 추진했다. '인공지능 고위급 자문기구'라고 불리는 이 패널은 '전현직 정부 전문가와 산업계, 시민사회, 학계 전문가'로 구성될 예정이다. 이 기구는 올해 말 이전에 초기 연구 결과를 발표할 계획이다.

 

안토니우 구테흐스 유엔 사무총장.jpg
안토니우 구테흐스 유엔 사무총장은 2023년 여름 처음으로 유엔 안전보장이사회 회의를 소집해 AI의 잠재적 위험성에 대해 구체적으로 논의했다.   사진=신화/연합뉴스

기술거물, AI규제 한 목소리

 

앞서 9월 중순 일론 머스크와 메타의 마크 저커버그 등 미국 기술업계의 거물들은 워싱턴에서 미국 의원들과 회담을 갖고 AI와 잠재적인 미래 규제에 대해 논의했다.

 

그러나 일부 AI 전문가들은 글로벌 규제 성공 가능성에 대해 회의적인 시각을 가지고 있다. 45년 동안 AI를 연구해 온 피에르 하렌도 부정적인 사람 중 한 명이다.

 

하렌은 컴퓨터 대기업 IBM에서 7년간 근무하며 고객을 위한 인공지능 왓슨 슈퍼컴퓨터 기술 설치 팀을 이끌었다. 2010년에 출시된 왓슨은 사용자의 질문에 대답할 수 있으며, AI의 선구자 중 하나에 속한다.

 

이러한 배경을 가진 하렌은 지난해 챗GPT와 기타 소위 '생성형 AI' 프로그램의 출현과 그 능력에 "깜짝 놀랐다"고 말했다.

 

생성형 AI는 간단히 말해 단어, 이미지, 음악, 동영상 등 새로운 콘텐츠를 빠르게 생성할 수 있는 AI다. 한 가지 예에서 아이디어를 얻어 완전히 다른 상황에 적용할 수도 있다.

 

하렌은 챗GPT의 이러한 능력이 인간과 비슷하다고 말했다. 그는 "이 기계는 우리가 주입하는 것을 반복하는 앵무새가 아니다"라면서 "고차원적인 유추를 하고 있다"고 했다.

 

북한·이란 등 걸림돌

 

그렇다면 이 인공지능이 통제 불능 상태가 되는 것을 막기 위한 일련의 규칙이나 규제 장치는 어떻게 만들 수 있을까?

 

하렌은 북한 등 일부 국가가 AI를 규제하는 기구나 규칙에 가입하지 않을 것이기 때문에 인공지능 통제는 사실상 불가능하다고 말했다.

 

그는 "우리는 북한이나 이란과 같은 비협조적인 국가가 있는 세상에 함께 살고 있다"며 "그들은 AI 관련 규제를 인정하지 않을 것이다. 비협조적인 행위자에 대한 규제는 하늘의 별 따기다"라고 말했다.

 

AI 규제를 찬성하는 사람들은 악의적인 행위자들이 AI 기술을 발판으로 삼아 위험한 기능을 습득하는 것이 상대적으로 쉬워진다는 점을 걱정하고 있다. 예를 들어 물리학자는 이론적으로 핵폭탄을 만드는 방법을 알고 있지만 실제로 핵폭탄을 제조하는 것은 매우 힘들다. 그러나 AI의 도움을 받으면 손쉽게 핵폭탄을 만들 수도 있다.  

   

위키피디아의 창립자 지미 웨일즈는 거대 기술 기업의 경계를 넘어 수많은 프로그래머가 인터넷을 통해 기본 코드를 무료로 사용할 수 있는 AI 소프트웨어를 사용하고 있다고 말했다. 그는 "수만 명의 개인 개발자가 이러한 혁신을 기반으로 기술을 개발하고 있다. 이들에 대한 규제는 결코 일어나지 않을 것"이라고 우려했다.

 

일론 머스크.jpg
일론 머스크 테슬라와 스페이스X CEO. 사진=로이터/연합뉴스

영국, 11월 AI 규제 글로벌 서밋 개최

 

올리버 다우든 영국 부총리는 지난 9월 정부가 행동하지 않으면 인공지능이 세계 질서를 불안정하게 만들 수 있다고 경고했다.

 

다우든 부총리는 뉴욕에서 열린 유엔 총회에서 "현재 AI에 대한 글로벌 규제는 발전 속도에 비해 뒤처지고 있다"고 우려했다.

 

그는 과거에는 각국 정부가 기술 발전에 대응하여 규제를 만들었지만, 이제는 AI의 발전과 함께 규제를 만들어야 한다고 주장했다.

 

다우든은 정부와 시민이 위험을 적절히 완화할 수 있다는 확신을 가져야 하는 것처럼 AI 관련 기업도 "스스로 숙제를 해결해야 한다"며 규제 확립을 강조했다.

 

영국은 오는 11월 AI 규제를 논의하기 위해 '글로벌 서밋' 개최를 앞두고 있다. 규제가 없는 AI는 결국 일자리를 빼앗고, 잘못된 정보를 부추기거나 차별을 고착화할 수 있다는 취지에서다.

 

인공지능 자체가 내포하는 편향성과 불투명성 등 기술적 한계와 인공지능 오작동에 따른 잠재적 위험 요인에 대응해 기존 인공지능의 한계를 극복하고 초거대 인공지능의 신뢰성을 확보하기 위한 국제적인 규제 마련이 시급한 상황이다.

 

한국, 인공지능 규제 방안

 

한편, 한국에서는 빠르면 11월부터 인공지능 서비스에서 발생할 수 있는 위험 요인 등을 민간 자율로 평가하는 검·인증 체계와 AI 생성물에 대한 워터마크 표시 제도가 추진된다.

 

과학기술정보통신부는 25일 서울 강서구 LG사이언스파크에서 열린 제4차 인공지능 최고위 전략대화에서 이 같은 내용을 담은 '인공지능 윤리·신뢰성 확보 추진 계획'을 발표했다.

 

민간 자율 AI 윤리·신뢰성 확보 지원, 선도적인 AI 윤리·신뢰성을 위한 기술·제도적 기반 마련, 사회 전반에 책임 있는 AI 의식 확산 등을 골자로 한 이번 계획의 세부 과제로 과기정통부는 오는 11월부터 민간 자율 AI 신뢰성 검·인증을 추진하겠다고 밝혔다.

 

인공지능이 생성한 결과물에 대한 표시 제도 도입도 11월부터 추진한다. 이용자 보호를 위해 가시적 워터마크를 권고하며, 표시 의무화는 의견 수렴과 국제 동향을 고려해 단계적 도입을 검토한다.

전체댓글 0

비밀번호 :
메일보내기닫기
기사제목
[퓨처 Eyes(8)] 인공지능 규제, 어디까지 가능할까?
보내는 분 이메일
받는 분 이메일