검색
-
-
AI 딥페이크 '주의보', 뉴스에 미치는 영향 분석
- 인공지능(AI) 기술은 아직 콘텐츠 제작이나 정보 검증 과정에서 충분히 신뢰할 수 있는 수준에 도달하지 못했다. 특히 딥러닝 AI 기술 사용으로 인해 딥페이크 기술의 발전 속도가 급증하고 있어 위험성이 더욱 커지고 있다. 딥페이크는 인물의 얼굴, 특정 부위가 담긴 깆노의 영상이나 이미지 파일에다가 CG처럼 합성하는 것을 말한다. 호주 과학 전문 매체 코스모스매거진(cosmosmagazine)은 25일(현지시간) 딥러닝 AI 기술 사용으로 인해 인공지능 딥페이크의 노출 빈도가 급증하고, 조작 가능한 범위와 용이성 측면에서 엄청난 발전을 이뤘다며 인공지능의 오용을 방지하고 정보의 무결성을 유지하기 위해서는 언론, 기술 개발자, 정책 입안자들의 협력이 필요하다고 보도했다. 로열 오스트레일리아 연구소(RiAus)의 윌 베리먼(Will Berryman) 총괄 이사는 "진짜 이미지와 가짜 이미지를 구별하기가 점점 힘들어지고 있으며, 아주 미세한 이미지 변형을 통해 정보 수용 방식을 왜곡하는 데 사용될 수 있다"며 우려했다. AI가 저널리즘에 미치는 영향 RiAus는 AI가 저널리즘과 진실성에 끼치는 영향에 대해 심도 깊은 고민을 하고 있다. 오스트레일리아 기계학습 연구소(AIML)의 소장, 사이먼 루시(Simon Lucey) 교수는 "악의적인 목적으로 대규모로 실행될 경우, 법 집행 기관에게 혼란을 야기하고, 사람들이 의견을 형성하고 행동하는 방식에 심각한 문제를 일으킬 것"이라며, "이는 허위 정보가 널리 퍼지는 또 다른 경로가 될 수 있다"고 경고했다. 루시 교수는 AIML과 같은 기관들이 이미지의 출처를 암호화하여 사람들이 추적하고 검증할 수 있게 하는 '워터마킹' 기술에 대해 연구 중이라고 밝혔다. 그러나 이러한 기술적 대책도 의도적으로 속이려는 시도에는 한계가 있다. 그는 "이 기술은 책임감 있는 행위를 하고자 하는 선의의 사람들에게 유용할 것"이라고 말하면서도, "안타깝게도 가짜 콘텐츠나 딥페이크 콘텐츠가 유포될 가능성을 항상 염두에 둬야 한다"고 덧붙였다. 베리먼 이사는 대중이 현실과 허구를 구별해야 하는 새로운 도전에 직면한 상황에서, 기자들이 검증된 정보의 관리자로서의 역할을 우선시함으로써 도움을 줄 수 있다고 강조했다. 베리먼은 "지난 30년 동안 큐레이션된 미디어가 감소하고 정보가 어디에나 존재하며 쉽게 접근 가능해졌지만, 사회적으로 중요한 큐레이션을 너무 성급하게 포기했다고 생각한다"고 말했다. 시드니 공과대학의 모니카 아타드(Monica Attard) 교수는 최근 호주 주요 뉴스룸의 편집 및 제작 스태프 20명을 대상으로 한 인터뷰 프로젝트를 통해 AI가 뉴스 산업에 미치는 영향을 조사했다. 아타드 교수는 뉴스룸이 기술의 빠른 발전에 적응하기 어려워하는 것을 발견했지만, 많은 편집장들이 기자들이 허위 정보의 유포를 막는 데 중요한 역할을 할 수 있다고 믿고 있다고 밝혔다. 아타드는 "편집장들은 뉴스 미디어 기관이 고품질 뉴스를 제공함으로써 지난 10~15년 동안 저널리즘에 침투한 신뢰성 저하를 반전시키거나 영향을 줄 수 있는 기회를 인식하고 있다"고 지적했다. 그는 AI에 대한 더 광범위한 논의를 하면서, 특히 젊은 기자들 사이에서 직업 상실에 대한 우려가 존재함에도 불구하고, 많은 편집장들이 인터뷰에서 AI가 날씨 보고나 헤드라인 작성 같은 보다 일상적인 작업을 담당함으로써 기자들이 인간의 감성이 더 중요한 콘텐츠 제작에 더 집중할 수 있기를 희망한다고 밝혔다. 그러나 현재 상황에서는 AI가 생성한 가장 기본적인 정보조차 신뢰하는 것이 어렵다는 점이 문제다. 아타드 교수는 "저널리즘의 검증 과정이 훨씬 더 복잡해진다. 이름 없는 다양한 출처로부터 나오는 정보 조각들을 어떻게 신뢰할 수 있을까?"라고 의문을 제기했다. 그는 이어 "편집자들이 전한 가장 현명한 조언은, 제작자 및 기술 라이선스 플랫폼과의 대화를 통해 구현될 수 있는 보호 장치가 마련되기 전까지, 그러한 보호 장치가 구축될 때까지 저널리즘 목적에 충분히 신뢰할 수 있는 기술이라고 볼 수 없다는 것이었다"고 말했다. 선거의 해, AI가짜 콘텐츠 방지 한 목소리 한편, 마이크로소프트, 메타, 오픈AI 등 세계 주요 기술 기업 20곳이 지난 2월 16일 뮌헨 안보회의에서 AI에 의한 가짜 정보 콘텐츠가 올해 세계 각지에서 실시되는 선거를 방해하지 못하도록 협력하기로 합의했다. 한국은 오는 4월 총선을 실시하는 등 2024년은 세계 각지에서 대규모 선거가 잇따르는 '선거의 해'다. 한국에서는 오는 4월 10일 제 22대 국화의원선거가 치러진다. 특히 개정 공직선거법 시행에 따라 딥페이크(특정 인물의 얼굴 등을 영상에 합성) 영상을 활용한 선거운동은 선거일 전 90일부터 선거일까지 전면 금지된다. 미국은 오는 11월에 대통령 선거를 앞두고 SNS(소셜네트워크서비스)에 AI가 생성한 가짜 이미지와 가짜 동영상 등이 유포되고 있어 유권자의 투표 판단에 악영향을 미칠 수 있다는 우려가 제기되고 있었다. 이미 지난 1월에는 미국 동부 뉴햄프셔주 프라이머리(예비경선)를 하루 앞두고 민주당 당원에게 투표 거부를 독려하는 바이든 대통령의 가짜 목소리를 담은 자동 전화가 유포되어 AI를 이용한 선거 정보 조작에 대한 우려가 증폭됐다. 세계 각국 정상들이 외교-안보 문제를 논의하는 뮌헨안보회의에서도 AI 기술이 선거에 미치는 영향은 주요 의제 중 하나였다. 이번 협약에 따라 기술(테크) 대기업들은 AI가 생성한 가짜 콘텐츠를 자동으로 탐지하고 제거하는 기술 개발, 이용자 대상 교육 강화 등에 힘쓸 예정이다. 아마존닷컴, X(구 '트위터'), 틱톡 등 다양한 플랫폼 기업도 이번 협력에 참여했다. 정부와 기업 외에 사용자들도 딥페이크와 같은 허위 정보에 대한 경계와 비판적 사고가 필요하다. 테크놀로지적 해결책, 미디어 리터러시 교육, 인공지능의 발전 및 윤리적 사용에 대한 지침을 아우르는 다면적 접근을 통해 허위 정보 문제에 대응해야 한다.
-
- 생활경제
-
AI 딥페이크 '주의보', 뉴스에 미치는 영향 분석
-
-
MS·메타·오픈AI 등 IT 대기업 20곳, AI 선거 방해 대책 협력…2024년 대규모 선거 대비
- 마이크로소프트, 메타, 오픈AI 등 세계 주요 기술 기업 20곳이 16일(현지시간) 뮌헨 안보회의에서 인공지능(AI)에 의한 가짜 정보 콘텐츠가 올해 세계 각지에서 실시되는 선거를 방해하지 못하도록 협력하기로 합의했다. 2024년은 세계 각지에서 대규모 선거가 잇따르는 '선거의 해'다. 특히 오는 11월에는 미국 대통령 선거를 앞두고 SNS(소셜네트워크서비스)에 AI가 생성한 가짜 이미지와 가짜 동영상 등이 유포되고 있어 유권자의 투표 판단에 악영향을 미칠 수 있다는 우려가 제기되고 있었다. 이미 미국 동부 뉴햄프셔주에서는 AI로 추정되는 바이든 대통령의 목소리를 닮은 자동 전화가 유포되어 문제가 되기도 했다. 세계 각국 정상들이 외교-안보 문제를 논의하는 뮌헨안보회의에서도 AI 기술이 선거에 미치는 영향은 주요 의제 중 하나였다. 이번 협약에 따라 기술(테크) 대기업들은 AI가 생성한 가짜 콘텐츠를 자동으로 탐지하고 제거하는 기술 개발, 이용자 대상 교육 강화 등에 힘쓸 예정이다. 아마존닷컴, X(구 '트위터'), 틱톡 등 다양한 플랫폼 기업도 이번 협력에 참여했다. 구글은 가짜 이미지 등의 유통을 막기 위해 AI로 생성되었음을 나타내는 정보를 이미지에 삽입하는 '전자 워터마크'라는 기술을 개발하고 있다. 뮌헨 회의에 참석한 메타 임원들은 유력한 기술을 각 사가 공유하는 것이 바람직하다는 인식을 보였다. 이번 합의는 세계 주요 기술 기업들이 선거 방해에 대한 공동 대응에 나섬으로써 AI 기술의 악용을 막고 자유롭고 공정한 선거를 위한 중요한 발걸음으로 평가된다. 하지만 기술적인 해결책과 더불어 시민들의 디지털 리터러시 교육 강화, 선거 관리 기관의 역할 강화 등 다각적인 노력이 필요하다는 지적도 나온다. 뮌헨 안보회의 참석자들은 AI 기술이 선거에 미치는 영향에 대해 심도 있게 논의했으며, 이번 협력이 선거의 공정성을 유지하는 데 중요한 역할을 할 것으로 기대하고 있다.
-
- IT/바이오
-
MS·메타·오픈AI 등 IT 대기업 20곳, AI 선거 방해 대책 협력…2024년 대규모 선거 대비