검색
-
-
[신소재 신기술(84)] AI 딥페이크, 천문학 기술로 잡아낸다
- 천문학자들이 은하계를 관측하는 도구인 지니 계수를 활용해 인공지능(AI)으로 제작한 딥페이크를 구별하는 기술을 개발했다. 최근 AI 기술 발달로 인해 실제 사람과 구별하기 어려운 가짜 이미지 생성이 가능해지면서, 이러한 이미지를 탐지하는 개술 개발의 필요성이 대두되고 있다. 이에 지난주 영국 헐(Hull) 대학교에서 열린 왕립천문학회 국가 천문학 회의에서 AI 생성 이미지를 탐지하는 새로운 기술을 발표했다고 아르스테크니카가 전했다. 헐 대학교 석사과정 학생인 아데주모크 오월라비 등 연구팀은 실제 이미지와 AI가 생성한 이미지에서 사람의 안구에 반사된 빛을 분석했다. 그런 다음 천문학에서 일반적으로 사용되는 방법을 사용해 반사를 정량화하고 좌우 안구 반사 사이의 일관성을 확인했다. 즉, 이 기술은 사람 눈의 빛 반사를 분석해 이미지의 진위 여부를 판별하는 방식으로, 천문학자들이 은하를 연구하는 데 사용하는 도구를 응용한 것이다. 연구팀은 동일한 광원에 의해 조명되는 두 눈은 일반적으로 각 안구에 유사한 모양의 빛 반사를 갖는다는 원리에 착안해 AI 생성 이미지에 나타나는 비일관적인 빛 반사 패턴을 분석했다. 가짜 이미지는 각 눈 사이의 반사광이 일관성이 없는 반면, 실제 사람의 이미지는 일반적으로 두 눈에 같은 반사광이 나타난다. 연구를 주도한 헐 대학교의 천체물리학 교수이자 인공지능 및 모델링 우수센터 소장인 케빈 핌블렛 교수는 "눈 알에 반사된 모습은 실제 사람의 모습은 일치하지만, 가짜 사람의 모습은 (물리학적 관점에서) 부정확하다"고 설명했다. 그는 "이 기술은 은하의 모양을 측정하는 방식과 유사하게, 눈의 빛 반사 형태를 분석해 이미지의 진위 여부를 판별한다"고 덧붙였다. 연구팀은 은하 이미지의 빛 분포를 측정하는 데 사용되는 지니 계수를 활용하여 눈의 픽셀 전체에 걸쳐 반사의 균일성을 평가하고, CAS(집중도, 비대칭성, 부드러움)및 지니 지수를 통해 은하 빛 분포를 측정하는 도구를 탐색하는 등 다양한 천문학적 방법을 적용했다. 핌블릿 교수는 "은하의 모양을 측정하기 위해 우리는 은하가 중심이 콤팩트한지, 대칭인지, 얼마나 매끄러운지를 분석한다. 그리고 빛의 분포를 분석한다"고 말했다. 그러나 이 기술은 AI 모델이 물리적으로 정확한 눈 반사를 통합하도록 발전할 경우 효과가 떨어질 수 있으며, 눈 알이 선명하게 보이는 고품질의 눈 이미지가 필요하다는 한계점이 있다. 또한 실제 사진에서도 조명 조건이나 후처리 기술에 따라 눈 반사가 일관되지 않을 수 있어 오탐 가능성도 존재한다. 핌블렛 교수는 "이 기술은 완벽하지 않지만, 딥페이크 탐지 경쟁에서 우리에게 기반을 제공한다"며 "향후 머리카락 질감, 해부학적 구조, 피부 세부 정보 및 배경 일관성과 같은 다른 요소들을 고려하는 더욱 발전된 딥페이크 탐지 도구 개발에 기여할 것으로 기대한다"고 밝혔다.
-
- 포커스온
-
[신소재 신기술(84)] AI 딥페이크, 천문학 기술로 잡아낸다
-
-
구글, AI 생성 선거 광고 공개 의무화…투명성 강화와 가짜뉴스 방지
- 구글이 투명성 강화와 가짜뉴스 방지를 위해 생성형 AI로 만든 선거 광고 공개를 의무화한다고 폭스비즈니스가 전했다. 구글은 공개한 자료에서 "실제 또는 사실적으로 보이는 사람이나 사건을 묘사하기 위해 AI 기술 등을 활용해 변경된 콘텐츠를 활용한 선거 광고일 경우, 이를 광고주가 의무적으로 공개하도록 할 것"이라고 발표했다. 미국 대선을 앞두고 디지털 기술을 이용한 선거 광고를 의무적으로 공개하도록 조치한 것. 구글이 정치 콘텐츠 정책에 대한 '공개 요구 사항'을 업데이트함에 따라, 광고주들의 마케팅 담당자는 광고 캠페인 설정의 '변경된 콘텐츠 또는 합성 콘텐츠' 옵션에서 확인란을 선택해야 한다. 구글은 휴대폰의 피드와 단편, 컴퓨터와 TV의 인스트림에 대해 광고 내 공개를 생성할 것이라고 밝혔다. 다른 형식의 경우 구글은 광고주에게 사용자가 알 수 있는 '명시적 공개'를 제공하도록 요구한다. 구글은 "허용 가능한 공개 언어’의 경우 개별 광고의 맥락에 따라 달라질 것"이라고 덧붙였다. 사람이 말하거나 행동한 것을 허위로 표현하는 데 사용되는 프롬프트와 딥페이크에 응답해 텍스트, 이미지, 동영상을 더 쉽게 만들 수 있도록 지원하는 생성형 AI의 급속한 확대는 콘텐츠 플랫폼의 오용과 잘못된 정보의 확산을 방지하려는 업계의 노력에 새로운 해결 과제로 부상하고 있다. 이와 관련, 올봄 인도 총선에서 나렌드라 모디 총리를 비방하는 발리우드 배우 두 명의 가짜 동영상이 입소문을 탔다. 두 광고 모두에서 AI가 생성한 동영상은 유권자들에게 야당인 의회당을 지지할 것을 촉구했다. 한편 이와 별도로 챗GPT를 공급하고 있는 오픈AI는 지난 5월 "여론을 조작하거나 정치적 결과에 영향을 미치려는 시도의 일환으로 인터넷 전반에서 기만적인 활동을 위해 AI 모델을 사용하려는 5개의 비밀 프로젝트를 막았다"고 밝힌 바 있다. 페이스북과 인스타그램의 모회사인 메타(Meta)도 구글에 앞서 소셜 미디어 플랫폼에서 정치, 사회, 선거 관련 광고를 변경하거나 생성하는 데 생성형 AI나 기타 디지털 도구가 사용되는지 여부를 광고주에게 공개하도록 요구할 것이라고 발표했었다.
-
- IT/바이오
-
구글, AI 생성 선거 광고 공개 의무화…투명성 강화와 가짜뉴스 방지
-
-
EU 유럽의회, 전세계 첫 AI규제법 가결⋯내년초 발효, 2년 뒤 적용 예상
- 유럽연합(EU) 유럽의회는 13일(현지시간) 전세계에서 처음으로 인공지능(AI)의 포괄적인 규제법안을 가결했다. 이날 로이터통신 등 외신들에 따르면 유럽의회는 AI법안에 523명의 의원들이 찬성해 찬성다수로 승인했다. 의원중 46명은 반대, 49명은 기권했다. 유럽의회가 AI규제법을 가결한 것은 AI에 대한 규제가 처음 제안된 지 5년 만이다. 유럽의회가 이날 AI법을 가결함에 따라 EU 27개국 회원국들이 오는 5월엔 정식으로 승인하면 내년 초에 발효되고 오는 2026년부터 적용될 것으로 예상된다. 일부 조항은 이보다 빨리 시행된다. EU 집행위의 역내시장 담당인 티에리 브르통 집행위원은 성명에서 "유럽은 이제 신뢰할 수 있는 AI에 대해 세계적인 모범이 됐다"고 말했다. 미국에서는 이에 해당하는 법규제가 없으며 EU의 법안에 포함된 일련의 규제가 미국과 유럽 각국에 있어서 AI관리를 방향지을 가능성이 있다. 이 AI법안에 대해 기업들은 너무 지나치다라는 우려를 표명한 반면 감독당국은 충분하게 다루지 못하고 있다는 입장을 나타냈다. AI 규제법은 급속하게 진화하고 있는 기술이 초래하는 편견과 프라이버시, 기타 리스크에 대한 우려에 대처하는 것을 목적으로 하고 있다. 구체적으로는 직장과 학교에서의 감정인식기술에 대한 AI 이용을 금지하고 구인신청자의 선별이라는 중요한 사안에서의 사용도 제한하고 잇다. 또한 지난해 챗GPT의 인기로 세계적인 주목을 모았던 생성AI 방식에도 처음으로 제한이 가해지게 된다. 규제대상에는 미국 마이크로소프트(MS)가 출자한 미국 오픈AI가 개발한 생성AI 등이 포함된다. 이들 생성AI는 대량의 데이터로 훈련받아 새로운 콘텐츠를 생성한다든지 업무를 실행하든지 한다. 대상이 되는 영향이 큰 범용AI모델과 리스크가 높은 AI시스템은 특정의 투명성을 충족할 의무와 EU의 저작권법의 준수가 필수적이다. 유럽의 신생 기업부터 오픈AI 및 구글에 이르기까지 범용 AI 모델 개발자는 시스템을 교육에 사용되는 인터넷상의 텍스트, 그림, 비디오 및 기타 데이터에 대한 자세한 요약을 제공하는 등 EU 저작권법을 준수해야 한다. AI가 만든 실존 인물, 장소, 행사 등에 대한 딥페이크 사진, 동영상, 오디오는 인위적으로 조작된 것으로 분류돼야 한다. EU는 강력한 AI 시스템이 "심각한 사고를 일으키거나 광범위한 사이버 공격에 악용될 수 있다"고 우려하고 있으며, 또 생성 AI가 많은 애플리케이션에 "해로운 편견"을 퍼뜨려 많은 사람들에게 영향을 미칠 수 있다고 우려한다. 이러한 시스템을 제공하는 회사는 위험을 평가하고 완화해야 한다. 누군가의 죽음이나 건강, 재산에 심각한 해를 끼치는 오작동 같은 심각한 사건은 보고하고 사이버 보안 조치를 취해야 한다. 또 AI 모델이 얼마나 많은 에너지를 사용하는지도 공개해야 한다. 정부가 공공으로 실시간의 생체인증을 감시할 수 있는 것은 특정 범죄, 테러공격 등의 실질적인 위협 방지, 중대한 범죄의 용의자 수사에 제한된다.
-
- 포커스온
-
EU 유럽의회, 전세계 첫 AI규제법 가결⋯내년초 발효, 2년 뒤 적용 예상
-
-
AI 딥페이크 '주의보', 뉴스에 미치는 영향 분석
- 인공지능(AI) 기술은 아직 콘텐츠 제작이나 정보 검증 과정에서 충분히 신뢰할 수 있는 수준에 도달하지 못했다. 특히 딥러닝 AI 기술 사용으로 인해 딥페이크 기술의 발전 속도가 급증하고 있어 위험성이 더욱 커지고 있다. 딥페이크는 인물의 얼굴, 특정 부위가 담긴 깆노의 영상이나 이미지 파일에다가 CG처럼 합성하는 것을 말한다. 호주 과학 전문 매체 코스모스매거진(cosmosmagazine)은 25일(현지시간) 딥러닝 AI 기술 사용으로 인해 인공지능 딥페이크의 노출 빈도가 급증하고, 조작 가능한 범위와 용이성 측면에서 엄청난 발전을 이뤘다며 인공지능의 오용을 방지하고 정보의 무결성을 유지하기 위해서는 언론, 기술 개발자, 정책 입안자들의 협력이 필요하다고 보도했다. 로열 오스트레일리아 연구소(RiAus)의 윌 베리먼(Will Berryman) 총괄 이사는 "진짜 이미지와 가짜 이미지를 구별하기가 점점 힘들어지고 있으며, 아주 미세한 이미지 변형을 통해 정보 수용 방식을 왜곡하는 데 사용될 수 있다"며 우려했다. AI가 저널리즘에 미치는 영향 RiAus는 AI가 저널리즘과 진실성에 끼치는 영향에 대해 심도 깊은 고민을 하고 있다. 오스트레일리아 기계학습 연구소(AIML)의 소장, 사이먼 루시(Simon Lucey) 교수는 "악의적인 목적으로 대규모로 실행될 경우, 법 집행 기관에게 혼란을 야기하고, 사람들이 의견을 형성하고 행동하는 방식에 심각한 문제를 일으킬 것"이라며, "이는 허위 정보가 널리 퍼지는 또 다른 경로가 될 수 있다"고 경고했다. 루시 교수는 AIML과 같은 기관들이 이미지의 출처를 암호화하여 사람들이 추적하고 검증할 수 있게 하는 '워터마킹' 기술에 대해 연구 중이라고 밝혔다. 그러나 이러한 기술적 대책도 의도적으로 속이려는 시도에는 한계가 있다. 그는 "이 기술은 책임감 있는 행위를 하고자 하는 선의의 사람들에게 유용할 것"이라고 말하면서도, "안타깝게도 가짜 콘텐츠나 딥페이크 콘텐츠가 유포될 가능성을 항상 염두에 둬야 한다"고 덧붙였다. 베리먼 이사는 대중이 현실과 허구를 구별해야 하는 새로운 도전에 직면한 상황에서, 기자들이 검증된 정보의 관리자로서의 역할을 우선시함으로써 도움을 줄 수 있다고 강조했다. 베리먼은 "지난 30년 동안 큐레이션된 미디어가 감소하고 정보가 어디에나 존재하며 쉽게 접근 가능해졌지만, 사회적으로 중요한 큐레이션을 너무 성급하게 포기했다고 생각한다"고 말했다. 시드니 공과대학의 모니카 아타드(Monica Attard) 교수는 최근 호주 주요 뉴스룸의 편집 및 제작 스태프 20명을 대상으로 한 인터뷰 프로젝트를 통해 AI가 뉴스 산업에 미치는 영향을 조사했다. 아타드 교수는 뉴스룸이 기술의 빠른 발전에 적응하기 어려워하는 것을 발견했지만, 많은 편집장들이 기자들이 허위 정보의 유포를 막는 데 중요한 역할을 할 수 있다고 믿고 있다고 밝혔다. 아타드는 "편집장들은 뉴스 미디어 기관이 고품질 뉴스를 제공함으로써 지난 10~15년 동안 저널리즘에 침투한 신뢰성 저하를 반전시키거나 영향을 줄 수 있는 기회를 인식하고 있다"고 지적했다. 그는 AI에 대한 더 광범위한 논의를 하면서, 특히 젊은 기자들 사이에서 직업 상실에 대한 우려가 존재함에도 불구하고, 많은 편집장들이 인터뷰에서 AI가 날씨 보고나 헤드라인 작성 같은 보다 일상적인 작업을 담당함으로써 기자들이 인간의 감성이 더 중요한 콘텐츠 제작에 더 집중할 수 있기를 희망한다고 밝혔다. 그러나 현재 상황에서는 AI가 생성한 가장 기본적인 정보조차 신뢰하는 것이 어렵다는 점이 문제다. 아타드 교수는 "저널리즘의 검증 과정이 훨씬 더 복잡해진다. 이름 없는 다양한 출처로부터 나오는 정보 조각들을 어떻게 신뢰할 수 있을까?"라고 의문을 제기했다. 그는 이어 "편집자들이 전한 가장 현명한 조언은, 제작자 및 기술 라이선스 플랫폼과의 대화를 통해 구현될 수 있는 보호 장치가 마련되기 전까지, 그러한 보호 장치가 구축될 때까지 저널리즘 목적에 충분히 신뢰할 수 있는 기술이라고 볼 수 없다는 것이었다"고 말했다. 선거의 해, AI가짜 콘텐츠 방지 한 목소리 한편, 마이크로소프트, 메타, 오픈AI 등 세계 주요 기술 기업 20곳이 지난 2월 16일 뮌헨 안보회의에서 AI에 의한 가짜 정보 콘텐츠가 올해 세계 각지에서 실시되는 선거를 방해하지 못하도록 협력하기로 합의했다. 한국은 오는 4월 총선을 실시하는 등 2024년은 세계 각지에서 대규모 선거가 잇따르는 '선거의 해'다. 한국에서는 오는 4월 10일 제 22대 국화의원선거가 치러진다. 특히 개정 공직선거법 시행에 따라 딥페이크(특정 인물의 얼굴 등을 영상에 합성) 영상을 활용한 선거운동은 선거일 전 90일부터 선거일까지 전면 금지된다. 미국은 오는 11월에 대통령 선거를 앞두고 SNS(소셜네트워크서비스)에 AI가 생성한 가짜 이미지와 가짜 동영상 등이 유포되고 있어 유권자의 투표 판단에 악영향을 미칠 수 있다는 우려가 제기되고 있었다. 이미 지난 1월에는 미국 동부 뉴햄프셔주 프라이머리(예비경선)를 하루 앞두고 민주당 당원에게 투표 거부를 독려하는 바이든 대통령의 가짜 목소리를 담은 자동 전화가 유포되어 AI를 이용한 선거 정보 조작에 대한 우려가 증폭됐다. 세계 각국 정상들이 외교-안보 문제를 논의하는 뮌헨안보회의에서도 AI 기술이 선거에 미치는 영향은 주요 의제 중 하나였다. 이번 협약에 따라 기술(테크) 대기업들은 AI가 생성한 가짜 콘텐츠를 자동으로 탐지하고 제거하는 기술 개발, 이용자 대상 교육 강화 등에 힘쓸 예정이다. 아마존닷컴, X(구 '트위터'), 틱톡 등 다양한 플랫폼 기업도 이번 협력에 참여했다. 정부와 기업 외에 사용자들도 딥페이크와 같은 허위 정보에 대한 경계와 비판적 사고가 필요하다. 테크놀로지적 해결책, 미디어 리터러시 교육, 인공지능의 발전 및 윤리적 사용에 대한 지침을 아우르는 다면적 접근을 통해 허위 정보 문제에 대응해야 한다.
-
- 생활경제
-
AI 딥페이크 '주의보', 뉴스에 미치는 영향 분석
-
-
정부, AI 저작권 등 디지털 시대 핵심 쟁점 8개 집중 추진
- 한국 정부는 인공지능(AI) 관련 저작권 제도 정비와 딥페이크를 활용한 가짜뉴스 대응 등 디지털 시대 핵심 쟁점 8가지에 대해 집중 관리 방침을 세웠다. 과학기술정보통신부는 30일 서울 중앙우체국에서 이종호 장관 주재로 '제2차 새로운 디지털 질서 정립 관계부처 회의'를 개최해 국민들의 관심이 높고 시급성을 갖는 AI 저작권과 비대면 진료 등 디지털 시대의 핵심 쟁점 8개를 선별해 집중적으로 관리하겠다고 밝혔다. 이날 26개 주요 부처가 참여한 회의에서 과기정통부는 디지털 심화 시대의 범정부 대응 현황을 확인하는 '디지털 심화 대응 실태진단' 결과를 공유했다. 이 진단을 통해 각 부처가 중점적으로 대응하고 있는 17개 분야에 걸쳐 52개의 쟁점과 현안이 도출됐다. 정부는 대국민 인식 조사 결과 등을 토대로 AI 저작권, 딥페이크, 비대면 진료 외에도 다음과 같은 주제를 8대 핵심 쟁점으로 선정했다. AI 기술의 안전성 및 신뢰성과 윤리 확보 방안, 연결되지 않을 권리의 보장, 잊힐 권리 도입의 범위와 방안, 디지털 재난 및 사이버 위협에 대한 대응 방안, 그리고 디지털 접근성 향상 및 대체 수단 확보 방안 등이다. 먼저 AI 저작권 관련 제도 정비는 문화체육관광부가 주관하고, 비대면 진료 시행 방안은 보건복지부가, 딥페이크를 이용한 가짜 뉴스 대응 방안은 방송통신위원회가 각각 담당한다. 특히, 생성형 AI 기술에 의한 허위 정보의 생산 및 유통을 방지하기 위해 워터마크 표시 등 구체적인 방안을 검토할 예정이다. 정부는 오는 3월까지 '디지털 신질서 정립 추진계획'(가칭)을 마련하여, 이번 진단을 통해 도출된 52개 쟁점에 대한 구체적인 정책 방향과 방안을 설정할 예정이다. 딥페이크 대응은 디지털 기술, 특히 인공지능(AI)을 사용하여 생성된 가짜 영상이나 오디오, 이미지 등의 조작된 콘텐츠, 즉 딥페이크(deepfake)에 맞서는 일련의 방법, 기술, 정책, 법적 조치를 의미한다. 딥페이크 기술은 실제로 존재하지 않는 사람의 얼굴이나 음성을 매우 사실적으로 재현할 수 있으며, 이는 개인의 명예를 훼손하거나 사회적 혼란을 야기할 수 있어 심각한 문제로 대두되고 있다. 최근 미국에서는 가수 테일러 스위프트(Taylor Swift)의 포르노 이미지, 조 바이든(Joe Biden) 미국 대통령의 음성이 녹음된 자동녹음전화 등이 입소문을 타고 있지만 그 중 단 하나도 실제가 아닌 것으로 밝혀져 충격을 주고 있다. NDTV는 지난 27일 인공지능(AI)에 의해 생성된 딥페이크는 이번 달 소셜 미디어에서 급증해 일련의 유명 피해자를 우발했고 다가오는 미국 선거 주기를 앞두고 조작된 미디어의 위험을 공개적인 대화의 장으로 끌어 올렸다고 전했다. 과기정통부는 쟁점별 특성을 고려하여 심층 연구, 전문가 자문, 콜로키움(발표 후 참여자들과의 자유로운 토론) 등을 통해 사회적 논의를 촉진할 계획이다. 정책 방향 설정이 단기간 내에 어려운 쟁점들에 대해서는 국내외 정책 추세 분석과 공론화 과정을 통한 쟁점 해결 방안을 수립하기로 했다. 이번 회의는 '디지털 권리장전'이라는 새로운 디지털 질서의 기본 방향을 기반으로 하여, 구체적인 디지털 질서 정립을 위한 실행 방안을 논의하기 위해 개최됐다. 디지털 권리장전은 디지털 환경에서 개인의 권리와 자유를 보장하고, 디지털 기술의 발전이 사회에 긍정적인 영향을 미치도록 하는 원칙과 지침을 담은 선언 또는 정책 문서를 의미한다. 이는 디지털 시대에 개인의 사생활 보호, 데이터 보호, 표현의 자유, 정보 접근 권리, 디지털 격차 해소 등과 관련된 권리들을 명시하고, 인공지능(AI), 빅데이터, 사물인터넷(IoT)과 같은 기술이 인간의 존엄성과 기본적 인권을 존중하는 방식으로 사용되어야 함을 강조한다. 디지털 권리장전은 디지털 환경에서 발생할 수 있는 다양한 문제들에 대응하기 위해, 정부, 기업, 시민사회가 공동으로 준수해야 할 기본 원칙과 표준을 제시한다. 이를 통해 기술 발전이 사회 전반에 긍정적인 변화를 가져오면서도, 개인의 권리가 충분히 보호될 수 있도록 하는 것이 목적이다. 온라인 개인정보 보호, 디지털 격차 해소, 디지털 환경에서의 표현의 자유 보장, 알고리즘의 투명성 및 공정성 확보, 인공지능과 로봇 기술 사용에 따른 윤리적 기준 설정 등이 디지털 권리장전에 포함될 수 있는 주요 내용이다. 한국에서의 디지털 권리장전 도입 논의는 아직 초기 단계이며, 구체적인 내용과 범위, 실행 방안 등은 관계부처, 전문가, 시민사회와의 지속적인 협의와 공론화 과정을 통해 확정될 예정이다. 디지털 권리장전은 한국 사회가 디지털 변혁을 긍정적으로 수용하고, 디지털 기술의 발전이 사회 전반에 걸쳐 공정하고 포용적인 방식으로 이루어지도록 하는 데 중요한 역할을 할 것으로 기대된다. 이날 회의에서 발표된 대국민 인식 조사 결과에 따르면, 국민들은 디지털 권리장전의 중요성(94.3%)과 필요성(91.5%)에 대해서는 높은 공감을 나타냈으나, 디지털 권리장전에 대한 인지도는 18.2%로 상대적으로 낮게 나타났다. 2023년 11월 16일부터 12월 13일까지 만 15세 이상의 국민 2200명을 대상으로 진행한 인식 조사에서, 응답자들은 디지털 심화 시대의 주요 우려 사항으로 '플랫폼 노동자의 권리 보장'(43.3%, 복수 응답 가능), 'AI 기술 개발을 위한 저작권 이용 범위'(39.7%), 'AI 생성물에 대한 저작권 인정'(37.9%), 'AI 로봇의 의료 행위 허용 여부'(36.6%) 등이 우려된다고 꼽았다.
-
- IT/바이오
-
정부, AI 저작권 등 디지털 시대 핵심 쟁점 8개 집중 추진
-
-
챗GPT, 음성↔텍스트 상호 변환...소통 능력 향상 기대
- 대화형 인공지능(AI) 서비스 챗GPT가 텍스트를 통해 사용자와 소통했던 단계를 벗어나 사진을 인식하고 음성을 텍스트로 변환하고, 텍스트를 다시 음성으로 합성할 수 있는 버전을 도입한다고 밝혀 이전보다 더 인간다운 모습을 보일 전망이다. 기술 과학 전문매체 기즈모도(GIZMODO)에 따르면, 챗GPT 제조사인 오픈AI는 챗GPT에 도입될 프로모션 비디오를 통해 사용자에게 이미지 인식 기능에 대해 선보이고 있다고 전했다. 예를 들어, 사용자가 챗GPT에게 자전거 좌석을 낮춰달라고 요청하면 챗봇은 먼저 모든 종류의 좌석을 낮추기 위한 일반적인 조언을 했다. 위의 사진에서 볼수 있듯이 처음 자전거 좌석을 사용하는 이용자가 자전거 좌석 캐치 주위에 원을 그린 후 더 자세한 도움을 요청하면, 챗GPT는 해당 볼트 유형을 인식하고 엘렌 렌치가 필요하다고 답했다. 이 시스템은 사용자 설명서와 공구 상자의 사진을 보고 올바른 크기의 렌치가 있는지도 확인할 수 있다고 기즈모도는 설명했다. 음성 인식 시스템 적용 물론, 이미지 인식은 많은 챗봇 서비스에서 실험한 것이 아니지만 음성 인식 시스템과 음성 합성에 대한 최신 기술을 보유하고 있다는 것이 오픈AI 측의 설명이다. 오픈AI는 챗봇의 새로운 음성 서비스를 사용자에게 소개하기 위해 '어머니가 챗GPT에게 특정 숲에 살고 있는 고슴도치에 대한 이야기를 자녀들에게 읽어 달라'고 요청하는 비디오를 공개했다. 비디오의 말투는 자연스러웠지만, 그림책의 캐릭터들이 각각의 고유한 목소리를 내지는 않았다. 캐릭터의 음성은 시스템에 라이선스를 부여한 성우의 목소리를 기반으로 하기 때문이다. 이는 일레븐랩스(ElevenLabs)와 같은 다른 AI 음성 합성과 유사하다. 해당 서비스는 처음에는 딥페이크(인공지능을 기반으로 활용한 인간 이미지 합성 기술)나 괴롭힘에 사용돼 비판을 받았다. 오픈AI는 자사의 첫 번째 음성 서비스가 챗GPT 음성 채팅에서만 적용된다고 밝혔고, 최근 새로운 팟캐스트 음성 번역 기능을 발표한 스포티파이(Spotify)에 음성 시스템 라이선스를 제공하고 있다. 이로써 스페인어, 프랑스어, 독일어로 인기 팟캐스터의 목소리를 모방할 수 있게 될 예정이다. 물론 이 새로운 기능은 챗GPT의 '플러스(Plus)' 또는 '엔터프라이즈(Enterprise)' 서비스 비용을 지불한 사용자에게만 제공되며 두 기능 모두 10월 중순께 iOS와 안드로이드(Android)에서 사용할 수 있게 된다. 챗GPT 웹 버전 사용자도 곧 이미지 기능을 이용할 수 있게 될 전망이다. 다만, 이 시스템은 프로모션 비디오에서 제안하는 것처럼 빠르거나 능숙하지는 않을 것으로 보인다. 과학 기술매체 와이어드(Wired)에 따르면, 챗GPT 시험용 버전을 기반으로 음성 인식이 응답하는 데 몇 초가 걸렸다. 이 매체는 이미지 시스템이 사진 속 사람을 식별하려고 시도하지 않을 것이며, 사생활을 어떻게 보호할지 두고 봐야 할 것이라고 지적했다. 오픈AI 대변인은 기즈모도에 "시간이 지나면서 점진적으로 개선하고 위험을 줄일 수 있는 세부 사항들을 다듬는 것이 중요하다"며 "이 새로운 기능을 최소화하기 위해 '레드팀'을 구성했다"고 밝혔다. 그러나 사용자들이 다시 한번 챗봇의 윤리적 경계를 넘어서는 것은 시간문제다. 챗GPT는 지난 2022년 11월 공개 직후 대대적으로 인기를 끈 이후 사용자 수가 감소했다. 이는 일부 사용자들이 오픈AI가 챗봇의 기능을 제한했다고 느꼈기 때문이다. 오픈AI는 피해를 최소화하고 챗봇 사용자들이 자유롭게 활용할 수 있는 윤리적 균형을 찾는 데 어려움을 겪고 있다. 한국어 개인정보 방침 제공 한편, 오픈AI는 지난 2023년 9월 비영어 국가 중 처음으로 한국어로 된 개인정보 처리방침을 제공하고 국내 이용자를 위한 개인정보 가이드라인을 마련했다. 회사 서비스를 통해 수집되는 개인정보를 추가로 이용하기 위한 조건과 아동의 기준이 상향된 것으로, 국내 이용자 687명의 개인정보 유출 건에 대한 개인정보보호위원회의 개선 권고 일환이다. 오픈AI가 대한민국 이용자로부터 수집한 개인정보를 활용하기 위해서는 먼저 수집된 개인정보의 추가적인 이용·제공이 당초 수집 목적과 관련성이 있어야 한다. 동시에 수집한 데이터를 추가로 이용·제공할 수 있다는 예측도 가능해야 한다. 또 대한민국 '아동'의 연령기준을 13세에서 14세로 상향했다. 이밖에도 '처리 위탁 및 국외 이전'의 기준을 마련하고 '개인정보 파기 절차 및 방법', '정보주체와 법정대리인의 권리', '연락처', '국내대리인'을 명시했다.
-
- IT/바이오
-
챗GPT, 음성↔텍스트 상호 변환...소통 능력 향상 기대
-
-
AI 워터마크, 뚫기 쉽다⋯보안 강화 촉구
- 디지털 워터마크는 다양한 분야에서 활용되는 보안 기술로, 우표부터 현금, 이미지까지 폭넓게 적용되며 그 핵심 역할은 정보의 신뢰성 확보와 위조 방지에 있다. 최근 '엔가제트(engadget)' 매체에 따르면 디지털 워터마크의 취약점에 대한 우려가 커지고 있다. 인공지능(AI)을 활용한 딥 페이크와 생성 예술 등의 확산으로 인해 디지털 워터마크의 중요성이 갈수록 커지고 있다. 특히 AI로 만들어진 콘텐츠를 정확히 식별하고, 해당 콘텐츠가 실제로 AI에 의해 생성됐는지 확인하는 것이 중요한 과제로 부상했다. 이러한 워터마크는 AI에 의한 콘텐츠의 오용을 방지하는 목적으로 이미지 등에 적용되기도 한다. 딥 페이크나 허위 정보의 생성이 급증하자 이를 방어하고 정보의 신뢰성을 보장하기 위해 많은 기업들이 워터마크 기술의 개발에 힘쓰고 있다. 구체적으로 오픈AI, 메타, 아마존 등 주요 기업들이 이러한 문제점에 대응하기 위한 워터마킹 기술 개발에 앞장서고 있다. 메릴랜드 대학교(UMD)의 컴퓨터 과학 연구팀은 워터마크의 추가나 제거에 관한 연구를 수행했다. UMD의 쇼헤이 페이지(Soheil Feizi) 교수는 와이어드(Wired)와의 인터뷰에서 현재 신뢰할 수 있는 워터마킹 응용 프로그램이 없다는 연구 결과를 얻었다고 밝혔다. 실제로, AI를 사용하지 않고 이미지에 가짜 워터마크를 추가하는 것은 상대적으로 간단한 일이었다. 반면, 워터마크를 완전히 제거하는 것은 여전히 복잡한 작업으로 판명되었다. 일부 연구진은 워터마크를 거의 완전히 제거하기 어렵게 만드는 기술의 개발에 힘쓰고 있으며, 이런 기술은 제품의 도난 감지에도 활용될 전망이다. 캘리포니아 대학교 산타 바바라 캠퍼스와 카네기 멜론 대학교의 연구팀은 디지털 워터마크의 제거 방법에 대한 공동 연구를 진행했다. 이 연구에서는 디지털 워터마크를 쉽게 제거할 수 있다는 사실을 확인했다. 두 가지 주요 워터마크 제거 방법, 즉 파괴적 접근과 건설적 접근이 탐색되었다. 파괴적 접근은 워터마크를 이미지의 일부로 간주하고 이를 조정하여 제거하는 방식인데, 이 과정에서 이미지 품질이 떨어질 수 있다. 반면, 건설적 접근은 워터마크를 유지한 채로 제거하는 복잡한 방법을 취한다. 이 연구는 디지털 워터마크의 취약성을 드러내면서 그 개선의 필요성을 부각시켰다. 디지털 워터마킹 기술은 지속적으로 발전해야 하며, 특히 AI가 잠재적으로 잘못된 정보를 만들어내어 사회에 혼란을 줄 수 있기 때문에, AI 생성 콘텐츠의 식별 도구와 기술의 발전이 필요하다.
-
- IT/바이오
-
AI 워터마크, 뚫기 쉽다⋯보안 강화 촉구