검색
-
-
해양 플라스틱 쓰레기 수거 선박 '만타', 혁신 기술로 주목
- 최근 기후 변화와 해양 보호에 긍정적인 영향을 미치는 혁신적인 기술이 화제가 되고 있다. 콘텐츠 제작자 샘 벤틀리가 소개한 해양 플라스틱 쓰레기 청소 선박인 '만타'가 그 주인공이다. 야후 파이낸스 보도에 따르면, 벤틀리는 자신의 동영상을 통해 해양 오염 방지 조직 '더 씨 클리너스'가 개발한 이 혁신적인 플라스틱 수거 선박 '만타'의 작동 방식에 대해 설명했다. 만타는 태양열과 풍력을 이용한 혼합 발전 시스템을 탑재하고 있다. 이 선박은 수거한 플라스틱을 연료로 재활용하는 폐기물-에너지 전환 장치를 통해 최대 20시간 동안 지속적인 운영이 가능하다. 만타는 매 시간 약 3톤의 쓰레기를 해양에서 제거할 수 있으며, 수거된 쓰레기는 플라스틱, 유리, 알루미늄 등으로 분류되어 육상에서 재활용된다. 또한, 만타는 대형 해양 오염 물질을 수거하기 위한 크레인과 얕은 해역에서 플라스틱 쓰레기를 수거하는 데 특화된 소형 선박을 갖추고 있어, 다양한 환경에서의 청소 작업이 가능하다. 플라스틱 오염은 물 공급원에 유해 화학 물질을 방출하고 해양 생물에게 위험한 미세 플라스틱을 축적시켜 해양 생태계에 심각한 피해를 준다. 콘텐츠 제작자 샘 벤틀리의 만타 소개 동영상은 시청자들에게 큰 인상을 남겼다. 많은 사람들이 댓글을 통해 만타의 성능에 감탄하고 그 혁신성에 매료되었다고 밝혔다. 한 사용자는 "너무 멋진 기술이라 널리 알려야 한다"고 언급했고, 다른 사용자는 "정말 놀라운 발명"이라고 칭찬했다. 또 다른 사용자는 "이러한 긍정적인 메시지를 전하고, 사람들에게 희망과 미소를 선사해서 감사하다"고 댓글을 남겼다. 환경보호 단체 '더 씨 클리너스'에 따르면, 매년 전 세계적으로 약 3억 8000만 톤의 플라스틱이 생산되며, 이 중 절반은 일회용 제품이다. 플라스틱 폐기물 중 최대 32%가 자연 환경으로 유입되고 있는데, 특히 해양 환경이 큰 위험에 처해 있다. 매년 9톤에서 14톤 가량의 플라스틱이 바다로 유입되는 것으로 추정된다. 이러한 상황에서 만타와 같은 해양 플라스틱 청소 선박의 확대는 해양 플라스틱 오염을 크게 줄일 수 있는 잠재력을 가지고 있다. 그러나 궁극적으로 플라스틱의 생산과 사용을 줄이는 것이 더욱 중요할 수 있다. 대부분의 플라스틱은 원유와 같은 화석 연료를 기반으로 만들어지며, 제조 과정에서 상당량의 온실가스를 배출한다. 또한, 플라스틱 제조에 사용되는 독성 물질은 장기적으로 사람들의 건강에 여러 가지 위험을 초래할 수 있다. 플라스틱은 자연환경에서 수백 년 동안 머무르며, 자연적으로 분해되지 않는 특성을 가지고 있다. 이러한 상황에서 만타와 같은 해양 플라스틱 청소 선박은 이미 발생한 플라스틱 오염 문제에 대한 효과적인 해결책을 제공한다. 그러나 장기적으로는 플라스틱에 대한 의존도를 줄이는 것이 플라스틱으로 인해 발생할 수 있는 환경적 피해를 예방하는 데 더욱 중요할 수 있다. 지속 가능한 대안의 사용과 플라스틱 사용을 줄이는 노력이 결합될 때, 플라스틱 오염 문제에 대한 보다 근본적인 해결책을 찾을 수 있을 것이다.
-
- 산업
-
해양 플라스틱 쓰레기 수거 선박 '만타', 혁신 기술로 주목
-
-
[퓨처 Eyes(8)] 인공지능 규제, 어디까지 가능할까?
- 인공지능(Artificial Intelligence, AI)을 인간이 어디까지 규제할 수 있을까. 인공지능은 기계가 인간의 학습 능력, 추론 능력, 지각 능력, 자연어 이해 능력 등 인간의 지능을 모방하도록 설계된 컴퓨터 시스템이나 소프트웨어를 말한다. 기계가 데이터를 통해 학습하고, 그 학습된 내용을 기반으로 예측하거나 분류하는 기술인 머신러닝, 인공 신경망을 기반으로 복잡한 문제를 해결하려고 하는 딥러닝, 자동화된 기계가 인간의 행동을 모방하도록 설계와 프로그래밍하는 분야인 로보틱스 등이 모두 인공지능에 속한다. 현재 인공지능 기술은 의료, 금융, 제조, 자동차, 엔터테인먼트 등 다양한 산업 분야에서 활용되며, 효율성을 높이고 새로운 가능성을 열고 있다. 그런데, 하루가 다르게 성장하는 인공지능 시장을 두고 규제 방안을 먼저 마련해야 한다는 목소리가 높아지고 있다. 구테흐스 UN 사무총장, AI 규제 제안 안토니우 구테흐스 유엔 사무총장은 올여름 처음으로 유엔 안전보장이사회 회의를 소집해 AI의 잠재적 위험성에 대해 구체적으로 논의하면서 AI를 규제해야 하는지, 어느 정도까지 규제해야 하는지에 대한 논의가 뜨거워졌다. BBC에 따르면 구테흐스 총장은 AI 기반 사이버 공격부터 오작동하는 AI의 위험, AI가 잘못된 정보를 퍼뜨리는 방법, 심지어 AI와 핵무기 간의 상호 작용에 이르기까지 다양한 분야에 대해 언급했다. 그는 "AI의 이러한 위험에 대처하지 않으면 현재와 미래 세대에 대한 우리의 책임을 방기하는 것"이라고 주장했다. 이후 구테흐스 총장은 글로벌 규제 필요성을 조사하기 위해 유엔 패널 설립을 추진했다. '인공지능 고위급 자문기구'라고 불리는 이 패널은 '전현직 정부 전문가와 산업계, 시민사회, 학계 전문가'로 구성될 예정이다. 이 기구는 올해 말 이전에 초기 연구 결과를 발표할 계획이다. 기술거물, AI규제 한 목소리 앞서 9월 중순 일론 머스크와 메타의 마크 저커버그 등 미국 기술업계의 거물들은 워싱턴에서 미국 의원들과 회담을 갖고 AI와 잠재적인 미래 규제에 대해 논의했다. 그러나 일부 AI 전문가들은 글로벌 규제 성공 가능성에 대해 회의적인 시각을 가지고 있다. 45년 동안 AI를 연구해 온 피에르 하렌도 부정적인 사람 중 한 명이다. 하렌은 컴퓨터 대기업 IBM에서 7년간 근무하며 고객을 위한 인공지능 왓슨 슈퍼컴퓨터 기술 설치 팀을 이끌었다. 2010년에 출시된 왓슨은 사용자의 질문에 대답할 수 있으며, AI의 선구자 중 하나에 속한다. 이러한 배경을 가진 하렌은 지난해 챗GPT와 기타 소위 '생성형 AI' 프로그램의 출현과 그 능력에 "깜짝 놀랐다"고 말했다. 생성형 AI는 간단히 말해 단어, 이미지, 음악, 동영상 등 새로운 콘텐츠를 빠르게 생성할 수 있는 AI다. 한 가지 예에서 아이디어를 얻어 완전히 다른 상황에 적용할 수도 있다. 하렌은 챗GPT의 이러한 능력이 인간과 비슷하다고 말했다. 그는 "이 기계는 우리가 주입하는 것을 반복하는 앵무새가 아니다"라면서 "고차원적인 유추를 하고 있다"고 했다. 북한·이란 등 걸림돌 그렇다면 이 인공지능이 통제 불능 상태가 되는 것을 막기 위한 일련의 규칙이나 규제 장치는 어떻게 만들 수 있을까? 하렌은 북한 등 일부 국가가 AI를 규제하는 기구나 규칙에 가입하지 않을 것이기 때문에 인공지능 통제는 사실상 불가능하다고 말했다. 그는 "우리는 북한이나 이란과 같은 비협조적인 국가가 있는 세상에 함께 살고 있다"며 "그들은 AI 관련 규제를 인정하지 않을 것이다. 비협조적인 행위자에 대한 규제는 하늘의 별 따기다"라고 말했다. AI 규제를 찬성하는 사람들은 악의적인 행위자들이 AI 기술을 발판으로 삼아 위험한 기능을 습득하는 것이 상대적으로 쉬워진다는 점을 걱정하고 있다. 예를 들어 물리학자는 이론적으로 핵폭탄을 만드는 방법을 알고 있지만 실제로 핵폭탄을 제조하는 것은 매우 힘들다. 그러나 AI의 도움을 받으면 손쉽게 핵폭탄을 만들 수도 있다. 위키피디아의 창립자 지미 웨일즈는 거대 기술 기업의 경계를 넘어 수많은 프로그래머가 인터넷을 통해 기본 코드를 무료로 사용할 수 있는 AI 소프트웨어를 사용하고 있다고 말했다. 그는 "수만 명의 개인 개발자가 이러한 혁신을 기반으로 기술을 개발하고 있다. 이들에 대한 규제는 결코 일어나지 않을 것"이라고 우려했다. 영국, 11월 AI 규제 글로벌 서밋 개최 올리버 다우든 영국 부총리는 지난 9월 정부가 행동하지 않으면 인공지능이 세계 질서를 불안정하게 만들 수 있다고 경고했다. 다우든 부총리는 뉴욕에서 열린 유엔 총회에서 "현재 AI에 대한 글로벌 규제는 발전 속도에 비해 뒤처지고 있다"고 우려했다. 그는 과거에는 각국 정부가 기술 발전에 대응하여 규제를 만들었지만, 이제는 AI의 발전과 함께 규제를 만들어야 한다고 주장했다. 다우든은 정부와 시민이 위험을 적절히 완화할 수 있다는 확신을 가져야 하는 것처럼 AI 관련 기업도 "스스로 숙제를 해결해야 한다"며 규제 확립을 강조했다. 영국은 오는 11월 AI 규제를 논의하기 위해 '글로벌 서밋' 개최를 앞두고 있다. 규제가 없는 AI는 결국 일자리를 빼앗고, 잘못된 정보를 부추기거나 차별을 고착화할 수 있다는 취지에서다. 인공지능 자체가 내포하는 편향성과 불투명성 등 기술적 한계와 인공지능 오작동에 따른 잠재적 위험 요인에 대응해 기존 인공지능의 한계를 극복하고 초거대 인공지능의 신뢰성을 확보하기 위한 국제적인 규제 마련이 시급한 상황이다. 한국, 인공지능 규제 방안 한편, 한국에서는 빠르면 11월부터 인공지능 서비스에서 발생할 수 있는 위험 요인 등을 민간 자율로 평가하는 검·인증 체계와 AI 생성물에 대한 워터마크 표시 제도가 추진된다. 과학기술정보통신부는 25일 서울 강서구 LG사이언스파크에서 열린 제4차 인공지능 최고위 전략대화에서 이 같은 내용을 담은 '인공지능 윤리·신뢰성 확보 추진 계획'을 발표했다. 민간 자율 AI 윤리·신뢰성 확보 지원, 선도적인 AI 윤리·신뢰성을 위한 기술·제도적 기반 마련, 사회 전반에 책임 있는 AI 의식 확산 등을 골자로 한 이번 계획의 세부 과제로 과기정통부는 오는 11월부터 민간 자율 AI 신뢰성 검·인증을 추진하겠다고 밝혔다. 인공지능이 생성한 결과물에 대한 표시 제도 도입도 11월부터 추진한다. 이용자 보호를 위해 가시적 워터마크를 권고하며, 표시 의무화는 의견 수렴과 국제 동향을 고려해 단계적 도입을 검토한다.
-
- 포커스온
-
[퓨처 Eyes(8)] 인공지능 규제, 어디까지 가능할까?
-
-
삼성 갤럭시 S24, AI 탑재설⋯출시일과 디자인은?
- 올해 3분기 세계 최대 스마트폰 브랜드는 삼성전자다. 특히 인도 시장에서는 790만 대를 출하하여 18%의 시장 점유율을 기록, 탄탄한 입지를 다졌다. 이는 대다수의 경쟁 브랜드들이 불안정한 경제 상황과 인플레이션 상승으로 인해 출하량이 크게 줄어든 것과는 대조적이다. 삼성전자는 현재 2024년 출시 예정인 '갤럭시 S24' 라인업에 주력하고 있다. 미국 IT 매체인 샘모바일(SAMMOBILE)에 따르면, 갤럭시 S24 시리즈는 디자인적으로 큰 변화 없이 갤럭시 S23 시리즈와 매우 흡사할 것으로 예상된다. 인공지능(AI) 탑재설도 제기됐다. 디자인 측면에서 갤럭시 S24와 S24 플러스는 플랫 프레임이 돋보일 것으로 보이며, 갤럭시 S24 울트라는 전작과 거의 동일해 보인다고 한다. 하지만 갤럭시 S24 울트라에서는 소소한 변화가 있을 것으로 예상되며, 그 중 하나로 스피커 그릴이 길고 좁은 형태로 바뀔 것이라고 알려져 있다. 이는 현재 갤럭시 플래그십 모델에서 볼 수 있는 원형 스피커 구멍과는 다른 디자인이다. 오랜 삼성 사용자들은 아마 기억하겠지만 스테레오 스피커를 처음 탑재한 삼성의 플래그십 스마트폰 갤럭시 S9과 S9 플러스는 스피커의 디자인이 유사했다. 그러나 이 디자인은 6개월 후에 출시된 갤럭시 노트9와 같은 후속 모델에는 보이지 않았다. 샘모바일 최근 보도에 따르면, 이러한 스피커 그릴 디자인이 갤럭시 S24 울트라에 재등장할 가능성이 있다고 전해졌다. 이는 스피커의 음질에 직접적인 영향을 끼치지 않지만, 일부 사용자들은 디자인 측면에서 마음에 들지 않을 수도 있다고 우려하고 있다. 그러나 휴대폰의 하단 부분은 사용자가 자주 주시하는 곳이 아니기 때문에 실제 사용 중에는 크게 신경 쓰지 않는 부분일 수 있다. 그렇기 때문에 실제로 새 모델을 직접 보고 사용해보지 않는 한 확실한 평가는 내릴 수 없다고 볼 수 있다. 갤럭시 S24와 S24 플러스의 스피커 그릴 디자인도 유사할지 관심을 가지고 지켜봐야 할 부분이다. 다행히 삼성은 2024년 1월에 갤럭시 S24, S24 플러스, 그리고 S24 울트라를 공개할 예정이라고 밝혔다. 샘모바일은 삼성전자는 다가오는 갤럭시 S24 시리즈 출시를 앞두고 이례적으로 네 번째 배터리 공급업체를 선정했다고 전했다. 2023년 9월, 삼성전자는 갤럭시 S24 플러스 배터리의 공급 전략으로 삼성SDI 베트남, 중국의 닝더 암페렉스 테크놀러지 리미티드(Ningde Amperex Technology Limited), 그리고 인도의 이랜텍 인디아(ELENTEC India) 세 곳을 이미 확정한 바 있다. 세이프티 코리아(Safety Korea)에서 확인된 새로운 인증서에 따르면, 삼성이 네 번째 배터리 공급업체로 나비타시스 인디아(Navitasys India)를 선택한 것으로 드러났다. 해당 인증서에는 이 회사가 갤럭시 S24 울트라의 배터리를 공급할 것이라고 나와 있다. 그러나 다른 두 S24 모델은 해당 문서에 포함되어 있지 않으므로, 아직 공급업체에서 제외된 것으로 보기는 어렵다. 삼성이 네 번째 배터리 공급업체를 통해 인도에서 출시되는 갤럭시 S24 모델에만 배터리를 공급할 것인지 여부는 아직 명확하지 않다. 다만 삼성이 이미 인도의 두 배터리 공급업체와 계약을 체결한 것은 인도 정부의 '메이드 인 인디아(Made in India)' 이니셔티브와 관련이 있을 수 있다는 지적이다. 삼성은 갤럭시 S24의 배터리 공급에 문제가 없어야 하며, 회사가 전반적으로 지속 가능한 방향으로 모델을 개선했다는 점을 고려하면 이는 좋은 소식이라고 할 수 있다. 배터리는 이제 내부 디자인의 개선을 통해 사용자가 보다 쉽게 교체할 수 있도록 되어있다. 삼성은 여러 시장에서 사용자가 스마트폰 부품을 스스로 교체할 수 있도록 필요한 도구와 지침을 제공하고 있다. 이러한 방식을 통해 사용자가 직접 기기를 수리할 수 있어 모바일 제품의 사용 수명이 연장될 것으로 기대된다. 삼성은 2024년 초에 갤럭시 S24를 공개할 예정이며, 일부 보도에 따르면 미국 샌프란시스코에서 해당 제품의 글로벌 론칭 이벤트가 열릴 가능성이 있다. 23일(현지시간) 샘모바일의 보도에 따르면, 인공지능(AI)기능을 강한다는 소식도 전해지고 있다. 사용자가 제공한 키워드를 기반으로 콘텐츠와 이야기를 만드는 오픈 AI의 챗GPT나 구글 바드와 비슷한 생성형 AI 기능이 답재될 예정이다. 아울러 이번 시리즈에는 예상대로 기본 모델, 플러스 모델, 그리고 최상위 울트라 모델, 총 세 가지 버전이 출시될 것으로 예상된다.
-
- IT/바이오
-
삼성 갤럭시 S24, AI 탑재설⋯출시일과 디자인은?
-
-
AI 워터마크, 뚫기 쉽다⋯보안 강화 촉구
- 디지털 워터마크는 다양한 분야에서 활용되는 보안 기술로, 우표부터 현금, 이미지까지 폭넓게 적용되며 그 핵심 역할은 정보의 신뢰성 확보와 위조 방지에 있다. 최근 '엔가제트(engadget)' 매체에 따르면 디지털 워터마크의 취약점에 대한 우려가 커지고 있다. 인공지능(AI)을 활용한 딥 페이크와 생성 예술 등의 확산으로 인해 디지털 워터마크의 중요성이 갈수록 커지고 있다. 특히 AI로 만들어진 콘텐츠를 정확히 식별하고, 해당 콘텐츠가 실제로 AI에 의해 생성됐는지 확인하는 것이 중요한 과제로 부상했다. 이러한 워터마크는 AI에 의한 콘텐츠의 오용을 방지하는 목적으로 이미지 등에 적용되기도 한다. 딥 페이크나 허위 정보의 생성이 급증하자 이를 방어하고 정보의 신뢰성을 보장하기 위해 많은 기업들이 워터마크 기술의 개발에 힘쓰고 있다. 구체적으로 오픈AI, 메타, 아마존 등 주요 기업들이 이러한 문제점에 대응하기 위한 워터마킹 기술 개발에 앞장서고 있다. 메릴랜드 대학교(UMD)의 컴퓨터 과학 연구팀은 워터마크의 추가나 제거에 관한 연구를 수행했다. UMD의 쇼헤이 페이지(Soheil Feizi) 교수는 와이어드(Wired)와의 인터뷰에서 현재 신뢰할 수 있는 워터마킹 응용 프로그램이 없다는 연구 결과를 얻었다고 밝혔다. 실제로, AI를 사용하지 않고 이미지에 가짜 워터마크를 추가하는 것은 상대적으로 간단한 일이었다. 반면, 워터마크를 완전히 제거하는 것은 여전히 복잡한 작업으로 판명되었다. 일부 연구진은 워터마크를 거의 완전히 제거하기 어렵게 만드는 기술의 개발에 힘쓰고 있으며, 이런 기술은 제품의 도난 감지에도 활용될 전망이다. 캘리포니아 대학교 산타 바바라 캠퍼스와 카네기 멜론 대학교의 연구팀은 디지털 워터마크의 제거 방법에 대한 공동 연구를 진행했다. 이 연구에서는 디지털 워터마크를 쉽게 제거할 수 있다는 사실을 확인했다. 두 가지 주요 워터마크 제거 방법, 즉 파괴적 접근과 건설적 접근이 탐색되었다. 파괴적 접근은 워터마크를 이미지의 일부로 간주하고 이를 조정하여 제거하는 방식인데, 이 과정에서 이미지 품질이 떨어질 수 있다. 반면, 건설적 접근은 워터마크를 유지한 채로 제거하는 복잡한 방법을 취한다. 이 연구는 디지털 워터마크의 취약성을 드러내면서 그 개선의 필요성을 부각시켰다. 디지털 워터마킹 기술은 지속적으로 발전해야 하며, 특히 AI가 잠재적으로 잘못된 정보를 만들어내어 사회에 혼란을 줄 수 있기 때문에, AI 생성 콘텐츠의 식별 도구와 기술의 발전이 필요하다.
-
- IT/바이오
-
AI 워터마크, 뚫기 쉽다⋯보안 강화 촉구
-
-
[퓨처 Eyes(4)] 2023년 이후 주목받는 AI 트렌드 5가지
- 인공지능(AI) 시장은 지난 몇 년 동안 기하급수적인 속도로 성장했다. 전 세계적으로 널리 알려진 챗GPT(ChatGPT)와 구글 바드(Bard), IBM의 왓슨(Watson), 네이버의 클로바X와 같은 제품 덕분에 이런 성장이 가능했다. 글로벌 경영 컨설팅 회사인 맥킨지(McKinsey)는 현재 전체 조직의 50~60%가 이미 AI 기반 도구를 사용하고 있으며, 이 비율은 가까운 미래에 더욱 늘어날 것으로 추정된다. 포브스 보고에 따르면, AI는 현재 세계에서 가장 빠르게 성장하고 있는 산업 중 하나이다. 이 분야의 시장 가치는 10년 내로 연평균 37.3%의 성장률을 기록하며, 같은 기간 동안 약 1조 8100억 달러의 누적 가치에 이를 것으로 전망된다. 이러한 증가세는 근거가 없는 것이 아니며, 실제로 많은 전문가들이 2030년까지 AI가 세계 경제에 기여할 가치가 15조 7000억 달러에 이를 것으로 예측한다. 이는 현재 인도와 중국의 GDP를 합한 것보다도 더 큰 금액이다. 이러한 예상은 생성형 AI)와 자연어 처리(NLP) 같은 특정 기술 트렌드의 발전 덕분이라고 할 수 있다. 기술의 중요성이 점점 부각됨에 따라, 시장 및 기술 전문가들은 AI가 주도하거나 영향을 미칠 주요 트렌드들에 주목하고 있다. AI 어시스턴트의 성장부터 생성형 AI의 부상까지 코인텔레그래프가 진단한 '2023년 이후 주목받는 AI트렌드 5가지'를 소개한다. AI 어시스턴트 사용 증가 기술이 지속적으로 발전하며 확장되면서, AI 어시스턴트는 다양한 서비스 분야의 자동화와 디지털화를 가능하게 하는 준비 상태에 있다. AI 기반 디지털 서비스 개발사 VAIOT의 최고 운영 책임자 파베 안드루슈키에비츠는 법률 서비스, 공공 행정, 시민 서비스 등이 AI의 도움으로 크게 향상될 수 있는 몇몇 분야라고 지적했다. 그는 "AI 어시스턴트는 사용자에게 더 나은 접근성과 비용 절감, 사용의 편리성을 제공한다. 법률 서비스의 경우, 많은 사람들이 비용 문제나 접근성의 어려움으로 인해 이용하는데 어려움을 겪기도 한다. AI 어시스턴트는 24시간 연중무휴로 모바일 기기에서 접근 가능한 '자연스러운 사용자 인터페이스'를 제공함으로써, 이런 부분의 장벽을 낮추어 누구나 쉽게 법률 지원을 받을 수 있도록 도와준다"고 설명했다. 포춘 500대 기업에서 AI 도입 선호도 상승 AI 컨설팅 전문 회사 킨포크스(Keenfolks)의 미구엘 마차도 CEO이자 공동 창립자는 최근 사람들이 AI 제품의 빠른 확장 속도와 폭넓은 접근성에 대해 놀라게 될 것이라고 전망했다. 그는 오픈AI의 챗GPT 인터페이스가 2022년 3월에 출시된 후 현재 사용자 수가 1억 명이 넘는 것을 예로 들었다. 그는 "다양한 파일럿 실험을 통해, 포춘 500대 기업은 AI 전략을 더 빠르게 조정하고 향상시킬 수 있을 것이며, 커뮤니티는 언어 모델에 대한 지식을 활용하여 협동 학습과 기술 개발을 추진하는 플랫폼 구축에 핵심 역할을 할 것"이라고 강조했다. 마차도는 법률, 인사, 재무 등의 분야에서 최고 경영진이 비즈니스를 혁신하기 위해 AI를 적극 도입하는 추세가 확산되고 있다고 지적했다. 그는 "노코드(Nocode) 솔루션의 등장은 AI도입을 대중화해서 기술적 전문성이 부족한 브랜드들도 첨단 기술을 그들의 운영체계에 손쉽게 통합하게 만들어줄 것"이라고 덧붙였다. 생성형 AI 급성장 최근 몇 년 간 많은 AI 기반 애플리케이션은 기존 데이터를 활용하여 예측하거나 인사이트를 추출하는 예측 모델에 주로 의존했다. 이렇게 생성된 결과는 기존 데이터에서 파생되며 실제로 새로운 내용을 제공하지 않는다. 반면, 생성형 AI는 머신러닝과 딥러닝을 사용해 기존 학습 데이터 위에 구축된 새로운 패턴을 사용하여 독립적으로 계산된 독창적인 정보를 생성한다. 지난 한 해 동안 이러한 모델은 텍스트, 이미지, 오디오 및 비디오 콘텐츠를 생성하는 데 광범위하게 사용됐다. 메타와 언스트앤영의 생성형 AI 전문가이자 기술 자문인 헨리 아더(Henry Ajder)는 이 기술의 미래 가능성에 대해 "우리는 현재 생성형 기술의 초기 단계에 있으며, 앞으로 합성 미디어는 단순한 신기함에서 벗어나 엔터테인먼트, 교육, 접근성 등의 분야에서 큰 발전을 이끌 것"이라고 전망했다. 자연어 처리(NLP) 시스템의 성장 가까운 미래에 큰 관심을 받을 것으로 예상되는 AI 분야 중 하나는 자연어 처리(NLP)이다. 이 기술은 검색 엔진부터 음성 인식 시스템까지, 많은 사람들이 일상적으로 의존하는 다양한 기술 제품의 핵심이다. NLP를 통해, 기계는 사람의 언어를 보다 자연스럽게 이해하고 해석하여 대응할 수 있다. 실제로, 언어 모델링, 구문 분석, 감정 분석, 기계 번역, 음성 인식 등의 방식을 활용하여 이 기술은 다양한 비즈니스 환경에서 사용자에게 현실적인 대응을 제공한다. 아직 초기 단계이 이 분야의 잠재력을 강조하는 그랜드 뷰 리서치(Grand View Research)의 최신 보고서에 따르면, 2023년에서 2030년 사이에 연평균 40.4%의 성장률을 보일 것으로 예상되며, 10년 후에는 약 4385억 달러의 시장 규모를 이룰 것으로 전망된다. 의료 분야의 AI 활용 확대 포브스에 따르면, 의료 분야에서 AI의 활용은 질병을 진단하고 치료하는 의사의 방식을 혁신적으로 바꿀 것으로 보인다. 또한 신약 개발과 의학 연구 분야에서도 머신 러닝의 적용이 확대될 것이다. 2027년까지 신약 개발에 AI가 사용되는 규모는 40억 달러에 달할 것으로 예상된다(45.7%의 연평균 성장률로 성장). 마찬가지로 미국 의료 서비스 제공업체의 50% 이상이 내부 의료 프로세스의 일부로 로보틱스 프로세스 자동화와 같은 AI 도구를 도입했거나 도입할 계획이다. 2027년까지 AI가 신약 개발에서 차지하는 부분은 약 40억 달러로 추정되며, 이는 45.7%의 연평균 성장률로 성장할 것으로 예측된다. 또한, 미국의 의료 서비스 제공자 중 절반 이상이 로보틱스 프로세스 자동화 등의 AI 도구를 의료 프로세스에 통합하거나 도입 계획을 세우고 있다. 결과적으로 AI, 머신러닝, 딥러닝, 자연어 처리와 같은 첨단 기술이 주도하는 디지털 시대로 전환하면서 다양한 산업에서 이러한 기술의 적용이 확대되어, 보다 디지털화되고 자동화된 미래를 구축하는 데 큰 역할을 할 것으로 예상된다.
-
- 포커스온
-
[퓨처 Eyes(4)] 2023년 이후 주목받는 AI 트렌드 5가지
-
-
美 상원의원, AI 규제 위한 초당적 청사진 공개
- 미국 상원에서 인공지능(AI) 규제를 위한 법안을 발의했다. 9일(이하 현지시간) 암호화폐 전문매체 코인텔레그래프에 따르면 미국 의회가 새로운 기술을 규제하기 위한 노력을 강화하는 가운데, 상원의원 두 명이 지난 9월 8일 인공지능(AI) 법안에 대한 초당적 청사진을 공개했다. 리처드 블루멘털 상원의원과 조쉬 하울리 상원의원은 청사진을 제시해 AI 기업에 대한 의무 라이선스 제도 도입을 주장하며, 기술 기업이 기술 책임 보호 조치로 법적 조치에서 자유롭지 않을 것이라는 점을 명확히 했다. 블루멘털 의원은 X(구 '트위터')를 통해, 이 초당적 청사진이 AI 보호 장치의 실질적이고 실행 가능한 포괄적 입법 계획이라는 점에서 중요한 진전이라고 밝혔다. 하울리 위원장은 이 초당적 프레임워크에 명시된 원칙이 의회가 AI 규제의 기본 토대가 되어야 한다고 강조했다. 이 프레임워크는 AI 기술의 잠재적 혜택과 위험을 관리하기 위한 지침이 될 것으로 기대된다. 하울리는 "우리는 업계 리더 및 전문가들과의 청문회와 기타 대화 및 사실 조사를 계속하여 입법에 대한 지지 연합을 구축할 것"이라고 밝혔다. 이 청사진은 AI 모델 개발자의 독립적 규제 기관 등록 의무화와 함께, 해당 기관의 라이선스 신청자에 대한 감사 권한을 포함하고 있다. 또한, 의회가 제3자 콘텐츠에 대한 법적 보호를 제공하는 통신 품위법 230조가 AI 애플리케이션에 적용되지 않아야 한다는 점도 제안했다. 이 프레임워크의 다른 섹션에서는 기업 투명성, 소비자 및 아동 보호, 국가 안보 보호 장치를 옹호하고 있다. 한편, 상원 사법부 소위원회인 '프라이버시, 기술 및 법률'을 주도하는 블루멘털과 하울리 의원이 청문회의 일정을 공개했다. 이 청문회에서는 마이크로소프트 부회장 브래드 스미스, 엔비디아 수석 과학자 윌리엄 달리, 그리고 보스턴 대학교의 법학 교수 우드로 하트조그 등의 전문가들이 증언할 예정이다. 이번 청사진 발표와 청문회 일정 공개는 척 슈머 상원 원내대표가 주최하는 AI 포럼 이전에 이루어졌다. 이 포럼에는 AI 분야의 주요 기업 리더들이 참여, 의원들에게 AI의 잠재적 이점 및 위험에 대한 심도 있는 정보를 제공할 계획이다. 슈머 의원은 지난 6월에도 광범위한 기본 원칙을 개괄적으로 설명한 AI 프레임워크를 소개했다. 이번에 공개된 블루멘털과 하울리 의원의 청사진은 슈머 의원이 이전에 제안한 AI 프레임워크와는 달리, 보다 세부적인 내용을 담고 있다.
-
- IT/바이오
-
美 상원의원, AI 규제 위한 초당적 청사진 공개
-
-
오픈AI의 GPT-4 경쟁자 구글 '제미니', 올해 말 공개 예정
- 기술 대기업 구글에서 오픈AI의 생성형 인공지능(AI) 챗GPT의 대항마인 '제미니(Gemini)'를 출시한다. 현재 생성형 AI 시장의 예상 가치는 2032년까지 1조 3000억 달러에 달할 것으로 전망된다. 지난해 11월 첫선을 보인 오픈AI의 챗GPT는 이미 월간 활성 사용자 수가 1억 명을 돌파하며 그 성장세를 이어가고 있다. 이러한 상황에서 구글이 자체 개발한 대화형 AI 챗봇 '바드(Bard)'와 새로운 언어 모델(PaLM 2 LLM)을 선보이며 시장에서의 존재감을 확대하고 있다. 4일(현지시간) 기술 전문매체 더 테크아웃룩에 따르면 구글이 올해 말 오픈AI의 챗GPT의 GPT-4와 직접적으로 경쟁할 수 있는 '제미니'를 공개할 예정이라는 소식이 전해졌다. GPT-4는 오픈AI에서 개발한 자연어 처리(NLP) 모델로, GPT(Generative Pre-trained Transformer) 시리즈의 네 번째 버전으로 5000억 개의 파라미터를 가지고 있는 것으로 알려졌다. 이전 버전인 언어 기반 인공지능 모델 GPT-3는 약 1750억 개의 파라미터를 가지고 있다. 제미니는 구글이 보유한 TPUv5 칩, 총 1만6384개의 칩을 활용해 훈련되었으며, 훈련 데이터는 압도적인 65조 개의 토큰으로 이뤄져 있다. 또한 유튜브 콘텐츠와 알파고의 훈련 기법 역시 활용되었다. 시장 전문가들은 구글 제미니가 GPT-4를 능가할 세 가지 주요 이유를 지적한다. 첫째, 텍스트와 이미지 생성 능력, 둘째, 구글 서비스에서 확보한 독점적 학습 데이터, 그리고 셋째, 세르게이 브린(구글 공동 창업자)과 폴 바햄(딥마인드 수석 AI 과학자 겸 머신러닝 전문가) 등 AI 분야의 석학들이 구글의 딥마인드와 브레인 팀의 협력으로 더 많은 것을 기대할 수 있다는 점이다. 아직 결과는 미지수지만, 구글의 '제미니'가 얼마나 GPT-4에 버금가는 성능을 보여줄 것인지에 대한 관심이 높아지고 있다.
-
- IT/바이오
-
오픈AI의 GPT-4 경쟁자 구글 '제미니', 올해 말 공개 예정
-
-
인공지능(AI) 성능 급감하는 '드리프트' 현상 발생 이유는?
- 마이크로소프트(MS) 창업자 빌 게이츠가 "인터넷의 발명만큼 중대한 사건"이라고 극찬한 챗GPT(Chat GPT)는 오픈AI에서 개발한 대화형 인공지능(AI) 서비스로, 대량의 데이터를 학습해 새로운 정보를 생성하고 응답하는 능력을 갖춘 시스템이다. 챗GPT는 챗(Chat)과 GPT(Generative Pre-trained Transformer)의 합성어로, 트랜스포머(Transformer) 계열의 대규모 언어 모델(GPT-3.5)을 기반으로 한다. GPT-3.5는 오픈AI에서 개발한 GPT-3의 업그레이드 버전으로, 1000억 개의 파라미터를 가지고 있다. 파라미터란 AI가 학습할 수 있는 변수의 수를 의미하는데, 이는 GPT-3의 2배에 달한다. 챗GPT는 강화학습(RLHF) 방식을 채택해 자신의 행동에 따른 보상을 통해 스스로 학습하고 발전할 수 있다. 챗GPT는 번역 및 문장 재구성, 텍스트 요약, 콘텐츠 생성, 코딩 등 다양한 영역에서 우수한 성능을 뽐내고 있다. 무엇보다 인간 고유의 영역이라 여겨져 온 창작의 영역까지 AI가 파고든 사실에 많은 사람이 놀라고 있다. 지난해 11월 선보인 챗GPT는 출시된 지 5일 만에 이용자 수 100만 명을 확보했고, 1억 명을 돌파하는 데는 두 달이면 충분했다. 현재 전 세계적으로 가장 많은 사용자를 보유하고 있는 AI 서비스로 자리매김했다. AI 지능 저하 '드리프트' 현상이란? 인공지능(AI)의 새로운 패러다임인 챗GPT와 같은 채팅AI가 의사 면허 시험을 통과하거나 복잡한 수학 문제를 놀라운 정확도로 풀 수 있다는 보고서도 나왔다. 그런데 최근 챗GPT의 성능이 급격히 저하되는 현상이 나타나 인공지능 학계를 발칵 뒤집어 놓았다. 파겐 와사니 테크롤로지스(Fagen Wasanni Technologies)와 일본 매체 기가진(gigazine)의 최근호에 따르면 올해 3월부터 6월까지 채팅 AI의 수학 능력이 급격히 떨어지는 현상이 발견됐다. 이러한 채팅 AI의 지능 저하 현상을 '드리프트(drift)'라고 한다. 외신에 따르면 미국 스탠포드 대학과 UC 버클리가 올해 3월과 6월 두 차례에 걸쳐 오픈AI의 대규모 언어모델(LLM) 'GPT-3.5'와 'GPT-4'로 구동되는 챗GPT에 '수학 문제', '코드 생성', '시각적 추론', '민감한 질문' 등 4가지 과제를 부여해 그 답변의 신속성과 정확성을 분석했다. 그 결과, '17077은 소수인가?'와 같은 단순 수학 문제에 대한 GPT-4의 응답 정확도가 2023년 3월부터 6월 사이에 97.6%에서 무려 2.4%로 급락한 것으로 나타났다. 두 대학의 연구진에 따르면, "AI의 드리프트 문제는 매우 복잡한 AI 모델의 일부를 개선하려고 할 때 모델의 다른 부분의 성능이 저하되는 문제"라고 설명했다. 연구원들은 3월과 6월 다양한 버전의 LLM을 테스트하고 위의 네 가지 과제 외에 미국 의사 면허 시험, 시각적 추론을 포함한 다양한 AI 작업에서 성능을 평가했다. 그 결과, LLM이 제공하는 답변에 상당한 변동성이 있는 것으로 나타났다. 특히 GPT-4의 수학 문제 해결 능력은 3월과 6월 사이에 정확도가 84.0%에서 51.1%로 떨어지는 등 급격히 악화됐다. 반면, GPT-3.5의 정확도는 같은 기간 동안 49.6%에서 76.2%로 향상됐다. 연구원들은 또한 특정 작업에서 지시를 따르는 GPT-4의 능력이 저하되는 것을 관찰했다. 예를 들어, '행운의' 숫자와 관련된 수학 문제에서 GPT-4의 정확도는 3월과 6월 사이에 83.6%에서 35.2%로 떨어졌고 GPT-3.5의 정확도는 30.6%에서 48.2%로 오히려 증가했다. 또한 ‘민감하거나 위험한 질문’에 답변하려는 LLM의 의지에 변화가 있었다. GPT-4는 응답률이 21.0%에서 5.0%로 급격히 낮아졌고, GPT-3.5는 2.0%에서 5.0%로 소폭 증가했다. 복잡한 추론 과제에서 GPT-4는 정확한 답변을 생성하는 점이 1.2%에서 37.8%로 증가해 개선된 모습을 보였다. 그러나 GPT-3.5의 추론 완전 일치 성공률은 22.8%에서 14.0%로 감소했다. 연구원들은 또한 시간이 지남에 따라 LLM이 생성한 코드의 실행 가능성도 감소하는 것을 관찰했다. 또 미국 의사 면허 시험에서 GPT-4의 성적은 86.6%에서 82.4%로 소폭 하락한 반면, GPT-3.5는 54.7%였다. 시각적 추론 과제에서 약간의 개선이 있었지만 두 모델 모두 전반적인 정확도는 여전히 낮았다. 연구진은 짧은 시간 내에 GPT-3.5와 GPT-4의 성능과 동작에 상당한 변화가 있었다는 점을 강조했다. "AI 미세 조종시 다른 영역서 후퇴" 스탠포드대 제임스 조우(James Zou) 컴퓨터 과학 연구원은 "AI 모델을 미세 조정해 특정 방향으로 강화하면 다른 영역에서는 후퇴할 위험이 있다"며 "AI 모델을 지속적으로 개선하는 것은 매우 어렵다"고 말했다. 또한 조우 연구원은 "우리는 GPT-4와 같은 AI 모델에서 언젠가 드리프트 문제가 발생할 것으로 예상했지만, 이렇게 빨리 드리프트 문제가 발생한 것에 대해 매우 놀랐다"고 했다. 해외 매체 크립토폴리탄(Cryptopolitan)은 AI의 드리프트 문제에 대해 "이 문제는 프롬프트 엔지니어링(Prompt Engineering)이라는 급성장 중인 트렌드와 관련이 있을 수 있다"고 추측했다. '프롬프트 엔지니어링'은 사용자가 프롬프트를 만들어 AI로부터 특정 반응을 이끌어내는 개념이다. 이 매체는 "GPT-4의 수학적 능력 저하가 프롬프트 엔지니어링에 대응하기 위해 취해진 우발적 결과일 수 있다"고 지적했다. 오픈AI "개선 위해 다양한 연구 진행" 드리프트 문제에 대해 오픈AI 측은 "새로운 AI 모델을 출시할 때, 우리는 새로운 모델을 더 똑똑하게 만드는 것을 최우선 과제로 삼고 있다. 또한 우리는 새로운 AI 모델 버전이 포괄적인 작업의 개선으로 이어지고 있는지 확인하기 위해 다양한 조사와 연구를 진행하고 있다. 하지만 우리의 평가 방법은 완벽하지 않기 때문에 지속적으로 개선해 나가고 있다"고 말했다. 조우는 AI의 드리프트 문제에 대해 "중요한 것은 지능이 떨어진다고 해서 기술을 포기하는 것이 아니라 그 어느 때보다 AI를 면밀하게 모니터링하는 것"이라고 말했다. 아울러 연구팀은 챗GPT와 같은 AI 모델에 대해 수천 개의 질문을 던져 체계적인 테스트를 계속하고 있으며, 시간이 지남에 따라 성능 변화를 분석하고 있다고 덧붙였다.
-
- IT/바이오
-
인공지능(AI) 성능 급감하는 '드리프트' 현상 발생 이유는?