검색
-
-
'AI 선구자' 짐 켈러, "오픈소스와 비용 절감의 중요성" 강조
- 반도체 설계의 전설이자 '인공지능(AI) 선구자'로 불리는 짐 켈러 텐스토렌트 최고경영자(CEO)는 7일 "인공지능(AI)의 비용을 크게 줄이고 모든 구성 요소를 오픈소스화하여 혁신을 촉진해야 한다"며 '오픈소스'의 중요성을 강조했다. 켈러 CEO는 7일 삼성전자가 주최한 '삼성 AI 포럼 2023'에서 기조연설자로 나서, '자신만의 실리콘을 소유하라(Own Your Silicon)'를 주제로 "지난 20~30년 동안 오픈소스가 소프트웨어 개발의 핵심 동력이었다"고 말했다. 그는 애플의 'A칩', AMD의 '라이젠' CPU 등의 고성능 반도체 설계를 주도한 인물로, 현재 캐나다의 AI 반도체 스타트업인 텐스토렌트를 지휘하고 있다. 텐스토렌트는 현재 10억달러(1조3000억원)의 시장 가치를 가진 것으로 평가받고 있다. 2017년 시작된 삼성 AI 포럼은 AI와 컴퓨터공학 분야의 석학과 전문가들이 최신 연구 동향을 공유하고 미래의 혁신 전략을 논의하는 기술 교류의 장이다. 7회째를 맞은 올해는 약 1천 명이 참석한 가운데 열렸다. 켈러 CEO는 이날 강연에서 차세대 반도체 설계를 통한 AI 기술의 한계를 극복하는 방안을 제시했다. 켈러 CEO는 개방형 하드웨어 설계자산인 RISC-V(리스크 파이브)를 기반으로 한 하드웨어 구조 설계의 혁신을 통해 차세대 AI의 새로운 가능성을 주목했다. RISC-V는 축소 명령어 집합 컴퓨팅(RISC)을 기반으로 하는 반도체 개발에 필요한 모든 명령어 세트를 무료로 공개하는 개방형 표준 기술이다. 이 기술은 특정 기업이 소유권을 가지지 않아, 이를 활용한 소프트웨어가 개발되면 어떤 기업이든 이를 사용하여 무료로 반도체를 설계할 수 있다. 켈러 CEO는 "오픈소스의 가장 큰 장점은 여러 사람들이 자유롭게 수정하고 변경할 수 있다는 것이며, AI가 빠르게 발전하는 주요 이유 중 하나는 하드웨어 성능 향상과 오픈소스 개발의 결합에 있다"고 말했다. 그는 "향후 몇 년 이내에 대규모 교육을 통한 명령 실행 방식에서 문제를 인식하고 간단한 규칙을 적용해 작업을 처리하는 방식으로 변화가 이루어질 것"이라고 예측하며, "기술을 개방적으로 유지하는 것이 중요하다"고 특히 강조했다. 또한, AI 분야의 세계적 석학인 요슈아 벤지오 캐나다 몬트리올대 교수는 온라인 기조 강연에서, 대규모 언어 모델(LLM, Large Language Model)을 기반으로 한 AI 기술 발전이 연구자의 의도와 일치하지 않는 결과를 방지할 수 있는 안전한 AI 기계학습 알고리즘에 대해 소개했다. LLM은 방대한 양의 텍스트 데이터로 학습해 자연어를 이해하고 생성하는 능력이 뛰어난 언어 모델이다. 삼성전자 SAIT(구 종합기술원)는 '△ LLM과 산업용 AI의 변화(LLM and Transformation of AI for Industry) △ LLM과 시뮬레이션을 위한 초거대 컴퓨팅(Large-scale Computing for LLM and Simulation)'을 주제로 AI·CE(컴퓨터 공학, Computer Engineering) 분야 세부 세션을 각각 진행했다. AI 분야에서 세계적으로 우수한 신진 연구자를 발굴하기 위한 '삼성 AI 연구자상'에서는 미국 프린스턴 대학교의 제이슨 리 교수를 비롯한 5명의 연구자가 선정됐다. 제이슨 리 교수는 딥러닝, 강화학습, 최적화 등 AI 분야 이론과 응용 연구에 집중하고 있다. 해당 분야에서 우수 논문을 다수 게재해 전 세계 AI 연구 발전에 기여한 점이 높은 평가를 받았다. 경계현 삼성전자 대표이사 사장은 온라인으로 진행된 개회사에서 "생성형 AI 기술이 인류가 직면한 다양한 문제를 해결하는 혁신적인 수단으로 부상하고 있으며, 이에 따라 기술의 안전성, 신뢰성, 지속 가능성에 대한 심도 있는 연구가 필요하다"고 언급했다. 경 사장은 또한 "삼성전자는 고대역폭 메모리 칩을 포함한 AI 컴퓨팅 시스템의 핵심 부품을 통해 AI 생태계 강화에 계속해서 중요한 역할을 할 것"이라고 말하며, "이번 포럼이 AI와 반도체 기술을 통해 인류의 더 나은 미래를 모색하는 의미 있는 자리가 되기를 바란다"고 전했다. 삼성전자는 8일 서울R&D캠퍼스에서 삼성리서치 주관으로 '삼성 AI 포럼' 두 번째 날 행사를 진행한다. 비공개 행사로 진행되는 이 자리에서는 생성형 AI 기술의 발전 방향을 논의하고 관련 기술 동향을 공유할 계획이다.
-
- IT/바이오
-
'AI 선구자' 짐 켈러, "오픈소스와 비용 절감의 중요성" 강조
-
-
엔비디아, 로봇 훈련용 AI 에이전트 '유레카' 개발
- 인공지능(AI) 칩 개발 전문기업인 엔비디아가 로봇에게 복잡한 기술을 가르칠 수 있는 새로운 AI 에이전트인 '유레카(Eureka)'를 개발했다고 발표했다. 엔비디아 공식 블로그 게시물에 따르면 AI 에이전트 유레카를 개발한 엔비디아 리서치는 로봇 손이 인간처럼 빠르게 펜을 돌리는 기술을 수행할 수 있도록 처음으로 훈련시켰다. 또한 서랍과 캐비닛을 여는 법, 공을 던지고 받는 법, 가위를 다루는 법 등을 비롯해 약 30개의 작업을 로봇에게 가르쳤다. 이 AI 에이전트는 대형 언어모델(LLM, large language models)을 사용하여 보상 알고리즘을 자동으로 생성해 로봇이 복잡한 작업을 수행하도록 훈련시킨다. 엔비디아 리서치는 전 세계적으로 수백 명의 과학자와 엔지니어로 구성되어 있으며, AI, 컴퓨터 그래픽, 컴퓨터 비전, 자율주행차, 로봇공학 등의 주제에 초점을 맞춘 다양한 팀이 있다. 이번 연구는 논문과 프로젝트의 AI 알고리즘을 포함하고 있으며, 개발자는 엔비디아의 '아이작 짐(Isaac Gym)'을 사용하여 실험할 수 있다. 아이작 짐은 강화 학습 연구를 위한 물리 시뮬레이션 레퍼런스 애플리케이션으로, 오픈USD(OpenUSD) 프레임워크 기반의 3D 도구와 애플리케이션을 만드는 개발 플랫폼인 엔비디아 옴니버스를 기반으로 구축됐다. 유레카 자체는 GPT-4 대규모 언어 모델로 구동된다. 엔비디아의 AI 머신러닝 수석 디렉터 겸 유레카 논문의 저자인 아니마 아난드쿠르마(Anima Anandkumar)는 "강화 학습은 지난 10년 동안 인상적인 성과를 거뒀지만 시행착오를 거쳐야 하는 보상 설계와 같은 여전히 어려운 과제가 많다"며 "유레카는 어려운 과제를 해결하기 위해 생성과 강화 학습 방법을 통합하는 새로운 알고리즘을 개발하기 위한 첫 걸음"이라고 말했다. 유레카, 로봇 훈련시키는 AI 이 논문에 따르면 로봇의 시행착오 학습을 가능하게 하는 유레카 생성 보상 프로그램은 80% 이상의 작업에서 사람이 작성한 전문 보상 프로그램보다 성능이 뛰어나다. 이로 인해 로봇의 평균 성능이 50% 이상 향상된다. 이 AI 에이전트는 GPT-4 LLM과 생성형 AI를 활용, 강화 학습을 위해 로봇에 보상을 제공하는 소프트웨어 코드를 작성한다. 작업별 프롬프트나 사전 정의된 보상 템플릿이 필요하지 않으며, 사람의 피드백을 쉽게 통합하여 개발자의 비전에 더 정확하게 부합하는 결과를 위해 보상을 수정할 수 있다. 유레카는 아이작 짐의 GPU 가속 시뮬레이션을 사용해 보다 효율적인 훈련을 위해 대량의 보상 후보 품질을 빠르게 평가할 수 있다. 그런 다음 유레카는 훈련 결과에서 주요 통계의 요약을 구성하고 LLM에 보상 함수 생성을 개선하도록 지시한다. 이런 식으로 AI는 스스로 개선된다. 네 발 달린 로봇, 이족 보행, 손재주가 좋은 로봇 손, 협동 로봇 팔 등 다양한 종류의 로봇이 여러 가지 작업을 수행하도록 가르친다. 로봇 적용 범위 확장 기대 이 연구 논문은 로봇 손이 복잡한 조작 기술의 다양한 범위를 보여주는 오픈 소스 민첩성 벤치마크를 기반으로 한 20가지 유레카 훈련 작업의 심층적인 평가를 제공한다. 이처럼 유레카는 로봇 학습에 획기적인 발전을 가져올 것으로 기대된다. 로봇이 스스로 학습할 수 있게 되면 개발자가 로봇에게 특정 작업을 수행하는 방법을 알려주기 위해 많은 시간을 할애할 필요가 없어진다. 또한 유레카는 다양한 종류의 로봇을 훈련함으로써 로봇의 적용 범위를 확장할 수 있다. 엔비디아의 선임 연구 과학자 린지 '짐' 판(Linxi 'Jim' Fan)은 "유레카는 대규모 언어 모델과 엔비디아 GPU 가속 시뮬레이션 기술의 독특한 조합"이라고 말했다. 그는 "우리는 유레카가 손재주 있는 로봇 제어를 가능하게 하고 아티스트를 위해 사실적인 애니메이션을 제작할 수 있는 새로운 방법을 제공할 것이라고 본다"고 덧붙였다. 유레카는 로봇 기술의 미래에 대한 가능성을 제시하는 획기적인 연구이다. 유레카의 발전이 가속화되면 로봇이 우리 생활에서 더 널리 사용될 것으로 기대된다.
-
- 산업
-
엔비디아, 로봇 훈련용 AI 에이전트 '유레카' 개발
-
-
오픈AI의 GPT-4 경쟁자 구글 '제미니', 올해 말 공개 예정
- 기술 대기업 구글에서 오픈AI의 생성형 인공지능(AI) 챗GPT의 대항마인 '제미니(Gemini)'를 출시한다. 현재 생성형 AI 시장의 예상 가치는 2032년까지 1조 3000억 달러에 달할 것으로 전망된다. 지난해 11월 첫선을 보인 오픈AI의 챗GPT는 이미 월간 활성 사용자 수가 1억 명을 돌파하며 그 성장세를 이어가고 있다. 이러한 상황에서 구글이 자체 개발한 대화형 AI 챗봇 '바드(Bard)'와 새로운 언어 모델(PaLM 2 LLM)을 선보이며 시장에서의 존재감을 확대하고 있다. 4일(현지시간) 기술 전문매체 더 테크아웃룩에 따르면 구글이 올해 말 오픈AI의 챗GPT의 GPT-4와 직접적으로 경쟁할 수 있는 '제미니'를 공개할 예정이라는 소식이 전해졌다. GPT-4는 오픈AI에서 개발한 자연어 처리(NLP) 모델로, GPT(Generative Pre-trained Transformer) 시리즈의 네 번째 버전으로 5000억 개의 파라미터를 가지고 있는 것으로 알려졌다. 이전 버전인 언어 기반 인공지능 모델 GPT-3는 약 1750억 개의 파라미터를 가지고 있다. 제미니는 구글이 보유한 TPUv5 칩, 총 1만6384개의 칩을 활용해 훈련되었으며, 훈련 데이터는 압도적인 65조 개의 토큰으로 이뤄져 있다. 또한 유튜브 콘텐츠와 알파고의 훈련 기법 역시 활용되었다. 시장 전문가들은 구글 제미니가 GPT-4를 능가할 세 가지 주요 이유를 지적한다. 첫째, 텍스트와 이미지 생성 능력, 둘째, 구글 서비스에서 확보한 독점적 학습 데이터, 그리고 셋째, 세르게이 브린(구글 공동 창업자)과 폴 바햄(딥마인드 수석 AI 과학자 겸 머신러닝 전문가) 등 AI 분야의 석학들이 구글의 딥마인드와 브레인 팀의 협력으로 더 많은 것을 기대할 수 있다는 점이다. 아직 결과는 미지수지만, 구글의 '제미니'가 얼마나 GPT-4에 버금가는 성능을 보여줄 것인지에 대한 관심이 높아지고 있다.
-
- IT/바이오
-
오픈AI의 GPT-4 경쟁자 구글 '제미니', 올해 말 공개 예정
-
-
네이버, 생성형 AI '하이퍼클로바X' 공개…11월 검색엔진에 통합
- 한국판 생성형 인공지능(AI)이 드디어 베일을 벗었다. 한국 대표 인터넷 대기업 네이버가 최근 생성형 AI '하이퍼클로바 X(HyperCLOVA X)'를 공개하며 세계 AI 경쟁 무대에 데뷔했다. 네이버의 대규모 언어모델(Large Language Model, LLM)은 챗GPT와 유사한 인공지능 챗봇인 '클로바 X'와 마이크로소프트 빙(Bing)에 해당하는 생성형 AI 기반 검색 엔진인 '큐(Cue)'등의 서비스를 제공한다. 세계는 현재 생성형 AI 분야에서의 경쟁이 가열되고 있다. 네이버의 생성형 AI 출시는 다른 글로벌 기업들의 AI 강화 움직임에 발맞춰 이루어진 것이다. 오픈AI는 마이크로소프트의 지원을 받으며 이 경쟁을 선도하고 있다. 구글은 '바드'라는 AI 챗봇을 출시하고 미국 인공지능 스타트업 '앤트로픽'(Anthropic)에 투자하는 한편, 중국의 바이두는 '어니봇'을 선보였다. 메타와 아마존 같은 기업들 또한 자신들만의 AI 챗봇을 곧 선보일 계획이다. 미국이 생성형 AI 분야를 선도하는 가운데, 네이버의 한국판 생성형 AI 출시는 국내외에서 높은 관심을 받고 있다. 해외 IT 전문 매체 테크크런치 보도에 따르면, 네이버 클라우드에서 출시한 '하이퍼클로바 X'는 지난 8월 24일부터 한국어와 영어로 베타 서비스를 시작했다. 그리고 '큐'는 9월의 베타 테스트를 마치고 11월에는 네이버의 기존 검색 엔진과 통합될 계획이다. 네이버 측은 "하이퍼클로바 X는 크리에이터와 기업 고객 모두가 사용 가능하다"라며, 이는 2021년에 출시된 한국어 LLM 하이퍼클로바의 업그레이드 버전이라고 설명했다. 또한, 하이퍼클로바는 2400억 개 이상의 파라미터를 가지고 있음을 공개했지만, 하이퍼클로바 X에 얼마나 많은 파라미터가 학습되었는지는 구체적으로 공개하지 않았다. 네이버 최수연 대표는 주주에게 보낸 서한에서 "회사는 AI 전문가 500명을 보유하고 있으며, 1000억 개 이상의 파라미터로 구성된 대규모 언어 모델을 독자적으로 개발한 전 세계 5개 기업 중 하나"라고 밝혔다. 네이버 클라우드의 기술 및 하이퍼스케일 AI 책임자인 성낙호 총괄은 "네이버 클라우드는 텍스트부터 이미지, 동영상, 오디오에 이르기까지 다양한 데이터를 분석하고 생성하는 다중 모드 언어 모델의 개발을 진행 중"이라고 밝혔다. 즉, 클로바 X는 텍스트, 이미지, 음성 등의 다양한 데이터 형태를 통합해 학습함으로써 기존 언어 모델보다 더 깊은 정보 인식과 풍부한 정보 제공이 가능하다. 네이버는 한국, 일본, 동남아시아뿐만 아니라 중동, 스페인, 멕시코와 같은 비영어권 국가와 정치적으로 민감한 지역에서도 맞춤형 AI 애플리케이션을 제공하려고 한다. 이를 통해 경쟁사들이 아직 진출하지 않은 지역에 주목하고 있다는 점을 강조했다. 네이버의 최수연 대표는 컨퍼런스에서 11월에 60만 대의 서버로 구축된 'GAK 세종'이라는 두 번째 데이터 센터를 한국에서 오픈할 예정이라고 밝혔다. 네이버는 지난해 12월부터 삼성과 함께 하이퍼스케일 AI를 위한 AI 칩 개발에 착수했고, 삼성 또한 곧 기업용 생성형 AI를 출시할 계획이다. 네이버는 판매자, 창작자, 광고주를 포함한 파트너들을 위한 AI 기술 도구를 선보일 예정이다. '클로바 for Writing'이라는 글쓰기 도구와 '클로바 for AD'라는 광고 상품을 통해 다양한 네이버 서비스에 생성형 AI를 신속하게 통합할 계획이다. 또한 네이버 클라우드는 AI 기반의 B2B 상품을 출시하며, '뉴로클라우드'라는 완전 관리형 하이브리드 클라우드 서비스와 '클로바 스튜디오'라는 AI 개발 도구로 고객 기업들의 자체 생성형 AI 구축을 지원할 방침이다. 전문가들은 네이버의 강점이 다양한 서비스와 파트너들이 연계되어 성장을 이끌어내며, 그 결과로 플랫폼의 발전이 이루어지는 '위닝 루프' 구조에 있다고 지적하며, "하이퍼클로바X가 이 과정을 가속화시킬 것"이라고 전망했다.
-
- IT/바이오
-
네이버, 생성형 AI '하이퍼클로바X' 공개…11월 검색엔진에 통합
-
-
구글 바드 "암호화폐 구입하기 가장 좋은 요일 알려줘"
- 알파벳의 챗봇인 구글 바드(Google Bard)에게 암호화폐 비트코인을 구매하기 가장 좋은 요일을 물어봤다. 이 챗봇은 구글의 대규모 언어 모델(LLM)인 LaMDA와 PaLM을 기반으로 하는 인공지능 검색 엔진 서비스로, 자연어로 된 질문에 대해 창의적이고 유머러스한 답변을 제공한다. 크립토포테이토라는 암호화폐 관련 매체는 최근 구글의 인공지능(AI) 챗봇 바드에게 비트코인을 구매하기 가장 좋은 요일을 질문했다. 그러자 바드는 암호화폐 가격이 가장 낮은 일요일이 비트코인을 구매하기 제일 좋은 날이라고 추천했다. 구글 바드 "비트코인, 일요일에 사라" 바드는 "시장 데이터에 따르면 암호화폐를 구매하기 가장 좋은 요일은 일요일이고, 두 번째로 좋은 날은 토요일이다. 금요일이 암호화폐를 구매하기에 가장 비싼 날"이라고 답했다. 또한 바드는 비트코인을 판매하기 좋은 날은 화요일과 수요일이라고 추천했다. 크립토포테이토는 바드의 답변을 야후 파이낸스의 데이터와 비교해보니 꽤 정확하다는 것을 확인했다. 야후 파이낸스의 데이터에 따르면, 지난 1년 동안 비트코인의 일중 최고가가 가장 낮았던 날은 일요일이었다. 반면에 일중 최고가가 가장 높았던 날은 수요일로 나타났다. 비트코인 뿐만 아니라 알트코인(대체코인, 비트코인 이외의 암호화폐를 말함)인 이더리움이나 리플 등의 요일별 가격도 비슷했다. 야후 "일요일 비트코인, 평균 보다 낮아" 야후 파이낸스에 따르면 비트코인 가격은 지난 1년 동안 토요일부터 월요일까지 3일간 평균적으로 낮게 거래됐다. 과거 일일 가격 데이터를 분석한 결과, 금요일부터 월요일까지가 암호화폐를 구매하기 가장 좋은 요일로 나타났다. 구체적으로 살펴보면 2022년 8월 5일부터 2023년 8월 3일까지 비트코인의 요일별 일일 평균 최고가가 가장 낮았던 날은 일요일이었다. 이 기간 동안 비트코인의 일요일 평균 일중 최고가는 2만3595달러였고, 토요일에는 2만3480달러였다. 비트코인 평균 가격이 가장 높은 요일은 수요일로 2만3850달러였다. 바드가 일요일이 암호화폐를 구매하기 가장 좋은 날로 추천한 이유는 다음과 같다. △주말에는 일반적으로 거래량이 적어 암호화폐 가격이 낮아질 수 있다 △ 또 주말에는 뉴스가 적고 변동성도 적어 암호화폐 가격이 낮아질 가능성이 크다 △일부 투자자는 가격이 비교적 비싼 금요일에 비트코인을 팔아서 차익 실현에 나서기 때문에 토요일과 일요일에 암호화폐 가격이 하락할 수 있다. 물론 암호화폐 가격이 일요일에 항상 낮을 것이라는 보장은 없다. 가상 화폐 시장은 변동성이 크고, 1년 365일, 24시간 내내 거래되기 때문에 코인 가격은 언제든지 오르거나 내릴 수 있다. 하지만 상대적으로 저렴한 가격에 암호화폐를 구매하고 싶다면 일요일이 구매를 시작하기에 좋은 날이라고 할 수 있다. 비트코인은 지난해 ‘암호화폐 겨울’을 겪으면서 줄곧 하락세를 걷다가 올해 초부터 상승세를 이어오고 있다. 1월에 약 1만6600달러였던 비트코인 가격은 7월에는 3만달러를 넘어섰다. 특히 비트코인은 올해 1월과 3월, 6월에 급격한 상승세를 보였다. BTC, 일요일 사고 수요일 팔면 수익은? 그렇다면 투자자가 실제로 일요일에 비트코인을 사고 수요일에 팔면 얼마나 수익을 냈을까. 2022년 8월 5일부터 2023년 8월 3일까지 일요일에 비트코인을 사고 수요일에 팔았다면, 총 1만2000달러의 이익을 냈다. 크립토포테이토는 "만약 투자자가 이 패턴을 따라서 매주 일요일에 비트코인을 사고 수요일에 팔았다면, 평균적으로 1% 정도의 이익을 얻었을 것"이라고 분석했다. 하지만 암호화폐 관계자는 "시장은 언제든지 변할 수 있으므로, 이러한 추천을 맹신하지 말고 자신의 판단과 정확한 데이터 분석을 바탕으로 투자 결정을 내리는 것이 중요하다"고 조언했다. 한편, 비트코인은 특수 제작된 하드웨어(비트코인 채굴기)에서 아주 복잡한 수학 연산을 푸는 과정을 통해 채굴된다. 2009년 익명의 창시자 사토시 나카모토에 의해 세상에 첫 선을 보인 비트코인은 총 2100만개가 채굴되도록 프로그램되어 있다. 2023년 8월 18일 현재 비트코인은 이미 약 1900만개가 채굴됐다. 마지막 2100만번째 비트코인은 오는 2140년에 채굴될 것으로 예상된다. 2011년 0.30달러에 거래되기 시작한 비트코인은 2021년 11월 약 6만9000달러로 사상 최고치를 찍었다. 2023년 1월1일 약 1만6600달러에 거래됐던 비트코인은 8월 17일 기준 약 2만8400달러 수준에서 거래되고 있다.
-
- 경제
-
구글 바드 "암호화폐 구입하기 가장 좋은 요일 알려줘"
-
-
인공지능(AI) 성능 급감하는 '드리프트' 현상 발생 이유는?
- 마이크로소프트(MS) 창업자 빌 게이츠가 "인터넷의 발명만큼 중대한 사건"이라고 극찬한 챗GPT(Chat GPT)는 오픈AI에서 개발한 대화형 인공지능(AI) 서비스로, 대량의 데이터를 학습해 새로운 정보를 생성하고 응답하는 능력을 갖춘 시스템이다. 챗GPT는 챗(Chat)과 GPT(Generative Pre-trained Transformer)의 합성어로, 트랜스포머(Transformer) 계열의 대규모 언어 모델(GPT-3.5)을 기반으로 한다. GPT-3.5는 오픈AI에서 개발한 GPT-3의 업그레이드 버전으로, 1000억 개의 파라미터를 가지고 있다. 파라미터란 AI가 학습할 수 있는 변수의 수를 의미하는데, 이는 GPT-3의 2배에 달한다. 챗GPT는 강화학습(RLHF) 방식을 채택해 자신의 행동에 따른 보상을 통해 스스로 학습하고 발전할 수 있다. 챗GPT는 번역 및 문장 재구성, 텍스트 요약, 콘텐츠 생성, 코딩 등 다양한 영역에서 우수한 성능을 뽐내고 있다. 무엇보다 인간 고유의 영역이라 여겨져 온 창작의 영역까지 AI가 파고든 사실에 많은 사람이 놀라고 있다. 지난해 11월 선보인 챗GPT는 출시된 지 5일 만에 이용자 수 100만 명을 확보했고, 1억 명을 돌파하는 데는 두 달이면 충분했다. 현재 전 세계적으로 가장 많은 사용자를 보유하고 있는 AI 서비스로 자리매김했다. AI 지능 저하 '드리프트' 현상이란? 인공지능(AI)의 새로운 패러다임인 챗GPT와 같은 채팅AI가 의사 면허 시험을 통과하거나 복잡한 수학 문제를 놀라운 정확도로 풀 수 있다는 보고서도 나왔다. 그런데 최근 챗GPT의 성능이 급격히 저하되는 현상이 나타나 인공지능 학계를 발칵 뒤집어 놓았다. 파겐 와사니 테크롤로지스(Fagen Wasanni Technologies)와 일본 매체 기가진(gigazine)의 최근호에 따르면 올해 3월부터 6월까지 채팅 AI의 수학 능력이 급격히 떨어지는 현상이 발견됐다. 이러한 채팅 AI의 지능 저하 현상을 '드리프트(drift)'라고 한다. 외신에 따르면 미국 스탠포드 대학과 UC 버클리가 올해 3월과 6월 두 차례에 걸쳐 오픈AI의 대규모 언어모델(LLM) 'GPT-3.5'와 'GPT-4'로 구동되는 챗GPT에 '수학 문제', '코드 생성', '시각적 추론', '민감한 질문' 등 4가지 과제를 부여해 그 답변의 신속성과 정확성을 분석했다. 그 결과, '17077은 소수인가?'와 같은 단순 수학 문제에 대한 GPT-4의 응답 정확도가 2023년 3월부터 6월 사이에 97.6%에서 무려 2.4%로 급락한 것으로 나타났다. 두 대학의 연구진에 따르면, "AI의 드리프트 문제는 매우 복잡한 AI 모델의 일부를 개선하려고 할 때 모델의 다른 부분의 성능이 저하되는 문제"라고 설명했다. 연구원들은 3월과 6월 다양한 버전의 LLM을 테스트하고 위의 네 가지 과제 외에 미국 의사 면허 시험, 시각적 추론을 포함한 다양한 AI 작업에서 성능을 평가했다. 그 결과, LLM이 제공하는 답변에 상당한 변동성이 있는 것으로 나타났다. 특히 GPT-4의 수학 문제 해결 능력은 3월과 6월 사이에 정확도가 84.0%에서 51.1%로 떨어지는 등 급격히 악화됐다. 반면, GPT-3.5의 정확도는 같은 기간 동안 49.6%에서 76.2%로 향상됐다. 연구원들은 또한 특정 작업에서 지시를 따르는 GPT-4의 능력이 저하되는 것을 관찰했다. 예를 들어, '행운의' 숫자와 관련된 수학 문제에서 GPT-4의 정확도는 3월과 6월 사이에 83.6%에서 35.2%로 떨어졌고 GPT-3.5의 정확도는 30.6%에서 48.2%로 오히려 증가했다. 또한 ‘민감하거나 위험한 질문’에 답변하려는 LLM의 의지에 변화가 있었다. GPT-4는 응답률이 21.0%에서 5.0%로 급격히 낮아졌고, GPT-3.5는 2.0%에서 5.0%로 소폭 증가했다. 복잡한 추론 과제에서 GPT-4는 정확한 답변을 생성하는 점이 1.2%에서 37.8%로 증가해 개선된 모습을 보였다. 그러나 GPT-3.5의 추론 완전 일치 성공률은 22.8%에서 14.0%로 감소했다. 연구원들은 또한 시간이 지남에 따라 LLM이 생성한 코드의 실행 가능성도 감소하는 것을 관찰했다. 또 미국 의사 면허 시험에서 GPT-4의 성적은 86.6%에서 82.4%로 소폭 하락한 반면, GPT-3.5는 54.7%였다. 시각적 추론 과제에서 약간의 개선이 있었지만 두 모델 모두 전반적인 정확도는 여전히 낮았다. 연구진은 짧은 시간 내에 GPT-3.5와 GPT-4의 성능과 동작에 상당한 변화가 있었다는 점을 강조했다. "AI 미세 조종시 다른 영역서 후퇴" 스탠포드대 제임스 조우(James Zou) 컴퓨터 과학 연구원은 "AI 모델을 미세 조정해 특정 방향으로 강화하면 다른 영역에서는 후퇴할 위험이 있다"며 "AI 모델을 지속적으로 개선하는 것은 매우 어렵다"고 말했다. 또한 조우 연구원은 "우리는 GPT-4와 같은 AI 모델에서 언젠가 드리프트 문제가 발생할 것으로 예상했지만, 이렇게 빨리 드리프트 문제가 발생한 것에 대해 매우 놀랐다"고 했다. 해외 매체 크립토폴리탄(Cryptopolitan)은 AI의 드리프트 문제에 대해 "이 문제는 프롬프트 엔지니어링(Prompt Engineering)이라는 급성장 중인 트렌드와 관련이 있을 수 있다"고 추측했다. '프롬프트 엔지니어링'은 사용자가 프롬프트를 만들어 AI로부터 특정 반응을 이끌어내는 개념이다. 이 매체는 "GPT-4의 수학적 능력 저하가 프롬프트 엔지니어링에 대응하기 위해 취해진 우발적 결과일 수 있다"고 지적했다. 오픈AI "개선 위해 다양한 연구 진행" 드리프트 문제에 대해 오픈AI 측은 "새로운 AI 모델을 출시할 때, 우리는 새로운 모델을 더 똑똑하게 만드는 것을 최우선 과제로 삼고 있다. 또한 우리는 새로운 AI 모델 버전이 포괄적인 작업의 개선으로 이어지고 있는지 확인하기 위해 다양한 조사와 연구를 진행하고 있다. 하지만 우리의 평가 방법은 완벽하지 않기 때문에 지속적으로 개선해 나가고 있다"고 말했다. 조우는 AI의 드리프트 문제에 대해 "중요한 것은 지능이 떨어진다고 해서 기술을 포기하는 것이 아니라 그 어느 때보다 AI를 면밀하게 모니터링하는 것"이라고 말했다. 아울러 연구팀은 챗GPT와 같은 AI 모델에 대해 수천 개의 질문을 던져 체계적인 테스트를 계속하고 있으며, 시간이 지남에 따라 성능 변화를 분석하고 있다고 덧붙였다.
-
- IT/바이오
-
인공지능(AI) 성능 급감하는 '드리프트' 현상 발생 이유는?