검색
-
-
[퓨처 Eyes(11)] 나노와이어 '두뇌' 네트워크, "즉시 학습하고 기억" 가능성 입증
- 최근 '나노와이어 두뇌' 등 물리적 신경망의 혁신적인 발전이 주목을 받고 있다. 뇌의 뉴런이 작동하는 방식에서 영감 받은 물리적 신경망은 최근 실험에서 처음으로 즉석에서 학습하고 기억하는 것이 확인되는 단계에 이르렀다. 나노와이어 두뇌는 인공 지능(AI)과 기계 학습 분야에서 사용되는 혁신적인 기술 중 하나다. 이 개념의 핵심은 미세한 나노스케일의 와이어를 사용하여 인간 두뇌의 작동 방식을 모방하는 것이다. 다시 말하면, 나노와이어 두뇌 또는 나노와이어를 사용하는 인공 신경망은 뇌의 구조와 기능을 모방하기 위해 나노스케일의 전도성 와이어를 사용하는 첨단 기술이다. 이 기술은 신경과학과 나노기술의 교차점에 있으며, 인공 지능과 머신 러닝 분야에서 혁신적인 발전을 가져올 가능성이 크다. 과학전문 매체 사이키(phys.org)에 따르면 호주 시드니 대학교와 미국 로스앤젤레스 캘리포니아 대학교의 과학자들이 주도한 최근 연구에서 나노와이어 네트워크(신경망)가 뇌의 뉴런처럼 작동하여 '즉석에서 학습하고 기억'하는 능력을 보여주었다. 나노와이어 신경망이란? 나노와이어 네트워크는 직경이 불과 10억 분의 1미터인 미세한 와이어들로 구성되어 있다. 이 와이어들은 어린이 게임 '나무 블록 빼기 놀이'(Pick Up Sticks, 쌓아 올려져 있는 나무 조각들의 밑창 빼기)와 유사한 패턴으로 배열되어 있으며, 인간 뇌의 신경망을 모방한다. 이는 복잡한 실제 학습과 기억 작업을 수행할 수 있는 저에너지 기계 지능 개발의 가능성을 열어주고 있다. 논문 제1저자인 루오민 주(Ruomin Zhu) 시드니대학교 나노연구소 및 물리학과 박사과정 연구원은 "나노와이어 네트워크를 사용해 뇌에서 영감을 받은 학습·기억 기능을 동적 스트리밍 데이터 처리에 활용할 수 있다"고 설명했다. 기억과 학습 작업은 나노와이어가 교차하는 접점에서 발생하는 전자 저항의 변화를 이용한 간단한 알고리즘을 통해 이루어진다. 이 기능은 '저항성 메모리 스위칭'으로 알려져 있으며, 전기적 입력이 전도성 변화와 맞닥뜨릴 때 발생한다. 이는 인간 뇌의 시냅스에서 일어나는 현상과 유사하다. 이 연구는 인공 지능과 기계 학습 분야에서 새로운 장을 열고 있으며, 향후 더욱 효율적이고 지능적인 기계 시스템의 개발로 이어질 것으로 기대된다. 이 연구 결과는 '네이처 커뮤니케이션즈'에 지난 11월 1일 게재됐다. 이 연구에서 과학자들은 이미지에 해당하는 전기 펄스 시퀀스를 인식하고 기억하는 방법으로 나노와이어 네트워크를 활용했다. 이는 인간 뇌의 정보 처리 방식에서 영감을 얻은 것으로, 뇌과학과 인공 지능의 접목을 시도한 중요한 연구 사례로 평가된다. 전화번호 기억과 비슷 연구 책임자인 즈덴카 쿤치치 교수는 이 기억 과제가 전화번호를 기억하는 것과 비슷하다고 설명했다. 그는 이 네트워크가 MNIST 데이터베이스의 필기 숫자 이미지, 즉 머신 러닝에서 사용되는 7만개의 작은 회색조 이미지 컬렉션을 활용하여 벤치마크 이미지 인식 작업을 수행했다고 말했다. 쿤치치 교수는 "과거 연구에서 나노와이어 네트워크가 간단한 작업을 기억하는 능력을 증명했다. 이번 연구는 온라인으로 접근 가능한 동적 데이터를 활용하여 작업을 수행함으로써 이러한 연구 결과를 확장했다"고 덧붙였다. 그는 "지속적으로 변경되는 대량의 데이터를 처리할 때 온라인 학습 기능을 달성하는 것은 어려운 과제다. 표준 방식은 데이터를 먼저 메모리에 저장한 후 이를 활용해 머신 러닝 모델을 훈련하는 것이지만, 이 방법은 광범위한 적용에는 너무 많은 에너지를 소모한다"고 설명했다. 이어 "우리의 새로운 접근 방식을 통해 나노와이어 신경망은 데이터 샘플마다 즉시 학습하고 기억함으로써 온라인으로 데이터를 추출할 수 있으며, 이는 메모리와 에너지 사용을 크게 줄여준다"고 말했다. 루오민 주 연구원은 온라인 정보 처리의 추가적인 장점을 언급했다. 그는 "예를 들어, 센서에서 데이터가 지속적으로 스트리밍되는 상황에서는, 인공 신경망을 활용한 머신 러닝이 실시간으로 적응할 수 있어야 한다. 하지만 현재 기술은 이에 최적화되어 있지 않다"고 부연했다. 이 연구에서 나노와이어 신경망은 테스트 이미지를 93.4%의 정확도로 식별하며 벤치마크 머신 러닝 성능을 입증했다. 연구에 포함된 기억 과제는 최대 8자리 숫자 시퀀스를 재생하는 것이었다. 두 과제 모두에서, 데이터를 네트워크로 스트리밍하여 온라인 학습 능력을 증명하고, 메모리가 학습을 어떻게 향상시키는지를 보여주었다. 나노와이어 두뇌 특징 나노와이어 두뇌의 특징으로는 나노스케일 구조와 전도성, 플라스틱성, 저에너지 소비 등이 있다. 먼저 나노와이어는 극도로 작은 크기(일반적으로 나노미터 단위)를 가지고 있어, 매우 높은 밀도의 신경망을 구현할 수 있다. 이는 인간 두뇌의 복잡한 신경망을 모방하는 데 유리하며, 여러 신경망의 연결을 통해 복잡한 계산을 수행할 수 있다. 전통적인 전자 기기에 비해 에너지 효율이 높아 저에너지를 사용한다. 또한 나노와이어는 전기 신호를 효율적으로 전달할 수 있어, 뇌의 신경 전달 방식을 모방하는 데 적합하다. 나노와이어 기반 신경망은 플라스틱성(학습과 기억에 필요한 구조적, 기능적 변화)을 통해 새로운 정보를 학습하고 저장할 수 있다. 나노와이어는 전기화학적 신호를 사용하여 정보를 처리하고 저장한다. 뉴런과 같이 동적으로 연결되며, 학습과 기억 과정에서 이들 연결이 강화되거나 약화된다. 나노와이어 두뇌 응용 분야 나노와이어 두뇌는 인간 두뇌와 유사한 방식으로 정보를 처리하고 학습하는 AI 시스템에 활용된다. 데이터 스트리밍과 실시간 학습 능력을 통해 기계 학습 모델을 개선하는 데 사용될 수 있다. 자율적인 의사결정과 복잡한 환경에서의 적응력을 갖춘 로봇에 적용될 수 있다. 나노와이어 기반 기술은 미래의 AI 및 컴퓨팅 분야에서 중요한 역할을 할 수 있는 잠재력을 가지고 있다. 그러나 이 기술은 아직까지 연구 개발 단계에 있으며, 상용화까지는 추가 연구와 발전이 필요하다. 이러한 나노와이어 두뇌 기술은 빠르게 진화하고 있는 분야로, 그 개발과 응용은 향후 몇 년 동안 상당한 관심을 끌 것으로 예상된다.
-
- 포커스온
-
[퓨처 Eyes(11)] 나노와이어 '두뇌' 네트워크, "즉시 학습하고 기억" 가능성 입증
-
-
국민연금, 미국 사모펀드 부동산 회사 지분 인수
- 국민연금공단(NPS)이 미국 샌프란시스코에 위치한 사모펀드 부동산 투자 회사인 스톡브리지 캐피털 그룹(Stockbridge Capital Group LLC)의 소수 지분을 인수했다. 이번 투자는 세계에서 세 번째로 큰 연금 기금인 국민연금의 해외 투자 확대 전략의 일환으로 보인다. 미국 매체 칩 인베스트먼트 오피서(Chief investment officer)는 7일(현지시간) 세계에서 세 번째로 큰 연기금인 7500억 달러(약 920조 원) 규모의 한국 국민연금공단이 미국계 사모펀드 부동산 투자 회사인 스톡브리지 캐피털 그룹의 소수 지분을 인수했으며 거래의 재무 조건은 공개되지 않았다고 보도했다. 테리 팬처 스톡브리지의 설립자이자 최고경영자(CEO)는 "NPS는 우리 회사의 지속적인 성장을 뒷받침할 이상적인 파트너입"라며 "NPS의 스톡브리지 투자는 기업 조직 개편을 완료하고 지속적인 성장을 위한 신규 자본을 제공하는 동시에 독립적인 실행을 가능하게 할 것이라고 덧붙였다. 국민연금은 블루 아울 캐피털(Blue Owl Capital Inc.)이 관리하는 별도의 계정 투자 프로그램을 통해 스톡브리지의 소수 지분을 인수하는 것으로 알려졌으며, 스톡브리지의 재무 자문은 버크셔 글로벌 어드바이저스가 맡았다. NPS와 스톡브리지는 코로나19 팬데믹 기간 중이던 2020년 12월 미국의 핵심 물류 부동산을 인수하기 위해 합작 투자를 형성한 바 있다. NPS의 부동산 투자는 2023년 2분기말 기준 49조 5000억 원(약 380억 달러)로 총 자산 가치의 5%를 차지한다. 이는 2020년 포트폴리오가 보유한 부동산 자산 31.3조원에 비해 58% 증가한 수치이다. 연기금의 부동산 포트폴리오 대부분은 해외 자산에 투자되어 있으며, 그중 미주 지역이 38.8%로 가장 큰 비중을 차지한다. 이어 유럽이 24.8%, 아시아가 20.5% 순이며 국내 부동산 투자는 13.5%에 불과하다. 스톡브리지는 또한 두 개의 사업 부문인 스톡브리지 플랫폼 비즈니스와 코어·밸류 어드바이저스의 조직을 개편한다고 발표했다. 회사 웹사이트에 따르면, 스톡브리지의 핵심 포트폴리오 구성은 역사적으로 강력한 성과를 거둔 시장에서 고품질의 안정화된 부동산을 찾는 것을 목표로 한다. 핵심 투자 전략은 수익 중심이며 낮은 변동성으로 최고의 수익을 생성하려 한다. 스톡브리지의 부가가치 포트폴리오는 총 수익의 상당 부분이 성장에서 발생하는 '비안정화' 자산에 집중하고 있으며, 이는 더 높은 변동성을 수반할 수 있다. 이 포트폴리오는 추가적인 자본 투자, 임대 활동, 자본 재구성, 리노베이션 및 재개발과 같은 적극적인 관리 전략을 통해 가치를 증진시키는 것을 목표로 하고 있다. 한편, 정부 위원회는 지난 1월 27일, 920조 원의 자산을 보유하고 있는 세계 최대 연기금 중 하나인 국민연금이 기존 예상보다 2년 빠른 2055년에 고갈될 것이라고 발표했다. 이 위원회는 5년마다 국민연금을 검토하고 예측치를 제공한다. 2018년에는 연금 고갈이 2057년에, 적자 발생은 2042년에 이를 것으로 예상했었다. 최근 발표에 따르면 적자 발생 예상 연도는 현재 2041년으로 조정됐다. 이에 따라 보건복지부는 지난 10월 27일, '제5차 국민연금 종합운영계획'을 발표했다. 이 계획에서는 보험료율 인상의 필요성을 강조하면서도, 연금의 보장성을 나타내는 주요 지표인 소득대체율에 대해서는 '조정 검토'라는 신중한 표현을 사용하여, 보장성 강화보다는 재정적 안정성에 더 큰 중점을 두었다. 그러나 이 방안은 보험료율이나 소득대체율(연금 가입기간의 평균 소득 대비 받게 될 연금액의 비율) 등 구체적인 모수(숫자) 개혁 방안이 빠진 국민연금 개혁안이라는 지적을 받고 있다.
-
- 경제
-
국민연금, 미국 사모펀드 부동산 회사 지분 인수
-
-
인공지능(AI) 성능 급감하는 '드리프트' 현상 발생 이유는?
- 마이크로소프트(MS) 창업자 빌 게이츠가 "인터넷의 발명만큼 중대한 사건"이라고 극찬한 챗GPT(Chat GPT)는 오픈AI에서 개발한 대화형 인공지능(AI) 서비스로, 대량의 데이터를 학습해 새로운 정보를 생성하고 응답하는 능력을 갖춘 시스템이다. 챗GPT는 챗(Chat)과 GPT(Generative Pre-trained Transformer)의 합성어로, 트랜스포머(Transformer) 계열의 대규모 언어 모델(GPT-3.5)을 기반으로 한다. GPT-3.5는 오픈AI에서 개발한 GPT-3의 업그레이드 버전으로, 1000억 개의 파라미터를 가지고 있다. 파라미터란 AI가 학습할 수 있는 변수의 수를 의미하는데, 이는 GPT-3의 2배에 달한다. 챗GPT는 강화학습(RLHF) 방식을 채택해 자신의 행동에 따른 보상을 통해 스스로 학습하고 발전할 수 있다. 챗GPT는 번역 및 문장 재구성, 텍스트 요약, 콘텐츠 생성, 코딩 등 다양한 영역에서 우수한 성능을 뽐내고 있다. 무엇보다 인간 고유의 영역이라 여겨져 온 창작의 영역까지 AI가 파고든 사실에 많은 사람이 놀라고 있다. 지난해 11월 선보인 챗GPT는 출시된 지 5일 만에 이용자 수 100만 명을 확보했고, 1억 명을 돌파하는 데는 두 달이면 충분했다. 현재 전 세계적으로 가장 많은 사용자를 보유하고 있는 AI 서비스로 자리매김했다. AI 지능 저하 '드리프트' 현상이란? 인공지능(AI)의 새로운 패러다임인 챗GPT와 같은 채팅AI가 의사 면허 시험을 통과하거나 복잡한 수학 문제를 놀라운 정확도로 풀 수 있다는 보고서도 나왔다. 그런데 최근 챗GPT의 성능이 급격히 저하되는 현상이 나타나 인공지능 학계를 발칵 뒤집어 놓았다. 파겐 와사니 테크롤로지스(Fagen Wasanni Technologies)와 일본 매체 기가진(gigazine)의 최근호에 따르면 올해 3월부터 6월까지 채팅 AI의 수학 능력이 급격히 떨어지는 현상이 발견됐다. 이러한 채팅 AI의 지능 저하 현상을 '드리프트(drift)'라고 한다. 외신에 따르면 미국 스탠포드 대학과 UC 버클리가 올해 3월과 6월 두 차례에 걸쳐 오픈AI의 대규모 언어모델(LLM) 'GPT-3.5'와 'GPT-4'로 구동되는 챗GPT에 '수학 문제', '코드 생성', '시각적 추론', '민감한 질문' 등 4가지 과제를 부여해 그 답변의 신속성과 정확성을 분석했다. 그 결과, '17077은 소수인가?'와 같은 단순 수학 문제에 대한 GPT-4의 응답 정확도가 2023년 3월부터 6월 사이에 97.6%에서 무려 2.4%로 급락한 것으로 나타났다. 두 대학의 연구진에 따르면, "AI의 드리프트 문제는 매우 복잡한 AI 모델의 일부를 개선하려고 할 때 모델의 다른 부분의 성능이 저하되는 문제"라고 설명했다. 연구원들은 3월과 6월 다양한 버전의 LLM을 테스트하고 위의 네 가지 과제 외에 미국 의사 면허 시험, 시각적 추론을 포함한 다양한 AI 작업에서 성능을 평가했다. 그 결과, LLM이 제공하는 답변에 상당한 변동성이 있는 것으로 나타났다. 특히 GPT-4의 수학 문제 해결 능력은 3월과 6월 사이에 정확도가 84.0%에서 51.1%로 떨어지는 등 급격히 악화됐다. 반면, GPT-3.5의 정확도는 같은 기간 동안 49.6%에서 76.2%로 향상됐다. 연구원들은 또한 특정 작업에서 지시를 따르는 GPT-4의 능력이 저하되는 것을 관찰했다. 예를 들어, '행운의' 숫자와 관련된 수학 문제에서 GPT-4의 정확도는 3월과 6월 사이에 83.6%에서 35.2%로 떨어졌고 GPT-3.5의 정확도는 30.6%에서 48.2%로 오히려 증가했다. 또한 ‘민감하거나 위험한 질문’에 답변하려는 LLM의 의지에 변화가 있었다. GPT-4는 응답률이 21.0%에서 5.0%로 급격히 낮아졌고, GPT-3.5는 2.0%에서 5.0%로 소폭 증가했다. 복잡한 추론 과제에서 GPT-4는 정확한 답변을 생성하는 점이 1.2%에서 37.8%로 증가해 개선된 모습을 보였다. 그러나 GPT-3.5의 추론 완전 일치 성공률은 22.8%에서 14.0%로 감소했다. 연구원들은 또한 시간이 지남에 따라 LLM이 생성한 코드의 실행 가능성도 감소하는 것을 관찰했다. 또 미국 의사 면허 시험에서 GPT-4의 성적은 86.6%에서 82.4%로 소폭 하락한 반면, GPT-3.5는 54.7%였다. 시각적 추론 과제에서 약간의 개선이 있었지만 두 모델 모두 전반적인 정확도는 여전히 낮았다. 연구진은 짧은 시간 내에 GPT-3.5와 GPT-4의 성능과 동작에 상당한 변화가 있었다는 점을 강조했다. "AI 미세 조종시 다른 영역서 후퇴" 스탠포드대 제임스 조우(James Zou) 컴퓨터 과학 연구원은 "AI 모델을 미세 조정해 특정 방향으로 강화하면 다른 영역에서는 후퇴할 위험이 있다"며 "AI 모델을 지속적으로 개선하는 것은 매우 어렵다"고 말했다. 또한 조우 연구원은 "우리는 GPT-4와 같은 AI 모델에서 언젠가 드리프트 문제가 발생할 것으로 예상했지만, 이렇게 빨리 드리프트 문제가 발생한 것에 대해 매우 놀랐다"고 했다. 해외 매체 크립토폴리탄(Cryptopolitan)은 AI의 드리프트 문제에 대해 "이 문제는 프롬프트 엔지니어링(Prompt Engineering)이라는 급성장 중인 트렌드와 관련이 있을 수 있다"고 추측했다. '프롬프트 엔지니어링'은 사용자가 프롬프트를 만들어 AI로부터 특정 반응을 이끌어내는 개념이다. 이 매체는 "GPT-4의 수학적 능력 저하가 프롬프트 엔지니어링에 대응하기 위해 취해진 우발적 결과일 수 있다"고 지적했다. 오픈AI "개선 위해 다양한 연구 진행" 드리프트 문제에 대해 오픈AI 측은 "새로운 AI 모델을 출시할 때, 우리는 새로운 모델을 더 똑똑하게 만드는 것을 최우선 과제로 삼고 있다. 또한 우리는 새로운 AI 모델 버전이 포괄적인 작업의 개선으로 이어지고 있는지 확인하기 위해 다양한 조사와 연구를 진행하고 있다. 하지만 우리의 평가 방법은 완벽하지 않기 때문에 지속적으로 개선해 나가고 있다"고 말했다. 조우는 AI의 드리프트 문제에 대해 "중요한 것은 지능이 떨어진다고 해서 기술을 포기하는 것이 아니라 그 어느 때보다 AI를 면밀하게 모니터링하는 것"이라고 말했다. 아울러 연구팀은 챗GPT와 같은 AI 모델에 대해 수천 개의 질문을 던져 체계적인 테스트를 계속하고 있으며, 시간이 지남에 따라 성능 변화를 분석하고 있다고 덧붙였다.
-
- IT/바이오
-
인공지능(AI) 성능 급감하는 '드리프트' 현상 발생 이유는?