검색
-
-
메타, 손 제스처만으로 컴퓨터 제어 AI손목밴드 공개
- 페이스북 모회사 메타플랫폼(이하 메타)이 손 제스처를 이용해 컴퓨터를 제어하는 인공지능(AI) 기술을 선보였다. 메타는 23일(현지시간) 학술지 네이처에 실린 논문을 통해 멀리 떨어진 곳에서도 손의 움직임만으로 컴퓨터를 제어할 수 있게 해주는 손목밴드를 공개했다. 이 손목밴드를 차고 손을 부드럽게 돌리면 노트북 화면에서 커서를 움직일 수 있고, 엄지와 검지를 맞대면 데스크톱 컴퓨터에서 앱이 실행된다. 연필을 쥐고 있는 것처럼 공중에 이름을 쓰면 글자가 스마트폰 화면에 나타난다. 손목밴드는 손가락을 움직일 때 근육을 통해 흐르는 전기 신호를 읽는다. 이 신호는 뇌에서 보낸 명령으로 생성되며, 사람이 실제로 움직이기 전에 이미 무엇을 하려는지 파악할 수 있다. 이 프로젝트 책임자이자 메타의 리서치 부사장인 토머스 리어든은 "실제로 움직일 필요는 없다"며 "단지 움직이려는 '의도'만 있으면 된다"고 말했다. 단순한 생각만으로는 작동하지 않지만, 움직이려는 '의도'를 가졌을 때 이를 감지할 수 있다는 것이다. 메타의 손목밴드는 신경과 근육에서 발생하는 전기적 신호를 분석하는 근전도(EMG)라는 기술을 활용해 팔 근육에서 나오는 전기 신호를 수집한다. 이 신호는 뇌나 척수에서 내려오는 명령을 받아 근육을 움직이게 하는 알파 운동 뉴런에서 생성되는데, 이 뉴런이 근섬유에 직접 연결돼 생성되는 전기 신호가 피부 바깥에서도 감지될 정도로 강하다는 점을 활용했다. 신호는 실제 손 움직임보다 훨씬 빠르게 전달돼 손목밴드와 같은 기기가 감지하면 손가락보다 훨씬 빠르게 타이핑할 수 있다. 리어든 부사장은 "손가락이 움직이기도 전에 전기 신호를 감지할 수 있다"고 말했다. 이 손목밴드는 사용자가 기기를 직접 만지지 않고도 제어할 수 있는 기술 개발의 하나로, 노트북과 스마트폰은 물론 현재 우리가 사용하는 디지털 기기를 대체할 수 있는 새롭고 간편한 인터페이스를 만드는 것을 목표로 하고 있다. 메타는 그동안 기술을 외부에 비공식적으로 시연해 왔지만, 이제는 일반에 공개할 만큼 성숙했다고 보고 연구 결과를 공유했다. 메타는 시제품을 실험한 1만 명의 데이터를 수집해 챗GPT와 같은 AI 기술인 '신경망'(neural network)을 활용해 공통된 패턴을 찾아냈다. 이에 새로운 사용자가 착용해도 바로 작동이 가능하다고 설명했다. 리어든 부사장은 메타가 "향후 수년 내에 이 기술을 제품에 통합할 계획"이라고 밝혔다. 메타는 작년 9월 이 손목밴드를 통해 사진 촬영과 동영상 녹화, 음악 재생, 시각 정보 설명 등이 가능한 스마트 안경을 제어하는 모습을 시연했다. 메타는 지난 2019년 신경망을 연구하는 'Ctrl 랩스'라는 스타트업을 인수했다. 리어든 부사장은 공동 창업자로, 이 스타트업은 메타의 '리얼리티 랩스'라는 연구 조직 산하에서 운영 중이다.
-
- IT/바이오
-
메타, 손 제스처만으로 컴퓨터 제어 AI손목밴드 공개
-
-
오픈AI, 자체 웹브라우저 출시 초읽기⋯사용자 데이터 통합 본격화
- 인공지능(AI) 선두 기업 오픈AI(OpenAI)가 자사 웹브라우저 출시를 수 주 내로 앞두고 있는 것으로 전해졌다. 로이터는 사안에 정통한 복수의 소식통을 인용해, 오픈AI가 일상과 업무 전반에 자사 서비스를 보다 깊이 통합하기 위한 전략의 일환으로 웹브라우저 개발을 거의 마무리한 상태라고 10일(현지시간) 보도했다. 해당 브라우저에는 챗GPT(ChatGPT) 기반의 대화형 인공지능(AI)이 기본 탑재되며, 이용자 요청에 따라 예약을 잡는 등 능동적 작업을 수행하는 '에이전트형 AI 기능(Agentic AI)'도 포함될 예정이다. 이러한 접근은 사용자 웹 탐색 데이터를 직접 수집해 서비스의 정밀도를 높이는 데 초점이 맞춰져 있으며, 이는 과거 구글이 크롬(Chrome)을 통해 거둔 성공 사례와 유사한 전략으로 해석된다. 정보통신전문매체 엔가젯은 오픈AI는 특히 웹 탐색 경험 자체를 대화형 인터페이스 내에서 처리하도록 설계해, 사용자가 별도 웹사이트를 방문하는 빈도를 줄일 것으로 예상된다고 이날 진단했다. 이는 구글이 검색 결과 요약에 AI를 활용하는 'AI 오버뷰'와 유사한 방식으로, 기존 웹사이트 운영자에게는 트래픽 감소 우려를 불러일으킬 수 있다. 시장 진입 시 오픈AI는 5억 명 이상의 주간 활성 사용자를 기반으로 빠른 확산이 가능할 것으로 보이나, 30억 명이 넘는 사용자를 보유한 구글 크롬과의 경쟁은 치열할 것으로 전망된다. 현재 오픈AI의 브라우저는 크롬, 마이크로소프트 엣지(Microsoft Edge), 오페라(Opera) 등이 기반으로 삼고 있는 오픈소스 플랫폼 '크로미움(Chromium)'을 기반으로 개발 중인 것으로 알려졌다. 앞서 오픈AI는 구글 크롬 개발에 참여했던 전직 구글 임원을 영입한 바 있으며, 이로 인해 자체 브라우저 개발 계획이 가시화됐다는 분석이 나온 바 있다. 한편, 퍼플렉서티(Perplexity)는 지난 9일 에이전트형 AI 기능을 탑재한 유료 웹브라우저 '코멧(Comet)'을 출시했다. 오페라도 지난 5월 완전한 에이전트형 브라우저를 공개하는 등 AI 기반 웹 탐색 시장의 경쟁은 한층 격화되고 있다. 코멧은 월 200달러 맥스(Max) 플랜 가입자를 대상으로 먼저 출시됐다. 업계 일각에서는 오픈AI가 구글이 크롬을 매각할 경우 인수 의향이 있다고 밝힌 점에도 주목하고 있다. 이는 미국 법무부가 구글의 독점적 검색시장 지위에 문제를 제기하며 크롬 매각을 요구한 데 따른 대응으로 해석된다.
-
- IT/바이오
-
오픈AI, 자체 웹브라우저 출시 초읽기⋯사용자 데이터 통합 본격화
-
-
MS, '블루 스크린' 40년 만에 폐기⋯윈도우 오류화면 '검은 화면'으로 전환
- 마이크로소프트(MS)가 윈도우 운영체제의 공포의 상징이었던 '블루 스크린 오브 데스(Blue Screen of Death, BSOD)'를 공식적으로 종료하고, 새로운 '블랙 스크린 오브 데스'로 대체한다. MS는 26일(이하 현지시간) 공식 블로그를 통해 이 같은 변경 사항을 발표하며, "예기치 못한 재시작 상황에서의 사용자 경험을 간소화하는 일환"이라고 설명했다. 26일 미 IT 전문매체 테크크런치에 따르면 새로운 검은 오류화면은 오는 여름부터 윈도우11의 차기 버전(24H2)부터 적용될 예정이다. 블루 스크린은 지난 1985년 윈도우 1.0 시절부터 시작되어, 시스템 오류 시 파란 배경에 흰색 텍스트로 오류 메시지를 표시하는 방식으로 약 40년간 이어져 왔다. 특히 2024년 7월, 보안업체 크라우드스트라이크의 소프트웨어 결함으로 전 세계 850만대 이상의 윈도우 기기가 다운됐을 때, 공항과 방송국, 정부기관의 전광판에 일제히 이 화면이 출력되며 상징성이 부각된 바 있다. 이번 변화는 단순한 색상 교체 이상의 의미를 가진다. MS는 크라우드스트라이크 사태 이후 '윈도우 복원력 이니셔티브(Windows Resiliency Initiative)'를 출범하고, 시스템 장애 시 복구 속도를 높이는 방향으로 시스템 전반을 개편 중이다. 이를 통해 예기치 않은 재시작에도 2초 이내로 복구할 수 있는 '빠른 시스템 회복(Quick Machine Recovery)' 기능이 도입되며, 사용자 인터페이스(UI)도 윈도우11의 전반적인 디자인에 맞춰 통합된다. MS는 이와 관련해 "예기치 못한 중단이 더 이상 사용자 경험을 크게 해치지 않도록, 보다 직관적이고 빠른 회복 절차를 마련하고 있다"고 밝혔다. 블루 스크린은 오랫동안 윈도우 사용자의 기억에 '재앙의 전조'로 각인돼 왔으며, 이번 변화는 기술적 개선뿐 아니라 상징적 전환의 의미도 담고 있다. '파란 화면'이 남긴 기억은 이제 흑백의 장면으로 남게 됐다.
-
- IT/바이오
-
MS, '블루 스크린' 40년 만에 폐기⋯윈도우 오류화면 '검은 화면'으로 전환
-
-
오픈AI-조니 아이브 'io', AI 상표권 침해 소송 휘말려
- 챗GPT 개발사 오픈AI와 유명 애플 디자이너 출신 기업가 조니 아이브(Jony Ive)가 설립한 스타트업 'io'가 상표권 침해 분쟁에 휘말린 가운데 차세대 인공지능(AI) 하드웨어 기기 개발에 착수한 정황이 최근 법정 문서를 통해 공개됐다. 미국 기술전문매체 테크크런치는 23일(이하 현지시간) 이번 정보는 구글의 지원을 받는 하드웨어 스타트업 '이요(iyO)'가 제기한 상표권 분쟁 소송 과정에서 드러났다고 보도했다. 이요(iyO)는 귀에 맞춤형으로 제작되는 인이어(in-ear) 기기를 개발하는 기업으로, 오픈AI와 io의 상표 사용이 혼동을 초래한다며 지난 6월 9일 소송을 제기했다. 이에 오픈AI는 법원 명령에 따라 지난 22일 자사 웹사이트와 소셜 미디어에서 io 인수를 홍보하는 자료를 철회한 상태다. 오픈AI는 iyO의 상표권 침해 주장에 대해 법적 대응에 나섰다. 앞서 지난 5월 21일 오픈AI는 아이폰을 디자인한 전설적인 디자이너 조니 아이브의 AI 기기 개발 스타트업 'io'를 인수한다고 밝혔다. 블룸버그는 오픈AI가 'io'를 전액 주식 거래로 인수하기로 했으며, 이는 65억달러(약 9조 원) 규모로 오픈ai 사상 최대 규모 인수라고 전했다. 오픈AI는 io인수를 통해 약 55명의 해드웨어 엔지니어와 소프트웨어 개발자, 생산 전문가로 된 팀을 확보하게 되며, 규제 당국의 승인이 이뤄지면 올 여름에 거래가 완료될 것으로 예상했다. iyO가 제기한 소송에 따르면, iyO의 최신 제품인 이요 원(iyO ONE)은 "특수 마이크와 골전도 소리를 사용하여 사용자의 음성만으로 오디오 기반 애플리케이션을 제어하는 귀에 착용하는 장치"다. 23일 비즈니스 인사이더는 오픈AI와 io의 파트너십은 화면이 없고 음성으로만 작동하는 AI 기기를 개발하고 있다는 소문이 있었다고 전했다. 이 매체는 "지난 22일 오픈AI 웹사이트와 소셜 미디어에서 조니 아이브가 소유한 기업 io와의 파트너십에 대해 모두 삭제했다"면서 "이는 구글의 문샷 팩토리에서 분사한 스타트업인 iyO가 지난 6월 9일 오픈AI, io, 올트먼, 아이브를 상표권 침해로 고소했기 때문"이라고 덧붙였다. 공개된 법정 자료에 따르면, 오픈AI와 io는 지난 1년간 이어피스 등 AI 기반 하드웨어 기기의 시장 조사와 기술 검토를 꾸준히 진행해 왔다. 6월 12일 제출된 문건에서 두 회사는 시중에 유통 중인 헤드폰 제품 30여 개를 구매해 성능과 설계 요소를 비교 분석했다고 밝혔다. 또 오픈AI와 io의 경영진은 최근 iyO 측과 회동해 시제품을 체험한 것으로 나타났다. 테크크런치는 그러나 현재 오픈AI와 io가 개발 중인 첫 제품은 '귀에 착용하는 이어기기'가 아닐 가능성이 크다고 전했다. io의 공동창업자이자 전 애플 임원인 탕 탄(Tang Tan)은 법원 진술서에서 "오픈AI CEO 샘 올트먼(Sam Altman)이 언급한 시제품은 인-이어 기기(in-ear device)나 웨어러블 기기가 아니며, 아직 최종 디자인도 결정되지 않았다"고 밝혔다. 이 제품은 최소 1년 후에야 시장에 공개될 예정이다. 오픈AI가 계획 중인 하드웨어의 구체적인 형태는 여전히 베일에 싸여 있다. 올트먼은 io의 출범 영상에서 "다양한 기능을 가진 AI 기기군(family)을 만들 것"이라고 설명했고, 아이브는 이 시제품이 "상상력을 완전히 사로잡았다"고 평했다. 월스트리트저널에 따르면 올트먼은 사내 미팅에서 해당 기기가 주머니에 넣거나 책상 위에 둘 수 있을 정도로 작고, 사용자의 주변 환경을 실시간으로 인지할 수 있는 '제3의 기기'가 될 것이라고 밝힌 바 있다. 오픈AI 측은 "이번 협업의 목적은 기존 제품과 인터페이스를 뛰어넘는 새로운 형태의 기술을 구현하는 데 있다"고 강조하며, 데스크톱형·모바일형·무선·유선·웨어러블·휴대용 등 다양한 하드웨어 형태를 검토하고 있다고 법원에 보고했다. 한편, iyO와의 접촉 과정에서 오픈AI와 io가 iyO의 기술을 일부 참조했을 가능성도 제기됐다. 오픈AI 제품 담당 부사장 피터 웰린더(Peter Welinder)와 탕 탄은 지난 5월 1일, iyO CEO 제이슨 루골로(Jason Rugolo)와 만나 제품 시연을 받았다. 하지만 인이어 기기가 반복적으로 작동에 실패하면서 실망감을 드러냈고, 이에 대한 후속 이메일도 소송 자료에 포함됐다. io 측은 iyO의 기술 정보 유출 가능성에 대해 신중한 태도를 유지했다. 탄은 "스티브 자데스키(전 애플 고위 임원)의 추천으로 예의를 갖춰 만남을 가졌을 뿐"이라며, 기밀 정보 접근을 피하기 위해 변호사 검토를 우선했다고 설명했다. 특히 iyO의 파트너사인 '귀 프로젝트(The Ear Project)'가 사용자 귀를 3D 스캔해 맞춤 이어피스를 제작하는 방식에 주목한 정황도 드러났다. io 소속 전 애플 엔지니어 마르완 라마(Marwan Rammah)는 해당 스캔 데이터베이스가 "인체공학적 설계의 좋은 출발점이 될 수 있다"고 평가했다. 하지만 실제 계약 체결 여부는 확인되지 않았다. 루골로는 iyO와 io, 오픈AI 간의 협업을 지속적으로 제안했으나 성사되지 않은 것으로 나타났다. iyO 제품을 AI 기기의 초기 '개발자 키트'로 활용하거나, iyO 전체 지분을 2억 달러에 매각하겠다는 제안도 있었지만, io 측은 이를 거절했다. 한편 io의 공동창업자이자 제품 책임자인 에반스 한키(Evans Hankey) 전 애플 임원은 법원 진술서에서 "io는 맞춤형 인이어 제품을 개발 중이 아니다"라고 명확히 밝혔다. 현재로서는 오픈AI와 io가 개발 중인 첫 하드웨어가 어떤 형태일지는 확정되지 않았지만, 인이어 기기가 아닐 가능성이 크며, 출시까지는 상당한 시간이 필요할 것으로 보인다.
-
- IT/바이오
-
오픈AI-조니 아이브 'io', AI 상표권 침해 소송 휘말려
-
-
체리차, 中 브랜드 최초 수출 500만대 돌파 눈앞⋯글로벌 완성차업계 긴장
- 중국 자동차 브랜드 체리차가 이달 말 수출 누적 500만대를 달성할 전망이다. 중국 브랜드 중 처음이다. 체리차는 2003년 수출을 시작한 이후 22년 만에 해당 기록을 세우게 된다. 체리차는 최근 홍콩 모터쇼에서 올해 1~5월 수출 대수가 전년 동기 대비 1.99% 증가한 44만3,940대를 기록했다고 밝혔다. 특히 체리차는 LG에너지솔루션과 최소 1조원 규모의 원통형 배터리 공급 계약을 체결하며 한국 시장에서도 주목받고 있다. 체리차는 2023년 한 해에만 260만대를 판매했고, 매출은 약 91조원에 달했다. 글로벌 완성차 업계는 중국 전기차 수출 확장세에 위기감을 드러내고 있다. [미니해설] 중국 체리차, "전동화·자율주행 무기로 완성차 업계 위협" 중국 자동차 브랜드 체리차(Chery Automobile)가 이달 말 누적 수출 500만대를 달성할 것으로 보인다. 중국 자동차 브랜드 중 처음으로 기록하는 성과다. 이는 체리차가 수출을 시작한 2003년 이후 22년 만이다. 한국의 현대차가 수출 22년 만인 1998년 500만대를 돌파했고, 기아는 30년 걸린 것과 비교하면, 후발주자인 중국 자동차 브랜드의 가파른 성장세를 상징하는 수치다. 18일 중국 전기차 전문 매체 차이나EV포스트 등에 따르면, 체리차는 올해 1~5월 수출 대수가 44만3940대로 전년 동기 대비 1.99% 증가했다. 중국 자동차 브랜드 중 가장 많은 수출량이다. 이러한 추세라면 이달 말에는 누적 500만대 수출을 넘길 것으로 보인다. 체리차는 1997년 설립된 국영 기업으로, 내연기관·하이브리드·순수 전기차 등 다양한 파워트레인을 갖춘 포트폴리오를 보유하고 있다. 브랜드 구성도 다양하다. 체리(Chery), 엑시드(EXEED), 오모다(OMODA), 제투어(JETOUR) 등 글로벌 진출을 겨냥한 독립 브랜드들이 각국에 수출되고 있다. 현재 체리차는 전 세계 120개국 및 지역에 진출해 있다. 특히 지난해에는 연간 판매량 260만4,000대를 기록하며 사상 최대 실적을 올렸다. 매출도 처음으로 4,800억 위안(약 91조 원)을 돌파했다. 전동화 전략을 기반으로, 중국 내수시장에 안주하지 않고 해외 시장 공략에 나선 결과다. 국내에서도 체리차는 최근 주목을 받고 있다. 지난 16일 LG에너지솔루션과 6년간 8GWh 규모의 원통형 배터리(46시리즈) 공급 계약을 체결했기 때문이다. 최소 계약금액은 1조원 이상으로 추정되며, 체리차의 전동화 전략에 LG 배터리가 투입된다는 점에서 상징성이 크다. 중국 자동차 브랜드는 그동안 '내수 중심, 품질 미달'이라는 이미지가 강했다. 그러나 전기차 시대가 본격화되면서 중국 브랜드는 자율주행, 스마트 인터페이스, 가격경쟁력을 무기로 내수와 수출 양면에서 빠르게 성장하고 있다. BYD(비야디)를 비롯해 체리차 역시 이 흐름에 올라탄 대표적인 브랜드다. 특히 체리차의 500만대 수출 돌파는 글로벌 자동차 시장이 중국발 도전에 직면해 있음을 단적으로 보여준다. 유럽연합(EU)이 작년 10월부터 중국산 전기차에 대해 최고 45.3%의 상계관세를 부과하고, 미국 역시 높은 관세장벽을 세운 것도 이런 확장을 견제하려는 조치다. 업계에서는 "중국 전기차 브랜드가 기술력까지 갖추게 되면서 단순한 가격경쟁이 아닌 첨단기술 기반의 본격적인 글로벌 경쟁 시대가 열리고 있다"고 진단한다. 기존 완성차업체들은 전동화 전환 속도, 소프트웨어 역량 강화 등에서 중국 브랜드에 뒤처지지 않기 위해 대규모 투자에 나서는 상황이다. 실제 현대차·기아는 북미를 중심으로 대규모 전기차 전용 공장 건설에 속도를 내고 있으며, LG에너지솔루션·삼성SDI 등 배터리 기업들과 협력 강화를 통해 반격을 준비 중이다. 한 자동차업계 관계자는 "중국 브랜드는 과거 '값싼 자동차'에서 '첨단기술을 갖춘 수출형 브랜드'로 완전히 탈바꿈하고 있다"며 "완성차 업계 전반의 전략 재편이 불가피할 것"이라고 말했다.
-
- 산업
-
체리차, 中 브랜드 최초 수출 500만대 돌파 눈앞⋯글로벌 완성차업계 긴장
-
-
애플, 12년 만에 운영체제 대대적 개편⋯반투명 디자인 도입
- 아이폰 등 애플 기기에 탑재되는 운영체제가 12년 만에 확 바뀌고 반투명한 디자인이 도입된다. 로이터통신 등 외신들에 따르면 애플은 9일(현지시간) 미 캘리포니아주 쿠퍼티노 본사에서 연례 세계개발자회의(WWDC)를 열고 올해 가을부터 새롭게 업데이트되는 소프트웨어를 공개했다. 애플은 '리퀴드 글래스(Liquid Glass)'라고 명명한 반투명한 시각적 표현 디자인을 아이폰과 아이패드 등 자시 기기에 적용한다고 밝혔다. '리퀴드 글래스'는 기존의 다소 경직된 운영체제에서 크게 달라진 디자인이다. 애플은 '유리'의 광학적 특성에 유동적인 감각을 결합한 형태라고 설명했다. 예를 들어 알림창의 경우 배경 화면이 가려졌던 것과 달리 반투명으로 뒷배경 화면이 그대로 살아난다. 마치 여러 개의 층(레이어)이 투명하게 겹친 형태다. 첫 화면에 일정 크기로 고정적이었던 시간의 경우 배경 화면에 따라 크기가 달라지는 등 역동적으로 움직인다. 이에 가려지는 부분이 없게 되면서 배경 화면이 더 확장되고, 이용자 경험도 연속성을 갖게 된다. 애플의 '리퀴드 글래스' 도입은 아이폰 운영체제 iOS7이 출시됐던 2013년 이후 12년 만에 가장 대대적인 소프트웨어 변화다. 애플은 iOS7 출시 때부터 현재와 같은 아이콘 형태의 운영체제를 유지해오고 있다. '리퀴드 글래스'는 iOS뿐만 아니라 아이패드, 애플워치, 애플TV, 혼합현실(MR) 헤드셋 비전 프로 등 애플 전 기기에 적용된다. 애플은 이와 함께 iOS18, 아이패드OS18, 워치OS11, 비전OS2 등 제각각이었던 운영체제를 해당 출시 연도에 맞춰 'iOS26'과 같이 통일하기로 했다. 애플은 새 회계연도를 시작하는 10월부터 새 운영체제를 출시한다. 애플 휴먼 인터페이스 디자인 부사장 앨런 다이는 "애플은 항상 기술과 상호작용을 직관적이고, 아름답고 경쾌하게 만들기 위해 하드웨어와 소프트웨어 간의 심도 있는 통합을 지향해 왔다"며 "이번 소프트웨어 디자인 업데이트가 적용되는 영역은 역사상 제일 광범위하다"고 설명했다. 시리의 업그레이드 빠져 애플은 시리의 업그레이드는 빠졌지만 이날 행사에서 새롭게 추가된 AI 기능을 대거 선보였다. 아이폰 전화는 실시간 통번역을 지원하고 스팸 전화·메시지를 감지하게 가능도 탑재됐다. 등록되지 않은 번호로 전화가 오면 자신이 누군지를 소개해 '사람'임을 밝혀야 벨이 울린다. 스팸 메시지는 알람 없이 별도 항목으로 분류하기도 한다. 지난해 출시된 이모지 생성은 챗GPT 스타일 이모지 제작이 가능해졌다. 애플뮤직은 실시간으로 가사를 번역해주거나, 발음법을 설정한 언어로 알려준다. 애플워치는 UX 예측 알고리즘을 개선했고, 운동 중 음성으로 사용자를 '응원'하거나 운동 현황을 전해준다. 맥OS 검색 기능 스팟라이트에는 자연어 검색이 추가됐다. 프로그래밍 도구에는 챗GPT도 통합했다. 아이패드는 앱을 윈도우 창처럼 띄워 멀티테스킹(다중작업)이 용이해졌다. 맥OS와 유사한 감각으로 사용할 수 있게 되는 셈이다. 아이폰·아이패드 등에 설치된 게임을 한 데 모아보는 한편 커뮤니티 지원으로 점수 등을 경쟁할 수 있는 게임센터도 생겼다. 다만 기능 개선 발표 사항은 대다수가 구글 안드로이드와 삼성전자 갤럭시 AI에 이미 도입된 것이다. 실시간 전화 통번역은 지난해 갤럭시S24부터 적용됐다. 멀티윈도우는 안드로이드가 2016년부터 지원하던 기능이다. 지난해에 이어 애플만의 자체 AI 없이 오픈AI 챗GPT와 연계성만 강조했다는 점도 실망감을 키운다. 애플 주가는 이날 시장의 기대와 달리 AI(인공지능) 기술 경쟁에서 뒤처진 모습을 보여 1.21% 하락 마감했다. 블룸버그통신은 "소프트웨어 혁신보다 디자인 요소에 중점을 뒀고 몇가지 새로운 AI 기능을 소개해 애플 팬들에게는 반가울 수 있지만 투자자들에게는 큰 인상을 주지 못한다"며 "경쟁사들에 비해 AI 기술력이 뒤떨어진 애플이 올해 WWDC에서 상황을 반전시킬 것으로 기대되지는 않는다"고 지적했다.
-
- IT/바이오
-
애플, 12년 만에 운영체제 대대적 개편⋯반투명 디자인 도입
-
-
애플, 뇌파로 아이폰 제어하는 기술 개발 박차⋯BCI 시장 본격 진출
- 애플은 '손쉬운 사용 인식의 날(Global Accessibility Awareness Day, GAAD)'을 기념해 하반기 출시될 새로운 손쉬운 사용 기능들을 13일(현지시간) 공개했다. 아울러 사람의 뇌파를 이용해 아이폰 등 자사 기기를 제어하는 기술 상용화에 본격적으로 나선다. 인공지능(AI)과 뇌-컴퓨터 인터페이스(BCI)의 결합이 가속화되는 가운데, 애플이 접근성 강화와 신시장 개척을 동시에 꾀하고 있다는 분석이 나오고 있다. 이날 씨넷은 애플이 5월 15일 세계 손쉬운 사용 인식의 날을 앞두고 텍스트 읽기부터 실시간 자막 보기, 멀미 완화까지 모든 기능을 지원하도록 설계된 다양한 제품군에 대한 접근성 업데이트를 발표했다고 전했다. 애플의 접근성 업데이트는 아이폰(iPhone), 아이패드(iPad), 맥(Mac), 애플워치(Apple Watch), 애플 비전 프로(Apple Vision Pro)에 적용되며, 해당 기능은 올해말 출시될 예정이다. '손쉬운 사용 인식의 날'은 장애인이 디지털 기술에 더 쉽게 접근할 수 있도록 인식을 높이고 개선을 촉구하기 위해 2012년에 처음 지정해, 매년 5월 셋째 주 목요일을 이날로 기념하고 있다. 애플은 우선 아이폰 등 자사 기기에서 이용할 수 있는 음성 명령과 실시간 자막인 라이브 캡션(Live Captions)에서 한국어를 지원한다고 밝혔다. 음성 명령과 실시간 자막 기능은 2019년과 2022년 각각 처음 도입됐지만, 그동안 북미 지역에서 영어만 지원됐다. 올 하반기부터 라이브 캡션(Live Captions)에서는 한국어를 포함해 영어(인도, 호주, 영국, 싱가포르), 중국어(중국 본토), 광둥어(중국 본토, 홍콩), 스페인어(라틴 아메리카, 스페인), 프랑스어(프랑스, 캐나다), 일본어, 독일어(독일) 등이 지원된다. 또한 미국 월스트리트저널(WSJ)은 13일 "애플이 뇌파로 기기를 제어할 수 있는 기술의 초기 개발 단계에 돌입했다"며 "BCI 스타트업 싱크론(Synchron)과의 협력을 통해 손을 쓰지 못하는 장애인도 기기를 사용할 수 있도록 돕는 솔루션 개발에 착수했다”고 보도했다. 애플은 싱크론이 개발한 뇌 임플란트 장치인 '스텐트로드(Stentrode)'를 자사 기기와 연동시키기 위한 전용 기술 표준을 올해 말까지 마련할 계획이다. 스텐트로드는 뇌 운동 피질 인접 정맥에 삽입되는 스텐트형 장치로, 내부에 전극이 탑재돼 뇌파를 감지하고 이를 디지털 신호로 변환한다. 사용자는 물리적인 움직임 없이도 화면의 아이콘을 선택하는 등의 간단한 조작이 가능하다. 애플이 추진하는 이 신기술은 기존 스마트폰이 터치와 제스처를 입력으로 삼는 것과 달리, 뇌파를 직접 입력 수단으로 삼는 비접촉식 인간-기계 인터페이스라는 점에서 혁신적이라는 평가를 받는다. 다만, 현재 단계에서는 마우스처럼 커서를 자유롭게 이동시키는 수준에는 미치지 못하고, 단순한 화면 탐색 및 아이콘 선택 수준에 그치는 것으로 전해졌다. WSJ는 "애플이 올해 공개할 예정인 BCI 전용 인터페이스 표준은 이러한 제약을 극복할 수 있는 기반이 될 것"이라고 전망했다. 애플은 이미 2014년에도 블루투스 기반 보청기 연결 표준을 선도적으로 개발한 바 있다. 이번 뇌파 인터페이스 개발도 접근성(Accessibility) 확대 전략의 연장선상에서 이뤄지는 행보로 풀이된다. 시장에서는 이번 애플의 BCI 기술 진입이 일론 머스크가 이끄는 뇌과학 스타트업 뉴럴링크(Neuralink)와의 본격적인 기술 경쟁을 예고하는 신호탄으로 보고 있다. 뉴럴링크는 최근 사지마비 환자에게 뇌 칩을 이식해 화면 커서를 제어하고 의사소통까지 가능하게 한 사례를 공개했다. 애플은 이번 발표와 함께 청각, 시각, 인지 등 다양한 장애인을 위한 접근성 기능도 대거 강화했다. 대표적으로 '라이브 캡션(Live Captions)' 기능이 아이폰뿐만 아니라 애플워치까지 확대 적용된다. 주변 음성을 실시간으로 텍스트로 변환해 보여주는 기능으로, 청각장애인의 커뮤니케이션을 지원한다. 또한, 시각 장애인이나 시력이 약한 사람들을 위한 '돋보기(Magnifier)' 기능이 맥(Mac)에서도 사용 가능해진다. 돋보기는 아이폰이나 아이패드에서 화면을 확대하고, 텍스트를 읽고, 주변 사물을 감지할 수 있도록 해주는 도구로 이제 맥에서도 이 기능이 적용된다. '접근성 리더(Accessibility Reader)' 기능은 난독증이나 저시력을 가진 사용자를 위해 텍스트 크기와 색상, 간격 등을 자유롭게 조절할 수 있게 개선됐다. 이 외에도 AI 기반 개인 음성 복제 기능인 '퍼스널 보이스(Personal Voice)', 점자 사용자 지원 기능 '브라유 액세스(Braille Access)', 멀미를 줄이기 위한 '차량 모션 큐(Vehicle Motion Cues)' 등 다양한 기능이 공개됐다. 퍼스널 보이스는 언어 상실 위험이 있는 사람들이 AI와 기기내 머신 러닝을 활용해 자신과 비슷한 목소리를 만들 수 있도록 지원한다. 애플 팀 쿡 CEO는 "접근성은 애플 DNA의 일부”라며 “모든 사람을 위한 기술을 만들기 위해 지속적으로 혁신을 이어갈 것"이라고 강조했다. 이번 기술은 오는 6월 9일 열리는 세계 개발자 회의(WWDC)에서 애플이 발표할 iOS 19과 ‘애플 인텔리전스(Apple Intelligence)’ 기반 AI 전략의 핵심 축으로도 소개될 전망이다. 삼성전자, 구글 등 경쟁사가 AI 기능을 강화한 스마트폰을 속속 선보이는 가운데, 애플이 BCI 기반 접근성과 AI 융합 기술로 시장의 판을 다시 짤 수 있을지 주목된다.
-
- 포커스온
-
애플, 뇌파로 아이폰 제어하는 기술 개발 박차⋯BCI 시장 본격 진출
-
-
메타, 'Meta AI' 독립 앱 출시⋯AI 생태계 주도권 경쟁 본격화
- 페이스북 모회사 메타(Meta Platforms)가 자사 인공지능(AI) 비서 '메타 AI(Meta AI)'를 위한 독립 애플리케이션을 출시하며 본격적인 AI 시장 공략에 나섰다. 이번 앱 출시는 오픈AI, 구글 등 주요 경쟁사와의 주도권 다툼이 한층 가열되고 있음을 보여주는 신호로 해석된다. 메타는 29일(현지시간) 자사 AI 비서를 기존 페이스북, 인스타그램, 왓츠앱, 메신저 등 자사 플랫폼 내에서만 제공하던 방식에서 탈피해, 별도의 앱으로 제공한다고 밝혔다. 이를 통해 사용자는 보다 개인화된 방식으로 음성 기반의 AI 대화를 주고받을 수 있으며, 사진 생성 및 편집 등 다양한 생성형 AI 기능도 통합적으로 활용할 수 있게 됐다. 이번 앱은 메타의 최신 대형 언어모델(LLM)인 '라마4(LLaMA 4)'를 기반으로 작동한다. 라마4는 추론 능력, 다국어 지원, 연산 효율성 등을 대폭 개선한 모델로, 오픈AI의 GPT-4, 구글의 제미나이, 앤스로픽의 클로드 등과 경쟁하기 위해 개발됐다. 메타는 이 앱을 통해 사용자가 AI와 음성으로 자유롭게 대화하고, 친구나 가족과의 소셜 경험과 연계된 정보를 더 정밀하게 제공받을 수 있도록 설계했다고 설명했다. 특히 사용자의 페이스북·인스타그램 계정 활동을 기반으로 문맥에 맞는 응답을 생성함으로써 '더 개인적인 AI'를 구현하겠다는 전략이다. 또한 메타는 '메타 AI 앱'을 자사 스마트 안경인 레이밴 메타(Ray-Ban Meta)와도 연동한다. 음성 대화를 안경에서 시작한 뒤 스마트폰 앱이나 웹 인터스페이스에서 이어갈 수 있는 연속적 사용 환경을 구축했다. 기존 '메타 뷰(Meta View)’ 앱도 통합돼 하나의 플랫폼으로 관리가 가능하다. 이번 앱 출시는 메타가 주최하는 첫 AI 개발자 콘퍼런스 '라마콘(LlamaCon)'과 동시에 이뤄졌다. 메타는 이날 진행된 행사에서 다양한 AI 기술을 시연하고, 향후 유료 구독 모델 도입 계획도 밝혔다. 다만 고급형 메타 AI 기능에 대한 유료화는 이르면 내년부터 본격적인 수익 창출이 가능할 것으로 전망된다. 한편, 메타 AI는 현재 미국, 캐나다, 호주, 뉴질랜드 등 일부 국가에서 우선 제공되고 있으며, 앱 내 '디스커버 피드(Discover Feed)'를 통해 사용자 간 프롬프트 공유 및 활용 사례 탐색 기능도 지원된다. 메타는 "AI는 사람과 기술, 경험을 연결하는 도구이며, 이번 앱 출시는 개인화된 AI의 실현을 위한 첫걸음"이라고 밝혔다. 메타AI vs 오픈AI·구글·앤스로픽…기술 경쟁 구도는 메타의 '메타 AI(Meta AI)'가 독립 애플리케이션으로 출범하면서, 생성형 인공지능 시장의 경쟁 구도가 보다 뚜렷해지고 있다. 핵심은 각 기업이 보유한 대형 언어모델(LLM)의 성능, 활용 범위, 사용자 인터페이스 설계에 있다. ◇ LLM 경쟁: LLaMA 4 vs GPT-4 vs 제미나이 1.5 vs 클로드 3 메타의 LLaMA 4는 이번에 새롭게 선보인 메타 AI의 핵심 엔진으로, 고도화된 추론 능력과 멀티모달 처리 기능, 효율적인 연산 구조를 특징으로 한다. 메타는 이를 통해 오픈AI, 구글, 앤스로픽과 같은 주요 경쟁사와의 기술 격차를 좁히겠다는 전략이다. 메타는 페이스북·인스타그램·왓츠앱 등 플랫폼 사용자 데이터와 연동한 '초개인화 응답'을 전면에 내세운다. LLaMA 4는 사용자의 성향, 관심사, 과거 상호작용 기록을 토대로 보다 정밀한 응답을 제공하며, 이를 통해 "당신을 아는 AI"를 구현하려는 방향성을 드러낸다. ◇ 음성 인터페이스와 기기 연동 Meta AI는 레이밴 메타(Ray-Ban Meta) 스마트 글라스와의 연동을 통해 '웨어러블 AI 경험'을 강조한다. 사용자는 음성으로 질문을 시작해, 이어폰이나 앱, 웹에서도 연속적으로 상호작용할 수 있다. 듀플렉스 음성 기술을 적용해 자연스러운 실시간 음성 대화도 구현 중이다. 이에 비해 OpenAI는 마이크로소프트와 협업해 Bing Chat 및 Copilot 제품군에 음성 입력을 접목하고 있으나, 메타처럼 하드웨어 연동을 전면에 내세운 전략은 아직 없다. 구글의 경우 Pixel 시리즈를 중심으로 AI 기능을 확대 중이며, Gemini를 스마트폰 OS에 깊숙이 통합하고 있다. ◇ 유료화 전략 및 수익화 계획 메타는 고급형 메타 AI 기능에 대해 2025년 2분기부터 유료 구독 모델 도입을 시사했다. 반면 오픈AI는 이미 챗GPT 플러스를 통해 수익화에 성공했으며, API 기반 매출도 꾸준히 확대 중이다. 구글은 클라우드 기반 AI API 및 기업용 '제미나이(Gemini)'로 수익을 추구하고, 앤스로픽은 아마존 및 구글 투자 기반으로 B2B 모델을 강화하고 있다. 메타는 소셜미디어 강점을 AI와 접목시켜 사용자 중심의 '초개인화 AI' 경험을 제시하고 있으며, 하드웨어 연동과 일상 밀착형 음성 인터페이스에서 강점을 보이고 있다. 반면 오픈AI와 구글은 보다 폭넓은 API 지원, 풍부한 생태계, 멀티모달 응용에서 우위를 유지하고 있다. 향후 경쟁은 플랫폼 내 정착률, 지속적 모델 개선, 개인정보 보호 설계 등이 핵심 변수가 될 것으로 전망된다.
-
- IT/바이오
-
메타, 'Meta AI' 독립 앱 출시⋯AI 생태계 주도권 경쟁 본격화
-
-
[글로벌 핫이슈] 애플, 시리 AI 혁신 '삐걱'…수년간의 기능 장애와 리더십 부재가 발목
- 지난달, 애플이 음성 비서 시리의 핵심 임원진을 교체하고 차세대 인공지능(AI) 기반 기능 출시를 연기하면서 그 배경에 관심이 쏠리고 있다. 최근 더인포메이션의 심층 보도에 따르면, 이번 결정은 수년간 지속된 기능적 문제와 AI/ML(인공지능/머신러닝) 그룹과 소프트웨어 엔지니어링 그룹 간의 심각한 갈등이 주요 원인으로 지목된다. 다수의 내부 관계자들은 시리의 더딘 발전의 근본적인 원인으로 '형편없는 리더십'을 지적했다. 특히, 더인포메이션은 "애플이 어떻게 '시리의 AI 혁신에 실패했는지'" 상세하게 분석하며, 지난 몇 년간의 AI 및 시리 개발 과정에서 드러난 애플 내부의 복잡한 역학 관계를 심층적으로 파헤쳤다. 매체는 애플의 AI 분야 난항이 "사용자 개인 정보 보호에 대한 강경한 입장"과 연관이 있지만, 그보다 더 심각한 문제는 "형편없는 리더십"이라고 강조했다. 더인포메이션은 "지안안드레아가 이끄는 AI 및 머신러닝 그룹(약칭 AI/ML)에서 일했던 6명 이상의 전직 애플 직원들은 형편없는 리더십이 실행 문제의 원인이라고 말했다"고 전했다. 이들은 미래 버전의 음성 비서 설계에 있어 "야망과 위험 감수 의지가 부족"했던 로비 워커를 주요 책임자로 지목했다. 내부 고발자들이 지적한 리더십 문제 애플 내부 엔지니어들 사이에서는 AI 그룹의 소극적인 문화와 실행력 부족으로 인해 그들의 이니셜을 딴 'AIMLess(목표 없는)'라는 냉소적인 별명까지 붙었다는 사실도 드러났다. 보도는 구체적인 사례를 통해 워커의 리더십 문제를 지적했다. 워커는 시리의 전반적인 성능 향상보다는 "사용자가 시리에게 질문했을 때와 답변을 받을 때까지의 지연 시간을 아주 작은 비율로 줄이는 것과 같은 '작은 승리'를 자주 축하했다"고 전직 엔지니어들은 증언했다. 또한, '헤이 시리(Hey Siri)' 음성 호출 명령어에서 '헤이'를 제거하는 데 '2년 이상'이 소요된 점도 그의 비효율적인 업무 방식을 보여주는 사례로 제시됐다. 더인포메이션은 워커의 문제점을 "숲 전체가 엉망이고 제대로 작동하지 않는다는 사실을 놓친 채, 한두 그루의 멋진 나무에만 집중하는 시나리오"라고 비유하며, "빠르고 잘못되거나 쓸모없는 (혹은 그저 평범한) 답변은 느리고 잘못되거나 쓸모없는 답변보다는 나을 수 있지만, 전반적인 결과는 손실"이라고 꼬집었다. 엇갈리는 목표와 불협화음 내부에서는 AI 그룹과 소프트웨어 엔지니어링 그룹 간의 불만도 고조되었던 것으로 보인다. 소프트웨어 엔지니어링 그룹의 일부는 AI 그룹 동료들의 '더 높은 급여와 더 빠른 승진'에 불만을 느꼈으며, 일부 AI 그룹 엔지니어들이 '더 긴 휴가를 가거나 금요일에 일찍 퇴근'하는 것에 대해 반감을 가졌다고 한다. 그룹 간의 불신은 극에 달해 올해 초에는 지안안드레아의 부하 직원이 공동 프로젝트 실패 시 AI 팀이 희생양이 되는 것을 막기 위해 엔지니어들에게 개발 과정을 상세히 문서화하도록 지시하는 상황까지 벌어졌다. 설상가상으로 페데리기가 '수백 명의 머신러닝 엔지니어'로 구성된 'Intelligent Systems'라는 자체 팀을 만들어 운영하면서 두 그룹 간의 관계는 더욱 악화되었다. 한편, 워커는 시리 응답 시간 단축과 같은 소소한 개선에 집중하는 모습을 보였다. 그는 또한 엔지니어 팀이 LLM(대규모 언어 모델)을 활용하여 시리에게 감정적인 공감 능력을 부여하려는 시도를 무산시키기도 했다. 더욱 충격적인 사실은 2024년 WWDC에서 공개된 애플 인텔리전스의 핵심 기능 시연이 '사실상 허구'였다는 주장이다. 시리가 사용자의 이메일을 확인하여 항공편 정보를 찾고, 메시지를 통해 점심 약속을 알려주며, 지도 앱에 경로를 표시하는 등의 시연은 '시리 팀 구성원들에게도 놀라움'이었으며, 그들은 '해당 기능의 작동 버전을 본 적이 없었다"고 한다. 이러한 상황 속에서 페데리기는 시리 엔지니어들에게 "최고의 AI 기능을 구축하기 위해 무엇이든 하라"고 지시했으며, 이는 애플 자체 모델뿐만 아니라 '다른 회사의 오픈 소스 모델'을 사용하는 것도 허용한다는 의미로 해석된다. 지안안드레아는 챗봇과 같은 대화형 AI 인터페이스에 대해 회의적인 입장을 취하며, 시리와의 빠른 대화나 상황에 맞는 제안 등 다른 방식을 선호했던 것으로 알려졌다.
-
- IT/바이오
-
[글로벌 핫이슈] 애플, 시리 AI 혁신 '삐걱'…수년간의 기능 장애와 리더십 부재가 발목
-
-
[단독] 삼성, 이스라엘 스타트업에 특허 침해 소송 당해
- 이스라엘 스타트업 솔트 시큐리티가 삼성전자를 상대로 텍사스 연방 법원에 특허 침해 소송을 제기한 것으로 확인됐다. 솔트 시큐리티는 소장에서 삼성전자가 10년 가까이 전 자사의 기술 사용을 논의했음에도 불구하고, 자사의 API(애플리케이션 프로그래밍 인터페이스) 보안 관련 특허를 무단으로 사용했다고 주장했다. 12일(현지시간) 법률 전문 매체 로360(Law360)에 따르면, 솔트 시큐리티는 텍사스 동부 지방 법원에 제출한 소장에서 삼성전자와 삼성리서치아메리카가 자사의 특허 2건(미국 특허 번호 11,206,418호 및 11,824,078호)을 침해했다고 밝혔다. 이들 특허는 모두 "API 공격 탐지 및 방지 시스템 및 방법"이라는 명칭을 가진다. 솔트 시큐리티는 솔트랩스라는 이름으로 사업을 운영하며, 해당 기술이 삼성의 녹스(Knox) 보안 플랫폼에 사용되고 있다고 주장했다. ◇ 기술 협상 결렬과 소송 배경 소장에 따르면, 솔트 시큐리티는 지난 2016년 삼성 측과 잠재적인 파트너십을 논의하기 위해 만났다. 당시 논의는 삼성이 솔트 시큐리티의 API 보안 기술을 라이선스하는 것을 주요 내용으로 했다. 솔트 시큐리티는 이 과정에서 자사의 기술에 대한 기밀 정보를 삼성에 상세히 제공했다고 주장했다. ◇ 솔트 시큐리티, "삼성, 우리 기술 무단 사용" 하지만 솔트 시큐리티 측은 "솔트 시큐리티의 특허 기술에 대한 상세한 지식에도 불구하고 삼성은 해당 기술 사용에 대한 라이선스를 취득한 적이 없다"며 "대신 삼성은 허가나 보상 없이 솔트 시큐리티의 특허 기술을 자사 제품에 통합했다"고 강하게 비판했다. 이에 솔트 시큐리티는 법원에 삼성이 자사의 특허를 침해했다는 판결을 내려줄 것을 요청하고 있다. 더불어 삼성이 해당 기술을 계속 사용하는 것을 금지하는 가처분 명령과 함께 금전적 손해 배상까지 요구하고 있어, 이번 소송의 결과에 귀추가 주목된다. 한편, 삼성 측은 이번 소송과 관련된 로360의 논평 요청에 아직까지 별다른 입장을 밝히지 않고 있다. 이번 소송은 솔트 시큐리티가 삼성전자 외 다수를 상대로 제기한 것으로, 사건 번호는 2:25-cv-00123이며 미국 텍사스 동부 지방 법원에 계류 중이다.
-
- 산업
-
[단독] 삼성, 이스라엘 스타트업에 특허 침해 소송 당해
-
-
갤럭시 S25에 구글 AI '제미나이 라이브' 탑재⋯"카메라 비추면 AI가 실시간으로 대답"
- 삼성전자가 구글과 협력해 갤럭시 S25 시리즈에 실시간 영상 기반 인공지능(AI) 기능인 '제미나이 라이브(Gemini Live)'를 새롭게 탑재한다고 8일 밝혔다. 전날인 7일부터 제공되는 이번 소프트웨어 업데이트는 별도의 비용 없이 전 세계 갤럭시 S25 시리즈 사용자에게 순차적으로 배포될 예정이다. IT전문매체 더 버지에 따르면 ‘제미나이 라이브’는 카메라로 비추는 사물이나 장면을 AI가 실시간으로 인식하고 이에 대한 질문에 바로 답하는 기능으로, 지난 5월 구글 I/O 개발자 콘퍼런스에서 '프로젝트 아스트라(Project Astra)'의 일환으로 처음 공개된 기술이다. 사용자는 측면 버튼을 눌러 카메라 라이브 뷰를 제미나이에 보여줄 수 있으며, 이후 물체에 대한 설명을 듣거나, 비교 정보를 요청하거나, 스타일링 조언을 실시간으로 받을 수 있다. 예를 들어 수족관을 카메라로 비춘 상태에서 "이 물고기는 어떤 종인가요?"라고 질문하거나, 온라인 쇼핑몰 웹사이트를 공유하며 "이 제품과 다른 제품을 비고해줘"라고 요청하면 제미나이가 즉시 답변을 제공한다. 또 의류 세탁 방법을 모를 때 카메라로 옷을 비추고 "이 니트 어떻게 세탁하면 돼?"라고 물어보면 온수 세탁이 가능한지, 건조기에 돌여도 되는 지 등의 답변을 해준다. 화면 공유 기능을 통해 의상 조합, 정리 방법 등 생활 밀착형 조언도 가능하다. 삼성전자 모바일경험(MX)사업부 고객경험(CX) 사무소장 제이 킴(Jay Kim) 부사장은 "Google과 함께 모바일 AI의 미래를 향한 대담한 발걸음을 내딛고 있다"며, "갤럭시 S25 시리즈는 사용자가 세상과 소통하는 방식을 한 차원 끌어올릴 차세대 AI 경험의 기준이 될 것"이라고 밝혔다. 이번 기능은 갤럭시 S25 시리즈를 시작으로, 향후 픽셀9 시리즈 및 기타 안드로이드 기기에도 순차적으로 도입될 예정이다. 다만, 다른 기기에서는 "제미나이 어드밴스드(Gemini Advanced)' 유로 이용자만 사용이 가능하다. 업계는 이번 제미나이 라이브 도입이 모바일 AI 경험의 본격적인 대중화 신호탄이 될 것으로 보고 있다. 사용자의 눈 앞에 있는 현실 공간과 AI 대화를 유기적으로 연결하는 '시각적 인터페이스' 시대가 본격화되면서, 기기의 활용 방식 자체가 크게 변화할 것으로 전망된다.
-
- IT/바이오
-
갤럭시 S25에 구글 AI '제미나이 라이브' 탑재⋯"카메라 비추면 AI가 실시간으로 대답"
-
-
[퓨처 Eyes(76)] 뇌파로 움직이는 '꿈의 팔', 마비 환자에 희망 심다
- 마비 환자가 뇌파로 팔을 움직였다. 과거에는 그저 공상 과학 소설 속 이야기로 여겨졌던 일이 현실로 성큼 다가왔다. 캘리포니아대학교 샌프란시스코 캠퍼스(UC San Francisco, UCSF)의 연구진이 최근 인공지능(AI) 기반 뇌-컴퓨터 인터페이스(BCI) 기술을 통해 마비 환자가 오직 생각만으로 로봇 팔을 움직이는 데 성공했다는 획기적인 소식을 전해왔다. 이는 마비로 고통받는 환자들의 삶의 질을 근본적으로 개선할 수 있는 혁신적인 진전으로 평가된다. 이번 연구는 특히 BCI 기술의 장기적 안정성과 적응형 학습 능력을 뚜렷하게 입증했다는 점에서 전 세계의 이목을 집중시키고 있다. 기존 BCI 장치들은 기술적 한계로 인해 며칠 이상 안정적인 작동을 담보하기 어려웠으나, UCSF 연구진이 개발한 AI 강화 BCI는 무려 7개월이라는 놀라운 기간 동안 안정적으로 작동했다. 더욱 획기적인 것은 이 장치가 뇌 활동의 일일 변화에 스스로 적응하는 능력을 갖춰, 시간이 흐르더라도 초기와 같은 높은 수준의 정확도를 꾸준히 유지한다는 점이다. 연구를 총괄 지휘한 UCSF 웨일 신경과학 연구소의 신경과 교수 카루네시 강굴리(Karunesh Ganguly) 박사는 "인간의 학습 능력과 AI의 강력한 데이터 처리 능력을 융합하는 것은 뇌-컴퓨터 인터페이스 기술이 다음 단계로 나아가기 위한 필수적인 과정"이라며, "이번 연구는 BCI 기술이 궁극적으로 인간의 정교하고 자연스러운 움직임을 구현하는 수준까지 발전하는 데 중요한 발판이 될 것"이라고 강조했다. 가상 훈련 거쳐 '현실' 로봇 팔 제어 성공 강굴리는 동물의 뇌활동 패턴이 특정 움직임을 어떻게 나타내는지 연구했고, 동물이 학습함에 따라 이러한 패턴이 매일 변하는 것을 확인했다. 그는 인간에게도 같은 일이 일어나고 있다고 추정했다. 연구진은 뇌졸중 발병 후 수년 동안 마비 상태로 지내온 남성 환자를 대상으로 이번 실험을 진행했다. 환자의 뇌 표면에 아주 작은 센서들을 심어, 그가 움직임을 상상할 때 발생하는 미세한 뇌 활동 신호를 감지하도록 설계했다. 연구진은 참가자에게 2주 동안 손가락, 손 또는 엄지손가락으로 간단한 동작을 하는 자신의 모습을 상상해 보라고 요청하고 센서가 뇌 활동을 기록하여 AI를 훈련시켰다. 그런 다음 참가자는 로봇 팔과 손을 제어하려고 시도했다. 하지만 여전히 움직임이 정확하지 않았다. 그래서 강굴리는 참가자에게 가상의 로봇 팔로 연습하게 하고 시각화의 정확도에 대한 피드백을 제공했다. 참가자가 실제 로봇 팔로 연습을 시작한 후 몇 번의 연습 세션만 거치면 자신의 기술을 실제 세계로 옮길 수 있었다. 그는 로봇 팔로 블록을 집어 돌리고 새로운 위치로 옮길 수 있었다. 심지어 캐비닛을 열고 컵을 꺼내 정수기까지 들어올릴 수 있었다. 연구 초기 단계에서 환자는 시각화 훈련을 통해 가상 로봇 팔을 정확하게 제어하는 연습에 집중했다. 강굴리 박사는 "환자가 가상 환경에서 자신의 의도대로 팔을 움직이는 방법을 완전히 숙달하자, 놀랍게도 실제 로봇 팔을 제어하는 데에는 단 몇 번의 훈련 세션만으로 충분했다"고 당시 상황을 설명했다. 실제 로봇 팔을 이용한 실험에서 환자는 단순히 생각만으로 물건을 집어, 옮기고, 원하는 장소에 내려놓는 등 섬세한 동작들을 막힘없이 수행해냈다. 심지어 컵을 집어 들고 물 디스펜서에서 물을 받아 마시는, 비교적 복잡한 일상생활 동작까지 성공적으로 해내는 모습을 보여주었다. 이러한 결과는 AI 기반 BCI 기술이 더 이상 실험실 안의 몽상이 아닌, 실제 삶의 영역에서 마비 환자들에게 실질적인 도움을 줄 수 있는 혁신적인 기술임을 분명하게 보여주었다. AI, 뇌파 변화 '실시간'으로 읽는다 이번 연구의 핵심 성공 요인은 개발된 AI 모델이 인간 뇌 활동 패턴의 미묘한 변화를 스스로 학습하고 적응하는 데 있다. 강굴리 박사는 이전 연구에서 동물이 새로운 동작을 학습하는 과정에서 뇌 활동 패턴이 매일매일 미세하게 변화한다는 사실에 주목했다. 그는 이러한 뇌 활동의 '변동성'이 BCI 기술이 장기적으로 안정적인 성능을 유지하는 데 가장 큰 걸림돌이라고 판단했다. 연구진은 환자가 특정 동작을 반복적으로 상상하는 동안 뇌 활동이 시간의 흐름에 따라 어떻게 변화하는지 면밀하게 분석했다. 그리고 이러한 분석 결과를 토대로, 뇌 활동의 변화 패턴을 실시간으로 반영하여 BCI 시스템의 성능을 최적화하는 AI 모델을 개발하는 데 성공했다. 이처럼 뛰어난 적응 능력을 갖춘 AI 덕분에 개발된 BCI는 장기간 사용에도 불구하고 놀라운 안정성을 유지할 수 있었으며, BCI 기술의 상용화 가능성을 한층 끌어올렸다는 평가를 받고 있다. 연구에 핵심적인 역할을 담당한 니킬레스 나타라즈(Nikhilesh Natraj) 박사는 "AI는 뇌 활동의 변화를 정확하게 예측하고 그 변화에 맞춰 시스템을 자동으로 보정함으로써 BCI의 성능을 극대화하는 데 결정적인 역할을 했다"며, "이번 연구 결과는 BCI 기술이 실험실을 넘어 실제 의료 현장과 일상생활에 적용될 수 있는 시점을 앞당기는 획기적인 전환점이 될 것"이라고 기대감을 내비쳤다. "마비 환자 삶, BCI로 바꿀 수 있다" 현재 강굴리 박사 연구팀은 개발된 AI 모델을 더욱 고도화하여 로봇 팔의 움직임을 지금보다 훨씬 빠르고 부드럽게 만들 수 있도록 연구에 박차를 가하고 있다. 뿐만 아니라, BCI 기술을 환자의 가정 환경에 적용했을 때의 실효성과 안전성을 검증하기 위한 후속 연구도 계획 중이다. 강굴리 박사는 "마비 환자들이 BCI 기술을 통해 스스로 식사를 하고, 목마를 때 물을 마실 수 있게 된다면, 그들의 삶은 상상하기 어려울 정도로 크게 바뀔 것"이라며, "이번 연구를 통해 우리는 드디어 BCI 시스템을 실용화할 수 있다는 확신을 얻었으며, 머지않아 이 기술이 실제 환자들의 삶 속에 깊숙이 들어올 수 있도록 최선을 다할 것"이라고 힘찬 포부를 밝혔다. NIH 지원, '셀' 논문 게재 '주목' 이번 연구는 미국 국립보건원(NIH)의 전폭적인 지원을 받아 진행되었으며, 연구 성과는 세계 최고 권위의 과학 학술지 중 하나인 '셀(Cell)' 2025년 3월 6일자에 정식 게재되어 전 세계 과학계의 뜨거운 주목을 받고 있다. 논문에는 UCSF의 사라 세코(Sarah Seko)와 아델린 투-찬(Adelyn Tu-Chan), 그리고 로드아일랜드대학교의 레자 아비리(Reza Abiri) 박사 등이 공동 저자로 이름을 올렸다. 이번 연구는 더 이상 치료가 불가능하다고 여겨졌던 마비 질환 환자들에게 AI 기반 BCI 기술이 새로운 희망의 빛을 비춰줄 수 있음을 분명히 보여주는 기념비적인 성과다. 향후 BCI 기술이 지속적인 연구 개발을 통해 더욱 발전하여, 마비로 고통받는 수많은 환자들이 불편함 없이 로봇 팔을 자유롭게 사용하고, 보다 인간다운 삶을 되찾을 수 있기를 간절히 기대해 본다.
-
- 포커스온
-
[퓨처 Eyes(76)] 뇌파로 움직이는 '꿈의 팔', 마비 환자에 희망 심다
-
-
뇌-컴퓨터 인터페이스(BCI) 국제표준, 한국 주도로 논의 본격화
- 사람의 뇌와 컴퓨터를 연결해 생각만으로 사물을 제어하는 '뇌-컴퓨터 인터페이스(BCI)' 기술의 국제표준 개발이 한국 주도로 추진된다. 산업통상자원부 국가기술표준원은 3일부터 6일까지 가천대 컨벤션센터에서 'BCI 국제표준화 위원회' 총회를 개최했다고 밝혔다. 이번 총회에는 미국, 중국, 인도 등 9개국에서 온 70여 명의 기술 표준 전문가들이 참석했다. BCI는 인간의 뇌 활동에서 발생하는 신경 전달 신호를 수집·해석해 디지털 기기와 연결하는 첨단 융합 기술이다. 이를 활용하면 생각만으로 전등을 켜거나 신체 보조 로봇을 조작할 수 있어, 거동이 불편한 이들의 삶의 질을 크게 향상시킬 것으로 기대된다. 2022년 출범한 BCI 국제표준화 위원회는 기술 상용화와 생태계 구축을 목표로 용어, 데이터 형식, 활용 사례 등의 표준화를 추진해 왔다. 한국은 특히 BCI 데이터 형식 표준을 제안하고, 표준 개발 작업반 의장을 맡는 등 해당 분야에서 주도적인 역할을 해왔다. 이번 총회에서 한국은 ▲'BCI 개발자를 위한 설계 고려사항' ▲'다목적 BCI 시스템 설계를 위한 인터페이싱 지침' 등 두 가지 신규 국제표준안을 제안했다. 국가기술표준원은 "향후 이 두 표준이 개발돼 적용되면 뇌와 기기 간 호환성이 높아져 다양한 환경에서도 안정적인 사용이 가능해질 것"이라며 "BCI 산업 활성화가 가속화될 것으로 기대된다"고 밝혔다.
-
- IT/바이오
-
뇌-컴퓨터 인터페이스(BCI) 국제표준, 한국 주도로 논의 본격화
-
-
앤스로픽, 하이브리드 추론 모델 '클로드 3.7 소넷'과 에이전트형 코딩 도구 '클로드 코드' 공개
- 인공지능 전문기업 앤스로픽(Anthropic)은 25일, 최신 인공지능 모델 '클로드 3.7 소넷'과 에이전트형 코딩 도구 '클로드 코드'를 공식 공개했다고 자사 홈페이지를 통해 밝혔다. 이번 신제품은 시장 최초의 하이브리드 추론 모델로, 즉각적인 응답과 동시에 사용자가 확인할 수 있는 단계별 심층 사고 과정을 제공하는 것이 특징이다. 또한, API(응용 프로그램 프로그래밍 인터페이스) 사용자는 모델의 사고 시간을 세밀하게 조정할 수 있어, 응답의 질과 속도를 사용 목적에 맞게 최적화할 수 있다. 앤스로픽은 오픈AI의 전 연구원들이 2021년 설립한 미국의 인공지능(AI) 스타트업 기업이다. AI가 인간에게 해를 까치지 않도록 안정성을 최우선으로 고려한다. 클라우드는 앤스로픽의 대규모 언어 모델(LLM) 제품군으로, 책임감있고 안전한 AI 개발을 지향한다. 최근 구글과 아마존으로부터 대규모 투자를 유지해 주목받고 있다. 하이브리드 추론 모델은 인공지능이 단일 방식에 의존하지 않고, 두 가지 이상의 추론 기법을 결합해 즉각적인 응답과 함께 단계별 심층 사고 과정을 동시에 수행하는 모델을 말한다. 예를 들어, 단순 패턴 인식을 통한 빠른 답변과, 복잡한 문제 해결을 위한 체계적 논리 분석을 동시에 구현하여 사용자가 결과를 신뢰할 수 있도록 돕는 기술적 접근 방식이다. 클로드 3.7 소넷은 코딩 및 프론트엔드 웹 개발 분야에서 특히 뛰어난 성능 향상을 보이며, 무료, 프로, 팀, 엔터프라이즈 등 모든 클로드 요금제와 앤스로픽 API, 아마존 베드록, 구글 클라우드 버텍스 AI 등 다양한 플랫폼에서 이용 가능하다. 확장 사고 모드는 무료 클로드 티어를 제외한 모든 환경에서 제공되며, 표준 및 확장 사고 모드 모두 기존 모델과 동일한 요금 체계를 적용해 입력 토큰 100만 개당 3달러, 출력 토큰 100만 개당 15달러가 부과된다(사고 토큰 포함). 앤스로픽은 '인간의 두뇌가 빠른 반응과 심도 있는 성찰을 동시에 수행하는 것'에 착안해, 별도의 추론 전용 모델이 아닌 통합된 프론티어 모델의 구현을 목표로 클로드 3.7 소넷을 개발했다. 이 모델은 사용자가 일반적인 답변을 원할지, 아니면 보다 오랜 사고 과정을 거친 응답을 원하는지 선택할 수 있도록 설계되었으며, 표준 모드에서는 클로드 3.5 소넷의 업그레이드 버전, 확장 사고 모드에서는 수학, 물리학, 명령어 추종, 코딩 등 다양한 작업에서 뛰어난 성능을 발휘한다. 특히, API를 통해 클로드 3.7 소넷을 활용하는 경우, 사용자가 최대 128K 토큰의 출력 한도 내에서 사고 예산을 조절할 수 있어, 응답 품질과 속도 및 비용 간의 균형을 효과적으로 맞출 수 있다. 앤스로픽은 수학·컴퓨터과학 경시대회 문제 최적화보다도 실제 기업 환경에서의 활용도를 중시하는 철학을 바탕으로, 실무에 부합하는 성능 개선에 주력해왔다. 초기 테스트 결과, 클로드는 복잡한 코드베이스 처리와 고급 도구 사용 등 전반적인 코딩 능력에서 동급 최고의 성능을 입증했다. 여러 평가기관은 코드 변경 계획 수립 및 풀스택 업데이트 처리 면에서 타 모델 대비 우수한 결과를 보였으며, 복잡한 에이전트 워크플로우와 웹 애플리케이션 구축 과정에서도 탁월한 정밀도를 확인했다. 디자인 감각과 오류 감소 측면에서도 생산 준비가 완료된 코드를 꾸준히 생성하는 것으로 평가됐다. 한편, 앤스로픽은 클로드 소넷은 2024년 6월부터 전 세계 개발자들 사이에서 큰 호응을 얻고 있다고 밝혔다. 제한적 연구 미리보기 형태로 공개된 클로드 코드는 코드 검색·편집, 테스트 작성·실행, 깃허브(GitHub·마이크로소포트 산하의 Git 플랫폼) 커밋 및 푸시, 명령줄 도구 사용 등 모든 개발 단계에서 능동적 협력자로서의 역할을 수행한다. 초기 테스트에서는 수동 작업이 45분 이상 소요되던 작업을 단일 패스로 처리해, 개발 시간과 오버헤드를 크게 줄이는 효과가 나타났다. 앤스로픽은 앞으로 몇 주간 도구 호출 안정성 강화, 장기 실행 명령 지원 추가, 앱 내 렌더링 개선 및 클로드 자체 기능 확장 등 지속적인 업데이트를 통해 클로드 코드의 성능을 더욱 향상시킬 계획이다. 개발자들의 사용 경험과 피드백을 적극 반영해, 향후 모델 개선에 직접 연결할 예정이라며, 이번 미리보기가 클로드 기술 발전에 중대한 기여를 할 것으로 기대했다. 또한, 앤스로픽은 클로드ai(Claude.ai) 플랫폼 내에서 GitHub 통합 기능을 확대해, 모든 클로드 요금제 사용자들이 코드 저장소를 직접 연결할 수 있도록 지원하고 있다. 이를 통해 클로드 3.7 소넷은 개인, 기업, 오픈 소스 프로젝트 전반에서 버그 수정, 기능 개발 및 문서 작성에 강력한 파트너로 자리매김하고 있다. 보안과 신뢰성 측면에서도, 앤스로픽은 광범위한 테스트와 외부 전문가 협력을 통해 클로드 3.7 소넷의 안전성을 입증했으며, 유해·무해 요청을 미세하게 구분하여 불필요한 거부 횟수를 45% 줄이는 성과를 달성했다. 이번 릴리스에 포함된 시스템 카드에는 다양한 안전 결과와 책임 있는 확장 정책 평가가 상세히 기술되어 있으며, 프롬프트 주입 공격 등 새로운 위험에 대한 대응 방안도 함께 제시된다. 클로드 3.7 소넷과 클로드 코드는 인공지능이 인간의 능력을 증강하고 자율적 작업 및 효과적인 협업을 구현하는 미래를 향한 중요한 발걸음으로 평가된다. 앤스로픽은 사용자들이 새로운 기능을 자유롭게 탐색하고, 창의적 성과를 이끌어내며, 지속적인 피드백을 통해 클로드 기술 발전에 기여할 수 있기를 기대한다고 밝혔다.
-
- IT/바이오
-
앤스로픽, 하이브리드 추론 모델 '클로드 3.7 소넷'과 에이전트형 코딩 도구 '클로드 코드' 공개
-
-
오픈AI, GPT4.5 출시 임박⋯"AI 모델 통합 가속화"
- 샘 올트먼 오픈AI 최고경영자(CEO)가 자사의 최신 인공지능(AI) 모델인 GPT4.5를 수주 내 출시할 계획이라고 밝혔다. 올트먼 CEO는 12일(현지시간) 자신의 소셜 미디어 엑스(X·옛 트위터)를 통해 'GPT-4.5 및 GPT-5에 대한 오픈AI 로드맵 데이터'라는 글을 게재해 "다음 모델은 내부적으로 '오리온(Orion)'이라는 코드명으로 개발한 GPT-4.5"라고 공개했다. 그는 "GPT-4.5는 오픈AI가 개발하는 마지막 비(非)추론 모델이 될 것"이라며 "향후 출시될 AI 모델은 추론 기능을 갖춘 일반 AI(AGI·범용인공지능) 모델로 전환할 계획"이라고 설명했다. AI 모델 통합 계획⋯GPT-4.5, 마지막 비추론 모델 올트먼 CEO는 GPT-4.5를 "우리가 개발하는 마지막 '비(非)사고의 사슬(chain-of-thought)' 모델"이라고 강조했다. '사고의 사슬'은 AI가 답을 도출하는 과정에서 논리적 추론을 거치는 방식을 의미한다. 즉, GPT-4.5는 이러한 사고 과정을 거치지 않는 마지막 모델이 될 것이라는 뜻이다. 오픈AI는 기존에 일반 AI 모델과 별도로 추론 모델 'o 시리즈'를 개발해 왔다. 지난해 9월 첫 번째 추론 모델 'o1'을 출시한 데 이어, 12월에는 'o3'를 선보인 바 있다. AI 제품군 단순화⋯GPT와 'o 시리즈' 통합 올트먼 CEO는 모델과 제품군이 지나치게 복잡해졌다는 점을 지적하며, 앞으로 제품 라인업을 단순화하는 데 집중할 것이라고 밝혔다. 그는 "GPT-시리즈와 'o 시리즈'를 통합하는 것이 주요 목표"라며, "이를 통해 AI가 상황에 따라 언제 깊이 사고해야 하는지 판단할 수 있도록 하고, 다양한 작업에서 유용하게 작동하는 시스템을 구축하겠다"고 설명했다. GPT-4.5 이후 출시될 차기 모델은 GPT-5로, 그는 "챗GPT 및 API(애플리케이션 프로그래밍 인터페이스)에서 GPT-5를 출시할 계획"이라며, "GPT-5는 'o3' 등 다양한 기술이 통합된 시스템이 될 것"이라고 밝혔다. 이와 함께 그는 "'o3'는 앞으로 독립적인 모델로 제공되지 않는다"고 덧붙였다. 무료 이용자도 GPT-5 사용 가능⋯출시 일정은? 올트먼 CEO는 "챗GPT 무료 이용자는 기본 지능 수준의 GPT-5를 무제한 사용할 수 있으며, 유료 서비스(플러스 구독자)는 더 높은 지능 수준의 GPT-5를 이용할 수 있다"고 밝혔다. 다만, 그는 구체적인 출시 일정은 공개하지 않았다. 다만, 관련 질문에 대해 "GPT-4.5는 수 주 내, GPT-5는 수개월 내 출시될 것"이라고 답했다. 한편, 오픈AI의 차기 AI 모델 출시는 지난해부터 예상됐지만 지연된 바 있다. 이에 대해 일각에서는 AI 모델 성능 향상이 정체된 것이 아니냐는 지적도 일고 있다.
-
- IT/바이오
-
오픈AI, GPT4.5 출시 임박⋯"AI 모델 통합 가속화"
-
-
삼성, AI 업그레이드된 스마트폰 갤럭시 S25시리즈 공개-가격은 동결
- 삼성전자가 한층 업그레이드된 인공지능(AI) 기능을 담은 갤럭시 S25 시리즈를 공개했다. 기존 S24시리즈가 단순한 명령어를 텍스트로 구현한 'AI 맛보기' 였다면 갤럭시 S25 시리즈는 일상 속 대화처럼 내뱉은 여러개의 지시를 한번에 알아듣고 실행하는 단계에 이르렀다. 삼성전자는 22일(현지시간) 실리콘밸리가 위치한 미 캘리포니아주 새너제이에서 '갤럭시 언팩 2025' 행사를 열고, 최신 스마트폰의 출시를 알렸다. 갤럭시 S25 시리즈는 지난해 세계 최초로 출시된 AI 스마트폰 갤럭시 S24 시리즈보다 AI 기능이 대폭 업그레이드됐다. 삼성전자는 "전작이 AI 기능 탑재의 시작이었다면 갤럭시 S25 시리즈는 완성된 AI 아키텍처를 갖춘 스마트폰의 시작"이라고 설명했다. 또 "한층 더 발전한 갤럭시 AI를 통해 역대 가장 쉽고 직관적인 AI 경험을 제공한다"며 "진정한 AI 스마트폰이자, AI 컴패니언(동반자·친구)"이라고 강조했다. 경쟁사인 애플이 지난해부터 AI 기능을 탑재했지만 아직 그 기능이 100% 구현되지 않고 있다는 점에서 아이폰과 차별화를 부각한 것으로 풀이된다. 새 시리즈는 역대 갤럭시 첫 통합형 AI 플랫폼인 '원 유아이(One UI) 7'이 탑재됐다. '원 유아이'는 갤럭시 등 삼성전자 기기의 사용자 인터페이스다. 삼성전자는 "원 유아이는 이번 시리즈를 위해 3년 전부터 바닥부터 재설계했다"며 "일상에서 정말 쉽게 사용할 수 있도록 설계했다"고 밝혔다. '원 유아이 7'으로 앱 간 연결을 강화돼 이용자가 일일이 앱을 찾을 필요 없이 AI가 앱을 넘나들며 연결한다. 유튜브를 보면서 내용을 요약해 달라고 하면 AI가 요약된 내용을 삼성 메모장에 알아서 옮겨주는 방식이다. 이용자의 상황을 이해하고 취향을 분석해 개인화된 AI 경험을 구현하고, 특히, 대화 기술이 향상돼 더욱 자연스러운 모바일 경험을 제공한다. 수천 장의 사진이 있는 갤러리에서 날짜와 장소 등 키워드 입력만으로 AI가 사진을 찾아 주고, 이용자의 사용 패턴 등을 분석해 개인화된 맞춤형 정보 브리핑을 제공(나우 브리프·Now Brief)한다. 날씨, 일정, 나의 수면 점수 등 필요한 정보를 개인 비서처럼 알려주고, 매일 아침 뉴스를 보는 이용자에게는 자주 방문한 사이트의 관심 뉴스를 추천한다. 다양한 유형의 정보를 동시에 분석하고 처리하는 멀티모달 기능도 탑재됐고 AI 버튼이 새로 추가돼 이를 눌러 대화하듯 명령어를 입력할 수 있다. '다음 주 손흥민의 토트넘 경기 일정을 찾아내 달력에 추가해 달라'는 음성 한 번으로 실행이 된다. 구글과 협업으로 전작에 탑재됐던 검색 기능 '서클 투 서치'도 진화해 이미지와 텍스트 외에 유튜브 등 이용자의 스마트폰에서 나오는 사운드 검색도 지원한다. '실시간 통역' 기능은 20개 언어로 확대됐고 통화 내용을 글로 옮겨주는 '텍스트 변환', '통화 요약', 생성형 AI 기반의 '글쓰기 어시스트' 기능도 탑재됐다. 새 시리즈에는 구글 AI 모델 제미나이를 기본 설정으로 했으며, 향후 다른 AI 모델이 장착되더라도 앱과 유기적으로 연결될 수 있도록 통합형으로 설계됐다. 칩세트는 삼성전자와 퀄컴이 협력해 개발한 '갤럭시용 스냅드래곤 8 엘리트'가 탑재됐다. 전작보다 신경망처리장치(NPU) 성능은 40%, 중앙처리장치(CPU)와 그래픽처리장치(GPU)는 각각 37%와 30% 향상됐다. 이 칩세트는 AI 기반 알고리즘을 기반으로, 다양한 콘텐츠를 선명하게 표현해 주는 기능(프로스케일러)이 처음 탑재돼 이미지 품질이 40% 이상 좋아졌고, 삼성전자의 화질 개선 설루션(mDNIe)이 내부에 탑재돼 화질과 전력 효율도 향상됐다. 카메라는 고해상도 센서와 AI 기반의 차세대 '프로비주얼 엔진'이 탑재돼 먼 거리에서도 디테일한 고화질의 이미지 촬영 경험을 제공한다. 최고급 모델인 울트라에는 새로운 5000만 화소 초광각 카메라가 적용됐다. 삼성 자체 AI 기술로 영상 편집 기능도 추가돼 영상 속 목소리, 주변 소리, 소음, 바람 소리 등을 클릭만으로 제거 또는 음량을 조절(오디오 지우개)할 수 있다. 디자인은 모서리가 약간 둥글어졌고 베젤(테두리)은 15% 줄여 디스플레이는 커졌다. 두께는 0.4㎜ 더 얇아졌고, 무게는 약 6% 가벼워졌다. 새 시리즈는 내달 7일부터 한국을 포함해 전 세계에 순차 출시되며, 오는 24일부터 내달 3일까지 한국에서 사전 판매를 진행한다. 국내 판매가격은 전 제품을 S24 시리즈와 같은 가격으로 동결했다. 삼성전자는 "고객들이 제대로 된 AI 스마트폰을 이용할 수 있도록 하기 위해 환율 상승 영향에도 고심 끝에 가격을 동결했다"고 설명했다.
-
- IT/바이오
-
삼성, AI 업그레이드된 스마트폰 갤럭시 S25시리즈 공개-가격은 동결
-
-
[신소재 신기술(148)] "뇌 자극으로 촉각 되살린다"…의수 혁명 이끌 신기술
- 뇌-컴퓨터 인터페이스(BCI)를 통해 촉각을 되살리는 기술이 개발됐다. 미국 시카고대학은 홈페이지를 통해 피츠버그 대학교를 포함한 공동 연구팀이 뇌에 직접 전기 자극을 주어 의수에 촉각을 느끼게 하는 기술을 개발했다고 밝혔다. 뇌-컴퓨터 인터페이스 기술은 뇌에 작은 전극을 이식해 로봇 팔을 움직이고, 로봇 팔의 센서가 감지한 촉각 정보를 다시 뇌로 전달하는 방식이다. 이 연구는 시카고 대학, 피츠버그 대학, 노스웨스턴 대학, 케이스 웨스턴 리저브 대학, 블랙록 뉴로테크의 과학자와 엔지니어들의 협력으로 수행됐다. 연구팀은 사지 기능을 상실한 사람들의 운동 제어 및 감각 회복을 목표로 뇌-컴퓨터 인터페이스(BCI)와 로봇 의수를 설계, 제작, 구현 및 개선하고 있다. 시카고 대학의 신경과학자 찰스 그린스폰 박사는 "사람들은 타이핑, 걷기, 컵 잡기 등 시각 대신 촉각에 의존하는 경우가 얼마나 많은지 인지하지 못한다"며 "촉각을 느낄 수 없다면 어떤 일을 할 때도 손을 계속 봐야 하고, 물건을 쏟거나 깨뜨리거나 떨어뜨릴 위험이 있다"고 말했다. 그린스폰 박사 연구팀은 최근 '네이처 바이오메디컬 엔지니어링'과 '사이언스'에 해당 기술에 대한 논문을 게재했다. 인공 촉각 구현, 어디까지 왔나 연구팀은 손을 움직이고 느끼는 뇌 부위에 작은 전극 배열을 이식하는 방법을 사용했다. 참가자는 움직임을 생각하는 것만으로 로봇 팔을 움직일 수 있고, 로봇 팔의 센서는 촉각 담당 뇌 부위에 '피질 내 미세 자극(ICMS)'이라는 전기 활동 펄스를 유발한다. 약 10년 동안 이러한 촉각 중추 자극은 손의 여러 부위에서 단순한 접촉 감각만 제공할 수 있었다. 그린스폰 박사는 "무언가를 만지고 있다는 느낌을 불러일으킬 수는 있었지만, 대부분 단순한 온/오프 신호였고, 종종 매우 약하고 손의 어느 부분에서 접촉이 발생했는지 알기 어려웠다"고 설명했다. 정확하고 안정적인 촉각, 그리고 움직임까지 네이처 바이오메디컬 엔지니어링에 발표된 첫 번째 연구에서 연구팀은 전기적으로 유발된 촉각이 안정적이고 정확하게 위치하며 일상적인 작업에 유용할 만큼 강력한지 확인하는 데 중점을 두었다. 테스트 참가자들의 촉각 중추에 있는 개별 전극에 짧은 펄스를 전달하고 각 감각을 어디에서 얼마나 강하게 느끼는지 보고하게 함으로써 연구원들은 손의 특정 부분에 해당하는 뇌 영역의 상세한 '지도'를 만들었다. 테스트 결과 두 개의 가까운 전극을 함께 자극하면 참가자는 더 강하고 명확한 촉각을 느껴 손의 정확한 부분에 대한 압력을 더 잘 파악할 수 있었다. 또한 연구팀은 동일한 전극이 지속적으로 특정 위치에 해당하는 감각을 생성하는지 확인하기 위해 철저한 테스트를 수행했다. 그린스폰 박사는 "첫날 전극을 자극했을 때 참가자가 엄지손가락에서 느꼈다면, 100일, 1,000일, 심지어 몇 년 후에도 동일한 전극을 테스트했을 때 여전히 거의 같은 지점에서 느낀다"고 말했다. 사이언스에 발표된 두 번째 연구에서는 인공 촉각을 더욱 몰입적이고 직관적으로 만들기 위해 노력했다. 연구팀은 촉각 영역이 겹치는 전극 쌍이나 클러스터를 식별한 후, 감각 지도에서 감각이 진행되도록 신중하게 조정된 패턴으로 활성화했다. 참가자들은 자극이 작고 불연속적인 단계로 전달되었음에도 불구하고 손가락 위로 부드럽게 미끄러지는 듯한 촉각을 느꼈다고 보고했다. 연구팀은 이 결과를 뇌가 감각 입력을 연결하고 '지각의 틈을 채워' 일관된 움직임으로 해석하는 놀라운 능력 덕분이라고 설명했다. 전극을 순차적으로 활성화하는 방식은 참가자가 복잡한 촉각 모양을 구별하고 만지는 물체의 변화에 반응하는 능력을 크게 향상시켰다. 참가자들은 손가락 끝에 전기적으로 '그려진' 알파벳을 식별할 수 있었고, 바이오닉 팔을 사용하여 손에서 미끄러지기 시작하는 스티어링 휠을 안정시킬 수 있었다. 더욱 실감나는 신경 보철 기술 기대 연구팀은 전극 설계와 수술 방법이 계속 개선됨에 따라 손 전체에 대한 범위가 더욱 정밀해져 더욱 실감 나는 피드백을 제공할 수 있기를 기대한다. 피츠버그 대학의 재활의학과 부교수이자 자극 연구 책임자인 로버트 건트 박사는 "이 두 연구 결과를 로봇 시스템에 통합하여 단순한 자극 전략으로도 사람들이 뇌로 로봇 팔을 제어하는 능력을 향상시킬 수 있음을 보여주었다"고 말했다. 그린스폰 박사는 이 연구의 동기가 사지 절단이나 마비로 고통받는 사람들의 독립성과 삶의 질을 향상시키는 것이라고 강조했다. 그는 "우리 모두는 부상을 입고 사지를 사용할 수 없게 된 사람들을 돕고 싶어한다"며 "이 연구는 그들을 위한 것이다. 이것이 우리가 사람들에게 촉각을 되돌려주는 방법이다. 복원 신경 기술의 최전선이며 뇌의 다른 영역으로 접근 방식을 확장하기 위해 노력하고 있다"고 말했다. 연구팀은 "촉각을 느끼는 뇌 부위를 정확히 파악하고, 전기 자극을 미세하게 조절하는 게 관건"이라며 "앞으로 전극 설계와 수술 방법을 개선해 더욱 실감나는 촉각을 구현할 수 있도록 노력할 것"이라고 밝혔다. 이 접근 방식은 다른 유형의 감각 상실이 있는 사람들에게도 희망을 준다. 연구팀은 유방 절제술 후 촉각을 회복할 수 있는 이식형 장치를 개발하는 '바이오닉 유방 프로젝트'를 위해 시카고 대학의 외과 의사 및 산부인과 의사와 협력하고 있다. 아직 많은 과제가 남아 있지만, 이러한 최신 연구는 촉각을 회복하는 길이 점점 더 명확해지고 있음을 보여준다.
-
- IT/바이오
-
[신소재 신기술(148)] "뇌 자극으로 촉각 되살린다"…의수 혁명 이끌 신기술
-
-
[CES 2025] AMD, 노트북·데스크톱·휴대용 게이밍 기기용 신형 칩 공개
- AMD는 6일(현지시간) 세계 최대 가전제품·IT 전시회 'CES 2025'에서 데스크톱부터 휴대용 게이밍 기기에 이르기까지 다양한 기기에 탑재될 신형 칩을 공개했다. 도요타는 미래 도시 '우븐 시티'를 공개해 이목을 끌었다. '엔비디아 대항마'로 평가 받는 AMD는 올해 CES를 앞두고 긍정적인 실적을 기록했다. 2024년 3분기 기준 데스크톱 CPU 시장에서 28.7%의 점유율을 차지했으며, 이는 전년 동기 대비 9.6%p 상승한 수치다. 모바일 시장에서도 22.3%의 점유율을 기록하며 2.8%p 증가했다. AMD는 이러한 성과에 안주하지 않고, 이날 미 라스베이거스 만델레이베이 콘벤션 센터에서 열린 'CES 2026' 미디어 데이 행사에서 2025년을 위한 공격적인 전략을 발표했다. AMD가 공개한 인공지능(AI) PC용 프로세서의 중심에는 '라이젠 AI 맥스(Ryzen AI Max)'와 '라이젠 9 9950X3D'가 있다. 라이젠 AI 맥스는 노트북용, 라이젠 9000 시리즈는 데스크톱용 중앙처리장치(CPU)다. AMD에 따르면, 라이젠 9 9950X3D는 게이머와 크리에이터를 대상으로 개발된 제품으로, AMD의 최신 Zen 5 아키텍처를 기반으로 16코어에 최대 5.7GHz의 클럭 속도를 자랑한다. 회사 자체 벤치마크에서는 '호그와트 레거시'와 '스타필드'와 같은 인기 게임에서 기존 라이젠 9 7950X3D보다 평균 8% 향상된 성능을 보였다. 이와 함께 12코어에 최대 5.5GHz로 동작하는 라이젠 9 9900X3D도 함께 공개됐다. 두 제품 모두 2025년 1분기 중 출시될 예정이라고 전문지 테크크런치가 전했다. AMD는 또한 중급 노트북 및 초경량 노트북을 타깃으로 하는 새로운 '파이어 레인지(Fire Range)' 칩셋을 발표했다. 해당 라인업은 2025년 상반기 출시될 예정이며, 라이젠 9 9850HX, 9955HX, 9955HX3D 등이 포함된다. 이들은 12~16코어로 구성되며, 최대 클럭 속도는 5.2GHz에서 5.4GHz 사이에 달한다. 특히 파이어 레인지 칩은 약 54W의 전력만을 소모해, 170W의 라이젠 9 9950X3D 대비 전력 효율성이 뛰어나다. AMD, AI PC 칩 라인업 공개 AMD는 차세대 AI 기능이 강화된 윈도우 11 기반 '코파일럿+(Copilot+)' PC를 위해 새로운 라이젠 AI 300 및 AI Max 시리즈를 선보였다. 해당 시리즈의 모든 칩에는 AI 작업을 가속화하는 신경망 처리 장치(NPU)가 탑재됐다. 이는 텍스트 요약 모델이나 윈도우 11의 AI 기반 이미지 편집 프로그램을 실행하는 데 사용된다. 라이젠 AI 300 시리즈는 68코어로 구성되며, 최대 5GHz의 클럭 속도를 지원한다. 2025년 1분기 혹은 2분기에 출시될 예정이며, 라인업은 라이젠 AI 7 350, AI 5 340, AI 7 Pro 350, AI 5 Pro 340로 구성된다. 플래그십 모델인 라이젠 AI Max는 6~16코어, 최대 5.1GHz의 클럭 속도를 자랑하며, 통합 그래픽 및 새로운 메모리 인터페이스가 탑재됐다. AMD는 해당 칩셋이 3D 렌더링 및 AI 애플리케이션에서 탁월한 성능을 제공한다고 밝혔다. AI Max 시리즈는 2025년 1~2분기에 출시되며, AI Max+ 395, AI Max+ Pro 395, AI Max 390, AI Max Pro 390, AI Max 385, AI Max Pro 385, AI Max Pro 380 등으로 구성된다. 휴대용 게이밍 기기용 칩 휴대용 PC 및 게이밍 기기 시장 성장에 대응해, AMD는 라이젠 Z2 시리즈 칩셋을 발표했다. 이 시리즈는 경량 및 게이밍 전용 디바이스를 위한 것으로, 밸브의 스팀 덱과 같은 기기에 탑재된다. 라이젠 Z2 Go는 4코어, 최대 4.3GHz, 12개의 그래픽 코어를 탑재했으며, 라이젠 Z2 Extreme은 8코어, 최대 5GHz, 16개의 그래픽 코어를 제공한다. 기존 라이젠 Z2는 8코어, 최대 5.1GHz의 클럭 속도와 12개의 그래픽 코어를 탑재했다. 세 가지 Z2 모델은 2025년 1분기부터 출시될 예정이다. '미래 도시' 우븐 시티 공개한 도요타 회장 도요타의 도요다 아키오 회장은 6일(현지시간) 세계 최대 가전·IT 전시회 'CES 2025'에서 5년 만에 무대에 올랐다. 도요다 회장은 CES 개막을 하루 앞둔 이날, 만달레이베이 컨벤션 센터에서 전 세계 언론을 대상으로 미래 스마트 도시 '우븐 시티(Woven City)'의 진행 상황을 공개했다. 우븐 시티는 2021년 후지산 기슭에서 착공된 프로젝트로, 총 100억 달러(약 14조 원)가 투입된다. 자율주행, 로봇공학, 스마트 홈 등 다양한 미래 기술을 실제 생활에서 경험하고 테스트할 수 있는 '살아있는 실험실'로 설계됐다. 올가을 100명 입주 예정 도요다 회장은 "우븐 시티는 모든 발명가들이 신제품과 아이디어를 현실에서 실험할 수 있는 공간으로, 단순한 도시 이상의 의미를 지닌다"고 말했다. 그는 "1단계 계획이 완료됐으며, 올가을 100명의 입주민을 맞이할 예정"이라고 밝혔다. 초기 입주민은 모두 도요타와 자회사인 '우븐 바이 도요타(Woven by Toyota)' 소속 직원이다. 도요타는 우븐 시티를 '미래 도시의 프로토타입'으로 소개하며, 자율주행 차량, 혁신적인 도로 설계, 로봇, AI 기반 기술 등이 적용될 것이라고 설명했다. 도요타는 2단계 이후, 2,000명이 거주할 수 있는 주택과 시설을 건설하는 것을 목표로 하고 있다. 도요다 회장은 "우븐 시티는 2026년부터 일반 대중에게 공개될 예정"이라며 "도요타가 이를 통해 수익을 얻을 수 있을지 확신할 수는 없지만, 글로벌 시민으로서 미래에 투자할 책임이 있다"고 말했다. 행사에서는 우븐 시티의 공사 현장과 완공 예상 그래픽이 공개됐다. 자율주행 자동차, 로봇, 개인용 드론 등 다양한 기술이 적용된 모습이 담긴 영상도 상영됐다. 도시의 에너지는 도요타의 수소 연료 전지 기술을 통해 공급된다. 로켓 분야 연구도 진행중 이날 도요다 회장은 로켓 연구도 진행 중이라고 밝혔다. 그는 "모빌리티의 미래는 지구나 자동차에 국한되지 않는다"며, "로켓 분야에서도 연구를 진행하고 있다"고 말했다. 도요타는 일본 스타트업 '인터스텔라 테크놀로지'에 70억 엔(약 650억 원)을 투자해 소형 발사체 개발을 지원하고 있다. 도요다 회장과 임원들은 우븐 시티에 적합한 통신 네트워크 구축 방안에 대해 인터스텔라 테크놀로지와 협력하고 있다고 밝혔다. 한 임원은 "우븐 시티는 산악 지대에 위치해 자율주행 차량을 위한 안정적인 통신 인프라가 필요하다"며 "차량이 이동 중에도 끊김 없이 통신이 유지돼야 한다"고 강조했다.
-
- IT/바이오
-
[CES 2025] AMD, 노트북·데스크톱·휴대용 게이밍 기기용 신형 칩 공개
-
-
메타, 스마트 안경 '오라이언' 공개⋯문자·통화·유튜브까지 가능
- 페이스북 모회사 메타플랫폼(이하 메타)이 25일(현지시간) 안경처럼 쓰는 증강현실(AR) 디지털기기를 공개했다. 로이터통신 등 외신들에 따르면 마크 저커버그 메타 CEO가 이날 미국 캘리포니아주 멘로파크 본사에서 열린 연례 개발자 콘퍼런스 '커넥트 2024'에서 새로운 증강현실(AR) 스마트 안경 '오라이언(Orion)'의 시제품을 공개했다. 저커버그 CEO는 "지금까지 AR 기기에 대한 모든 시도는 헤드셋, 고글, 헬멧이었다"며 "오라이언이 스마트폰 다음의 컴퓨팅 디바이스가 될 것"이라고 했다. 메타는 이날 행사에서 오라이언의 출시 일정을 밝히지 않았지만 블룸버그는 앞으로 수년이 소요될 것이라고 예상했다.스마트폰을 꺼낼 필요 없이 문자메시지, 화상 통화, 영상 시청 등이 모두 가능하다. 오라이언은 안경, 손목 밴드, '퍽'이라는 이름의 무선 컴퓨터 등 세 가지 기기로 구성된다. 안경은 일반적인 검은색 뿔테안경 모양인데 전면부에 잘 보이지 않는 5개의 카메라가 있다. 이 카메라가 사용자의 손 움직임을 파악하고 인공지능(AI)에 정보를 전달한다. 프레임 안쪽에 있는 두 개의 카메라는 눈의 움직임을 추적한다. 사용자가 눈을 움직이는 방향에 따라 마우스를 스크롤 같은 효과를 낸다. 스크롤을 눈으로 했다면 클릭은 손가락이 담당한다. 근전도측정기술(EMG)을 활용하는 손목 밴드는 사용자의 미묘한 손동작을 파악한다. 팔을 들어 올릴 필요 없이 엄지와 검지를 집으면 클릭하고, 엄지와 중지를 집으면 홈페이지로 돌아가는 식이다. 메타가 오랜 시간 연구해온 '신경 인터페이스'를 기반으로 한다. 주머니에 휴대할 수 있는 크기의 퍽은 두 개의 반도체가 장착된 무선 컴퓨터로 AR의 복잡한 연산을 처리한다. 다만 안경과 가까운 거리에 있어야 해 외부에 나갈 때도 반드시 휴대해야 한다. 이 제품은 그동안 스마트안경에 대한 시장의 요구를 대부분 구현했다는 평가를 받는다. 오라이언 렌즈는 선글라스처럼 약간의 색이 들어가 있다. 일반 유리가 아니라 탄화규소 성분으로 제작했기 때문이다. 탄화규소 렌즈는 일반 유리 렌즈보다 가볍고 무지개 효과와 미광(迷光)을 차단해 현실을 더 선명하게 보여준다.오라이언은 메타가 2019년 "AR 안경을 개발하고 있다"고 밝힌 지 5년 만에 공개됐다. 메타는 2021년 "메타버스가 새로운 미래가 될 것"이라며 사명을 페이스북에서 메타로 바꿨지만 최근 메타버스 사업부문 '리얼리티 랩스'를 축소해 일각에서 메타버스를 포기하는 것 아니냐는 의혹을 받아왔다. 하지만 메타는 이날 보란 듯이 오라이언을 내놓으며 메타버스 사업의 건재를 증명했다. AI 관련 업데이트도 AR 기기들과의 호환성에 초점이 맞춰졌다. 저커버그 CEO는 이날 브랜든 모레노 전 격투기(UFC) 챔피언의 스페인어 질문에 영어로 대답하며, 쓰고 있던 스마트 안경 '레이밴 메타'가 실시간으로 통역하는 모습을 시연했다. 새로운 AI 기능들은 메타가 이날 공개한 신형 오픈소스 AI 모델 '라마 3.2' 기반이다. 이미지, 영상, 음성 데이터 등을 두루 처리하는 멀티모달 AI인 라마 3.2는 파라미터(매개변수)가 110억 개, 900억 개인 중형 모델뿐 아니라 스마트안경에 최적화한 파라미터 10억 개, 30억 개인 초소형 모델이 함께 출시됐다. 메타는 보급형 융합현실(MR) 기기 신제품 '메타 퀘스트3s'도 함께 출시했다. 퀘스트3s는 고가의 팬케이크 렌즈를 일반 렌즈로 교체해 128GB(기가바이트) 모델(299.99달러) 기준 가격을 기존 제품 '퀘스트3'보다 200달러 낮췄다. 애플이 고가의 '비전프로'로 고전하는 틈을 타 메타버스 기기 시장에서 확실한 주도권을 잡기 위한 전략으로 풀이된다.
-
- IT/바이오
-
메타, 스마트 안경 '오라이언' 공개⋯문자·통화·유튜브까지 가능
-
-
엔비디아, AI 선두주자 오픈AI에 투자 '눈독'
- 인공지능(AI) 칩 제조사인 엔비디아가 챗GPT 개발사 오픈AI의 추가 자금 조달에 투자자로 참여하는 방안을 논의하고 있다고 미국 경제 매체 더 스트리트가 1일 보도했다. 연합뉴스도 2일 블룸버그가 소식통 2명의 말을 인용해 엔비디아가 오픈AI에 약 1억달러(약 1300억원)를 투자하는 방안을 논의 중이라고 전했다. 앞서 미 일간 월스트리트저널(WSJ)도 엔비디아와 애플이 오픈AI에 대한 투자를 검토 중이라고 지난 29일 보도했다. 이 매체는 이번 투자는 새로운 오픈 AI 펀드 모금 라운드의 일환으로 진행될 것이며 챗GPT 개발사의 가치는 1000억달러가 넘을 것으로 전망된다고 전했다. 블룸버그는 이런 논의가 현실화하면 마이크로소프트(MS)를 포함해 현재 세계 기술 업계에서 가장 큰 3사가 모두 오픈AI에 재정적인 지원을 하게 된다고 지적했다. 오픈AI는 기업가이자 투자자이며 현재 최고경영자(CEO)인 샘 올트먼과 테슬라 최고 경영자 일론 머스크등이 2015년 12월 설립했으며, ‘안전하고 유익한’ 공익 인공 지능을 개발한다는 사명을 가지고 있다. 챗GPT는 2022년 11월 30일 출시됐으며, 출시 5일만에 100만명이 넘는 사용자를 확보했다. 참고로 인스타그램은 100만 다운로드를 달성하는 데 약 2.5개월이 걸렸고, 넷플릭스는 100만 명의 사용자를 확보하는 데 약 3.5년이 걸렸다. 지난달 29일 악시오스 보도에 따르면 챗GPT 주간 활성 사용자는 2억 명이 넘는다. 이는 작년 11월의 두 배에 달하는 수치이다. 오픈 AI는 포천 500대 기업 중 90% 이상이 자사 제품을 사용하고 있으며, 지난 7월 GPT-4o mini가 출시된 이후 자동화된 애플리케이션 프로그래밍 인터페이스(API) 사용량이 두 배로 늘었다고 밝혔다. MS는 2019년부터 오픈AI에 130억 달러를 투자했으며 지분 49%를 보유하고 있다. 엔비디아는 오픈AI에 자사가 제조한 AI 칩을 대량 공급하고 있다. 애플은 9월 10일 출시 예정인 최신 스마트폰 아이폰 16에 AI 기능을 탑재하기 위해 지난 6월 오픈AI와 파트너십을 체결했다. 오픈AI는 현재 미국의 유명 벤처 투자사 스라이브 캐피털이 주도하는 자금 조달 라운드를 진행하고 있으며, 이번 투자 유치를 통해 오픈AI의 기업 가치는 1000억 달러(약 133조 9000억 원) 이상으로 평가될 것으로 예상된다. 엔비디아와 애플, MS, 오픈AI, 스라이브 캐피털 측은 모두 이 사안과 관련해 논평을 거부한 것으로 알려졌다.
-
- IT/바이오
-
엔비디아, AI 선두주자 오픈AI에 투자 '눈독'