검색
-
-
SKT, 미국 AI데이터센터 솔루션 기업 SGH에 2800억 투자…역대 AI 투자 중 최대
- SK텔레콤이 미국의 인공지능(AI) 데이터센터 통합 솔루션 기업 스마트 글로벌 홀딩스(SGH)에 2억 달러(약 2800억원) 규모의 전환우선주 투자 계약을 체결했다. 이는 SK텔레콤이 쏟아 부었던 AI 투자 중 최대 규모다. SK텔레콤은 16일(현지시간) SGH와 이같은 내용의 투자 계약을 체결하고 보통주 전환을 통해 약 10% 수준의 지분을 확보할 예정이라고 밝혔다. 이번 계약을 통해 두 회사는 데이터센터 구축·운영 등 AI 인프라 사업 영역에서 협력하기로 했다. SK텔레콤에 따르면 미국 실리콘밸리에 본사를 둔 SGH는 대규모 그래픽처리장치(GPU) 서버로 구성된 AI 클러스터를 설계 및 구축, 운영하는 AI 데이터센터 통합 설루션 전문 기업이다. GPU 누적 구축 규모는 7만5000개로 알려졌다. 메타의 GPU 1만6000개 규모 '리서치 슈퍼 클러스터' 구축을 맡는 등 글로벌 기업의 대규모 AI 클러스터를 구축했고, 미국 차세대 GPU 클라우드 서비스 업체인 '볼티지 파크'의 GPU 2만4000 개 규모 AI 클러스터 운영 업체로 선정됐다. 서버·랙·네트워크·스토리지 설치 및 성능 최적화, AI 클러스터 모니터링과 유지·보수 등 AI 클러스터 운영 전반을 다룬다. SGH는 2017년 나스닥에 상장했으며 지난해 매출액은 14억4000만 달러(한화 약 2조원)다. SK텔레콤은 대규모 데이터 학습이 필요한 거대언어모델(LLM) 발전에 따라 대량의 GPU가 요구되고 AI 클러스터 구축의 난이도와 복잡성이 높아지는 등 전문적인 AI 데이터센터 설루션 사업자에 대한 수요가 커지는 상황에서 투자를 결정했다고 설명했다. 두 회사는 올해 협력 파트너십을 추가로 맺어 AI 데이터센터·엣지 AI·미래 메모리 설루션 등 AI 인프라 사업 영역 전반에 걸친 협력을 구체화할 방침이다. 또한 산업용 특화 엣지 설루션에 통신 인프라와 AI를 접목한 '통신회사(텔코) 엣지 AI 설루션'을 개발, 해외 진출에 모색할 계획이다. 국내외 AI 데이터센터 시장 진출을 추진 중인 SK텔레콤은 데이터센터 관리 시스템, 액침 냉각 등의 설루션에 SGH의 AI 클러스터 구축·운영 역량이 더해진 시너지 효과를 낼 것으로 기대했다. 이번 투자로 SK텔레콤이 지난해부터 AI 분야에 투자한 금액은 3억 달러를 넘어섰다. 마크 아담스 SGH 최고경영자(CEO)는 "SK텔레콤과 AI 데이터센터 설루션 영역에서 전략적 협력을 기대하고 있으며 이를 통해 새로운 가치를 창출할 것"이라고 말했다. 유영상 SK텔레콤 대표는 "SGH에 대한 투자와 협력은 AI 인프라 가치사슬에 대한 경쟁력을 공고히 다질 기회"라며 "AI 변혁의 시대를 맞아 선제적인 투자와 협력을 지속, 글로벌 수준 AI 인프라 사업 리더십을 확보할 것"이라고 말했다.
-
- IT/바이오
-
SKT, 미국 AI데이터센터 솔루션 기업 SGH에 2800억 투자…역대 AI 투자 중 최대
-
-
애플·테슬라 등 美 빅테크 7개 기업 주가, 7일 새 전부 상승
- 애플, 마이크로소프트(MS), 엔비디아 등 미국을 대표하는 7개 거대 기술 기업, 이른바 '매그니피센트 7'의 주가가 10일(현지시간) 뉴욕 증시에서 모두 올랐다. 시가총액 1위 애플은 전날보다 1.88% 상승한 232.99달러로 장을 마감하며 7거래일 연속 상승세를 이어갔다. 이는 230달러 선을 처음 넘어선 기록이다. 시가총액 또한 전날 사상 최초로 3조5000억 달러를 돌파한 데 이어 3조5720억 달러까지 증가했다. 시총 2위 마이크로소프트(MS) 역시 1.46% 오른 466.32달러로 마감하며 시총 3 4650억 달러를 기록, 3조5000억 달러에 근접했다. 인공지능(AI) 반도체 선두 주자인 엔비디아는 2.69% 상승한 134.86달러를 기록하며 시총 3조3170억 달러로 MS를 바짝 뒤쫓았다. 엔비디아는 새로운 아키텍처 블랙웰 그래픽처리장치(GPU) 출시를 앞두고 기대감이 높아지고 있다. 구글의 모회사 알파벳은 1.17%, 세계 최대 전자상거래 업체 아마존과 페이스북 모회사 메타플랫폼은 각각 0.23%와 0.88% 상승하며 상승 대열에 합류했다. 미국 전기차 제조업체 테슬라는 0.35% 상승하며 지난달 25일부터 시작된 연속 상승 기록을 11거래일로 늘렸다. 테슬라 주가가 연속으로 가장 오랫동안 상승한 기록은 지난해 5월부터 6월 사이의 13거래일이었다. 이러한 기술 대기업들의 주가 상승은 미국 중앙은행인 연방준비제도(연준·Fed)의 기준금리 인하 가능성에 대한 기대감과 이달 2분기 실적 발표를 앞두고 실적 개선에 대한 기대감이 복합적으로 작용한 결과로 분석된다.
-
- IT/바이오
-
애플·테슬라 등 美 빅테크 7개 기업 주가, 7일 새 전부 상승
-
-
엔비디아, 시총 왕좌 올랐지만…브랜드 인지도는 '아직'
- 엔비디아가 이번 주 애플과 마이크로소프트를 제치고 미국 증시 시가총액 1위 기업에 등극했다. 인공지능(AI) 시대 핵심 부품인 GPU(그래픽 처리 장치) 시장을 장악하며 급성장한 결과다. 하지만 화려한 월스트리트 성적표와 달리, 엔비디아는 여전히 일반 소비자에게 낯선 이름이다. '세계 최고 가치 기업' vs '100대 브랜드' 명단에도 없는 엔비디아 컨설팅 회사 인터브랜드가 선정한 2023년 말 기준 글로벌 4대 브랜드는 애플, 마이크로소프트, 아마존, 구글이다. 이들은 세계에서 가장 가치 있는 5대 기업 중 4곳을 차지하며 브랜드 파워를 과시한다. 반면, 3조 달러가 넘는 기업 가치를 자랑하는 엔비디아는 인터브랜드의 100대 브랜드 목록에 이름을 올리지 못했다. 맥도날드, 스타벅스, 디즈니 등 소비자들에게 친숙한 브랜드들이 엔비디아보다 높은 순위를 차지했다. 엔비디아의 급성장은 챗GPT와 같은 생성형 AI 열풍에 힘입은 바 크다. 엔비디아는 AI 모델 훈련과 배포에 사용되는 GPU 시장의 80% 이상을 점유하며 막대한 수익을 창출하고 있다. 하지만 주요 고객이 소수 대기업과 연구기관에 한정돼 있어 일반 소비자와의 접점이 부족하다. 인터브랜드의 그렉 실버맨은 "엔비디아는 브랜드 강화에 충분한 시간과 자원을 투자하지 못했다"며 "브랜드 파워 약화는 높은 시가총액에도 불구하고 기업 가치를 제한할 수 있다"고 지적했다. 즉, 강력한 브랜드 이미지는 단순히 제품 판매를 넘어 기업의 지속적인 성장과 수익 창출에 중요한 역할을 한다는 것이다. 게이머들에겐 '친숙한 이름', 하지만 일반 소비자에겐 '낯선 존재' 엔비디아는 1991년 설립 이후 3D 게임의 핵심 기능인 디지털 삼각형을 빠르게 그리는 칩 설계에 주력해왔다. 엔비디아의 GeForce 브랜드와 녹색 로고는 게임 마니아들에게는 친숙한 존재다. 하지만 일반 소비자들에게 엔비디아는 여전히 낯설다. 엔비디아의 주요 제품인 데이터센터 GPU는 주로 델이나 HPE 같은 컴퓨터 장비 업체를 통해 기업과 기관에 판매된다. AI 모델을 훈련하려는 전문가들조차도 자체 서버 클러스터를 구축하기보다는 클라우드 제공업체를 통해 엔비디아 GPU를 이용하는 경우가 많다. 브랜드 인지도 상승 중…'아시아의 GAFA' 꿈꾼다 엔비디아의 브랜드 인지도가 낮다고 해서 무시할 수는 없다. 칸타 브랜드Z의 글로벌 100대 브랜드 순위에서 엔비디아는 6위에 올랐고, 브랜드 가치는 1년 만에 178% 상승한 약 2020억 달러로 평가됐다. 지난달 반다 리서치 조사에서는 개인 투자자들 사이에서 가장 널리 알려진 주식으로 떠오르기도 했다. 인터브랜드의 그렉 실버맨은 "엔비디아의 브랜드 인지도가 지난 12개월 동안 4배나 상승했다"며 "다음 순위에는 100대 브랜드에 포함될 가능성이 높다"고 전망했다. 젠슨 황 엔비디아 CEO는 "아시아의 GAFA(구글, 애플, 페이스북, 아마존)가 될 것"이라는 포부를 밝힌 바 있다. 엔비디아가 AI 시대 핵심 기업으로 자리매김하면서 브랜드 인지도 역시 빠르게 높아질 것으로 예상된다.
-
- IT/바이오
-
엔비디아, 시총 왕좌 올랐지만…브랜드 인지도는 '아직'
-
-
[퓨처 Eyes(40)] AI PC, 혁신인가 과장인가?…차세대 컴퓨팅의 가능성과 한계
- 생성형 인공지능(AI) 기술의 급속한 발전에 따라 차세대 컴퓨터로 불리는 AI PC에 업계의 관심이 쏠린다. 지난 2022년 메타버스에 이어 지난해에는 양자 컴퓨팅이 큰 주목을 받았다면, 올해는 AI가 전 산업 생태계를 휩쓸고 있다. 최근 AI는 기술 분야의 핵심 화두로 떠올랐으며, PC 업계는 이를 활용한 제품 개발에 열을 올리고 있다. 그렇다면 AI PC는 무엇일까? AI PC는 인공지능(AI) 작업에 특화된 개인용 컴퓨터다. 기존 PC와 마찬가지로 CPU와 GPU를 갖추고 있지만, AI 작업 가속화를 위한 NPU(신경망 처리 장치)가 추가로 탑재되어 있다. 미국 기술 전문매체 톰스 하드웨어에 따르면 AI PC에 대한 명확한 정의는 아직 없다. 마이크로소프트(MS)는 최신 NPU, CPU, GPU를 포함하고 마이크로소프트 코파일럿(Microsoft Copilot) 및 코파일럿 키를 탑재한 PC를 AI PC로 정의한다. 그러나 이 정의는 AMD와 인텔의 NPU와 코파일럿을 탑재했지만 코파일럿 키가 없는 일부 PC를 제외한다. 또한, 코파일럿 키는 단순히 코파일럿 실행 단축키 역할을 하므로 필수적인 요소는 아니라고 톰스 하드웨어는 전한다. 인텔과 AMD는 AI PC를 CPU, GPU, NPU를 통해 AI 작업을 최적으로 실행하도록 설계된 PC로 정의한다. 현재 대부분의 노트북 제조사는 인텔, AMD 또는 퀄컴 프로세서를 탑재한 AI PC를 생산한다. 그렇다면 NPU란 무엇일까? NPU는 '신경망 처리 장치(Neural Processing Unit)'의 약자로, AI 작업 부하를 위해 특별히 설계된 병렬 컴퓨팅 전문 프로세서다. NPU는 신경망, 딥러닝, 머신러닝 등 AI 연산에 특화된 프로세서로, AI 작업을 더욱 빠르고 효율적으로 처리할 수 있게 해준다. 선성전자는 인체가 신경계를 통해 자극을 감지하고 신호를 전달하며 적절한 판단을 내리고 자극에 반응하는 것처럼 NPU는 인간의 두뇌와 유사한 방식으로 작동한다고 설명했다. 즉 NPU는 인간의 뇌처럼 서로 동시에 신호를 주고 받는 수많은 신경셰포와 시냅스로 구성돼 있으며, AI가 탑재돼 스스로 학습하고 의사결정을 할 수 있다는 점에서 인공지능 칩이라고 할수 있다고 덧붙였다. 과학 전문 매체 안드로이드 오소리티에 따르면 NPU는 독립적으로 존재할 수도 있지만, 더욱 친숙한 CPU 및 GPU 구성 요소와 함께 SoC(시스템 온 칩)에 직접 통합되는 경우가 점점 더 늘어나고 있다. NPU는 다양한 형태와 크기로 제공되며 칩 설계자에 따라 조금씩 다른 명칭으로 불린다. 이미 스마트폰 곳곳에서 다양한 NPU 모델을 찾아볼 수 있다. 퀄컴은 스냅드래곤 프로세서에 헥사곤을, 구글은 클라우드와 모바일 텐서 칩에 TPU를, 삼성은 엑시노스에 자체 NPU를 탑재했다. NPU는 이제 노트북과 PC 분야에서도 활용된다. 예를 들어, 최신 애플 M4에는 뉴럴 엔진이, 스냅드래곤 X 엘리트 플랫폼에는 퀄컴의 헥사곤 기능이 탑재되어 있으며, AMD와 인텔은 최신 칩셋에 NPU를 통합하기 시작했다. 완전히 동일하지는 않지만, 엔비디아의 GPU는 인상적인 숫자 처리 능력으로 그 경계를 모호하게 한다. NPU는 점점 더 많은 곳에 사용되고 있다. AI PC가 정말 필요할까? 현재로서는 AI 기능은 아직 초기 단계이며, 많은 인기 있는 챗봇과 마이크로소프트 코파일럿의 기능은 클라우드 기반으로 제공된다. 일부 노트북 제조사는 독점적인 AI 기능을 제공하지만, 대부분의 AI 기능은 아직 개발 중이며 실제 활용도는 불분명하다. NPU는 비디오 재생과 같은 일반적인 작업을 훨씬 낮은 전력으로 수행하여 배터리 수명을 절약할 수 있다는 장점이 있다. 일부 웹 브라우저는 GPU를 사용하여 비디오의 AI 업스케일링을 수행하지만, 곧 NPU로 전환될 예정이다. NPU는 오디오, 비디오 또는 사진 편집과 같은 작업을 수행할 때 CPU 또는 GPU보다 훨씬 낮은 전력으로 백그라운드 노이즈 제거와 같은 작업을 처리할 수 있다. 결론적으로, AI PC의 핵심 기능은 배터리 수명 연장이 될 수 있다. NPU 사용으로 노트북 배터리 수명이 크게 향상될 수 있다. 그러나 AI 기능은 아직 초기 단계이므로, 현재 PC가 제 기능을 하고 보안 업데이트를 받고 있다면 더 강력한 기술과 다양한 AI 도구가 출시될 때까지 기다리는 것이 좋다고 톰스 하드웨어는 전한다. AI PC는 더 안전할까? AI PC는 클라우드 대신 로컬에서 AI 작업을 처리하므로 보안 측면에서 장점을 제공할 수 있다. 그러나 AI 기능 자체의 보안도 중요하다. 최근 마이크로소프트는 개인 정보 보호 문제로 인해 새로운 AI 기능인 리콜(Recall)을 코파일럿+ 기능에서 제외했다. 기업에서 중요한 데이터를 처리하는 경우 로컬에서 AI 작업을 처리하는 것이 더 안전할 수 있다. 그러나 현재 시장에 출시된 대부분의 AI 기능은 중요한 비즈니스 도구는 아니다. 현재 'AI PC'라는 용어는 아직 모호한 측면이 있다. CPU 제조업체와 마이크로소프트는 강력한 NPU를 탑재한 새로운 컴퓨터(현재는 노트북만 해당)를 판매하기 위해 이 용어를 사용한다. 사람들이 실제로 사용하는 대부분의 생성형 AI 기능(챗봇, 이미지 생성기)은 클라우드에서 무료로 사용할 수 있으므로 로컬 형태에서는 필수적인 기능은 아니다. 그러나 NPU는 비디오 재생과 같은 일반적인 작업을 훨씬 낮은 전력으로 수행하여 배터리 수명을 절약할 수 있다는 장점이 있다. 일부 웹 브라우저는 현재 GPU를 사용하여 비디오의 AI 업스케일링을 수행하지만, 곧 NPU로 전환될 예정이다. NPU는 오디오, 비디오 또는 사진 편집과 같은 작업을 수행할 때 CPU 또는 GPU보다 훨씬 낮은 전력으로 백그라운드 노이즈 제거와 같은 작업을 처리할 수 있다. AI PC는 분명히 미래 컴퓨팅의 가능성을 보여주지만, 아직 극복해야 할 과제도 많다. 소비자들은 AI PC 구매 시 이러한 단점들을 충분히 고려하고, 자신의 필요와 예산에 맞는 제품을 선택해야 한다.
-
- 포커스온
-
[퓨처 Eyes(40)] AI PC, 혁신인가 과장인가?…차세대 컴퓨팅의 가능성과 한계
-
-
인텔, 대만TSMC와 손잡고 엔비디아 대대적 반격
- 인텔이 대만 파운드리(반도체 위탁생산) 기업 TSMC와 협력해 차세대 AI(인공지능) 프로세서 생산에 나섰다. 인텔은 엔비디아의 그래픽처리장치(GPU)보다 3분의 1 수준의 낮은 가격에 AI 가속기를 공급하겠다는 구상도 밝히며 엔비디아에 대해 대대적인 반격을 선언했다. 팻 겔싱어 인텔 CEO는 4일(현지시간) 대만 타이베이 난강 전시장에서 열린 ‘컴퓨텍스 2024’ 전시회 기조연설에서 올해 하반기 출시할 AI 프로세서 '루나 레이크'를 처음으로 소개했다. 제품은 인텔 내부가 아닌 TSMC의 3㎚(나노미터·1㎚는 10억분의 1m) 공정에서 생산될 예정이다. 루나 레이크는 시스템온칩(SoC) 전력을 전작 대비 최대 40% 줄이고 AI 컴퓨팅 성능은 3배 이상 높인 프로세서다. 겔싱어 CEO는 올해 '루나 레이크'와 '애로우 레이크'를 출시한 데 이어 내년에는 '팬더 레이크'를 내놓겠다고 설명했다. 인텔의 서버용 CPU '제온 6' 칩도 선보였다. 6세대 프로세서 제온 6는 전작 대비 최대 4.2배 성능이 향상됐다. 이날 겔싱어 CEO는 AI칩 선두 기업인 엔비디아에 대응하기 위한 전략도 밝혔다. 뛰어난 가성비를 앞세워 엔비디아의 유일한 대항마로 자리매김한다는 전략이다. 인텔은 AI 시장에서 엔비디아와 AMD에게 빼앗긴 시장점유율을 되찾기 위한 분투하고 있다. 갤싱어 CEO는 "인텔의 AI 가속기 '가우디 2'는 경쟁사 AI용 GPU 가격의 3분의 1, '가우디 3'는 경쟁사 GPU 가격의 3분의 2 수준”이라고 말했다. 그는 "가우디 3는 동급 규모의 엔비디아 H100 GPU에 비해 학습 시간이 최대 40% 빠르다"며 "거대 언어모델(LLM)을 실행할 때 엔비디아 H100 대비 평균 최대 2배 빠른 추론을 제공할 것으로 예상된다"고 밝혔다 겔싱어 CEO는 삼성과의 협업도 언급했다. 그는 "삼성메디슨과 AI를 활용한 초음파 솔루션 관련해 협업하고 있다"며 “의사들은 AI를 활용해 쉽고 빠르게 초음파 이미지를 캡처할 수 있게 됐다"고 설명했다. 인텔은 연내 18A(1.8나노) 공정 양산에 들어가겠다고 한 기존 발표도 계획대로 진행되고 있다고 밝혔다. 겔싱어 CEO는 “다음 주에 18A 웨이퍼에서 나온 첫번째 칩을 구동시킬 예정”이라고 말했다. 이에 앞서 인텔은 18A 공정은 올해 말, 14A(1.4나노)공정은 2027년부터 도입해 TSMC와 삼성전자를 빠르게 따라잡겠다는 포부를 밝혔다. 2030년까지 세계 2위 파운드리가 돼 업계 리더십을 회복하겠다는 구상이다.
-
- IT/바이오
-
인텔, 대만TSMC와 손잡고 엔비디아 대대적 반격
-
-
엔비디아, 차세대AI 그래픽처리장치 '루빈' 공개⋯2026년 출시
- 인공지능(AI) 반도체시장을 주도하고 있는 엔비디아가 차세대 AI 그래픽처리장치(GPU)인 '루빈'을 공개했다. 2일(현지시간) 로이터통신 등 외신들에 따르면 젠슨 황 엔비디아 최고경영자(CEO)는 이날 국립대만대학교 체육관에서 2026년부터 루빈을 양산할 계획이라고 밝혔다. 황 CEO는 루빈 GPU에 6세대 고대역폭메모리(HBM)인 'HBM4'가 채택될 것이라고 말했다. 다만 세부 사양에 대해서는 말을 아꼈다. 내년 출시 예정인 블랙웰 후속 제품을 깜짝 공개함으로써 엔비디아가 AI 반도체 시장 우위를 강화하고 있다는 평가다. 외신들은 루빈 GPU에 세계 최대 파운드리(반도체 수탁생산) 업체인 대만 TSMC의 3나노미터(nm·10억분의 1m) 공정 제품이 채택될 것이라며 루빈은 HBM4를 사용하는 최초의 GPU가 될 것이라고 보도했다. 또 황 CEO는 최근 실적 발표에서 밝힌 '매년 신제품 출시' 계획과 관련해 2년 전 공개한 자사의 호퍼 아키텍처의 후속 기술인 블랙웰 GPU 플랫폼의 정식 운영을 시작할 예정이라고 밝혔다. 그는 2025년 출시되는 블랙웰 울트라 GPU에는 HBM 5세대인 HBM3E 제품이 탑재된다고 말했다. 아울러 황 CEO는 엔비디아가 곧 자체 중앙처리장치(CPU) '베라'를 출시하고 2027년에는 루빈 울트라 GPU를 선보일 예정이라고 밝혔다. 황 CEO는 생성형 AI 부상이 새로운 산업혁명을 가져왔다며 AI 기술이 개인용 PC에 탑재될 때 엔비디아가 중요한 역할을 할 것으로 기대했다. 또 엔비디아가 클라우드 서비스 제공업체(CSP) 고객을 넘어 고객 기반을 더욱 확대하면 많은 기업과 정부가 AI를 수용할 것이라고 전망했다. 황 CEO는 "새로운 컴퓨팅 시대가 시작됐다"며 "미래의 노트북은 AI에 의해 강화된 애플리케이션을 통해 글쓰기, 사진 편집부터 디지털 휴먼에 이르기까지 뒤에서 끊임없이 도움을 줄 것"이라고 말했다.
-
- IT/바이오
-
엔비디아, 차세대AI 그래픽처리장치 '루빈' 공개⋯2026년 출시
-
-
일론 머스크, 세계 최강 AI 슈퍼컴퓨터 구축…오픈AI·구글 딥마인드·MS 등과 경쟁
- 일론 머스크(Elon Musk)의 인공지능(AI) 스타트업 xAI가 AI 챗봇 그록(Grok)을 강화하고 AI 기술과 시장을 재정립한다는 목표로 세계에서 가장 강력한 슈퍼컴퓨터를 구축할 계획이라고 ICT 전문 매체 더 인포메이션 등 외신이 전했다. xAI는 이를 위해 클라우드 인프라 및 엔터프라이즈 소프트웨어 글로벌 공급자인 오라클(Oracle)과 협력한다. 두 업체의 제휴에 따라 오라클은 xAI에 AI 프로젝트 개발을 가속하는 데 필요한 자원과 전문 지식을 제공할 예정이다. 이 슈퍼컴퓨터는 오는 2025년 가을에 완성된다. xAI는 이를 통해 컴퓨팅 부문의 기가팩토리(Gigafactory of Computing)를 건설한다는 방침이다. 기가팩토리는 머스크의 전기자동차 메이커 테슬라의 생산 공장을 지칭한다. xAI는 초기의 펀딩 라운드 성공에 이어 180억 달러의 기업 가치 평가로 60억 달러의 투자를 확보했다. 기가컴퓨터로 제안된 슈퍼컴퓨터는 현재 AI 데이터센터 칩의 업계 표준인 엔비디아(Nvidia)의 H100 그래픽 처리 장치(GPU)의 방대한 조합으로 구성된다. 머스크는 이 슈퍼컴퓨터가 기존의 최대 GPU 조합보다 최소 4배 더 커질 것으로 예상하면서, 이 컴퓨터가 AI 기능을 발전시키는 데 필요한 획기적인 컴퓨팅 성능을 발현할 것이라고 강조했다. 엔비디아의 H100 GPU는 복잡한 AI 작업을 처리하는 탁월한 성능으로 시장에서 가장 인기를 끌고 있는 제품이다. 그러나 폭발적인 수요 증가로 인해 공급량이 제한되고 있어 기업들은 충분한 수량을 확보하는 데 어려움을 겪고 있다. 최근 파리에서 열린 ‘비바테크(VivaTech) 2024’ 컨퍼런스에서 머스크는 xAI의 행보에 대해 낙관론을 밝혔다. 그는 2024년 말까지 오픈AI, 마이크로소프트, 구글 딥마인드(DeepMind) 등 AI 업계 선두들과 본격적으로 경쟁할 수 있을 것이라고 자신했다. 머스크는 2025년 말 슈퍼컴퓨터가 본격 가동되면 xAI의 챗봇 그록과 같은 AI 시스템이 다양한 작업에서 인간의 능력을 능가할 수 있을 것이라고 예측하기도 했다. 아직 개발 초기 단계에 있는 그록은 자연스러운 대화에 최적화된 강력한 딥러닝 기반 AI 언어 모델이다. 그록은 자연어 프롬프트를 사용해 수행되는 창의적인 콘텐츠 및 기타 여러 작업을 생성하게 된다. 머스크에 따르면 그록의 후속인 그록2 모델은 대규모 언어 모델 훈련을 위해 약 2만 개의 엔비디아 GPU가 들어갔다. 10만 개의 엔비디아 칩이 들어갈 후속 그록3 차세대 버전이 개발되면 현재의 기능을 크게 능가할 것이라고 머스크는 강조했다. 한편, 머스크는 지난해 여름 xAI를 설립했다. 그는 27일(현지시간) 60억달러(약 8조 1756억원)의 자금 조달을 발표하면서 "이 자금이 스타트업의 첫 번째 제품을 시장에 출시하고 고급 인프라를 구축하며 미래 기술의 연구 개발을 가속화하는 데 도움이 될 것"이라고 밝혔다. xAI에 따르면 이번 라운드 자금은 안드레센 호로위츠, 세쿼이아 캐피탈, 사우디아라비아 왕자 알 왈리드 빈 탈랄 등이 투자자로 참여했다. 지난해 미 증권거래위원회(SEC)에 제출한 자료에 다르면 xAI는 최대 10억 달러의 지분 투자를 유치할 계획이며 몇달 전 파이낸셜타임스는 최대 60억달러를 모색하고 있다고 보도했다. AI개발을 지하는 하드웨어는 상당히 비싸며 엔비디아가 곧 출시할 '블랙웰 B200(Blackwell B200)' AI그래픽 카드의 가격은 개당 3만달러(약 4000만원)~4만달러(약 5449만원)에 달한다고 ICT 전문매체 더 버지는 전했다.
-
- IT/바이오
-
일론 머스크, 세계 최강 AI 슈퍼컴퓨터 구축…오픈AI·구글 딥마인드·MS 등과 경쟁
-
-
엔비디아가 AI 분야 최고 칩제조사인 이유
- 월스트리트에서는 매년 네 차례, 해피 엔비디아 데이(Happy Nvidia Day)라는 이름의 행사가 열린다. 분기마다 발표되는 실적 보고다. 엔비디아는 지난 1분기 매출이 260억 달러로 작년 4분기보다 18%, 전년 동기보다 262% 증가했다며 호실적을 발표했다고 마켓플레이스가 23일(이하 현지시간)보도했다. 이는 엔비디아 주가가 불과 1년도 안 돼 2배 이상 폭등한 데 이어 나온 강력한 결과다. 엔비디아는 대규모 생성형 AI(인공지능) 모델을 훈련하고 운영하는 데 필요한 반도체 칩을 공급하는 지배적 사업자이기 때문에 기록한 실적이다. ‘지배적 사업자’라는 용어는 겸손한 표현일 수도 있다. 엔비디아는 전문 AI 칩 시장의 90% 이상을 장악하고 있는 것으로 추정된다. 물론 생성형 AI 칩이라는 한 조각의 파이 시장에 눈독을 들이는 경쟁사업자들은 적지 않다. 엔비디아가 AI 경제에서 슈퍼스타로 가는 길은 행복한 우연에서 시작됐다. 본연의 사업 모델이 AI와 딱 들어 맞았던 것이다. 모두가 알고 있듯이 엔비디아는 그래픽을 처리하기 위한 그래픽처리장치(GPU)를 개발 공급하는 글로벌 전문 회사다. '칩전쟁: 세상에서 가장 중요한 기술을 위한 싸움'의 저자인 크리스 밀러는 "GPU는 과거 오랜 기간 대부분 컴퓨터 게임 용도로 사용됐다“라고 말했다. 그러던 것이 AI 시장이 폭발하면서 빛을 발하기 시작했다는 것. GPU는 여러 계산을 순차적으로 실행하는 것이 아니라, 한 번에 여러 계산을 수행할 수 있다. 그리고 동시에 수행하는 일련의 계산이 AI 시스템을 훈련하고 도입하는 데 유용하다는 것이 밝혀졌다. 기술 연구 및 컨설팅 회사인 퓨처럼 그룹(Futurum Group)의 CEO이자 기술 분석가인 대니얼 뉴먼은 엔비디아의 경영진들이 선행자로서의 우위를 잘 살리고 유지했다고 지적했다. 그는 "엔비디아는 단순히 GPU를 많이 팔자는 비전에 머물지 않고 전 세계 생성형 AI 공장이 되겠다는 비전을 갖고 있다"고 설명했다. 엔비디아는 그 결과 네트워킹 기술에서 소프트웨어에 이르기까지 AI에 맞춘 생태계를 만들어 냈다. 뉴먼은 엔비디아는 기본적으로 AI의 모든 과정을 단축시키고 있다"라고 말했다. 웨드부시 시큐리티(Wedbush Securities)의 기술 분석가인 댄 아이브스는 이것이 경쟁사들이 엔비디아를 따라잡기 어려운 이유라고 분석했다. NBA 스타 르브론 제임스가 유치원생들과 일대일로 경기하는 것과 마찬가지라는 것이다. 하지만 몇몇 경쟁사들도 인상적인 움직임을 보이고 있다. AMD와 인텔은 엔비디아의 칩 성능에 필적할 프로세서를 갖고 있다. 아마존, 마이크로소프트 그리고 알파벳은 그들만의 칩을 만들고 있다. 구글의 최신 제미나이 모델은 자신의 AI 프로세서에 의해 훈련되고 있다. 아이브스는 "앞으로 AI 경쟁은 '왕좌의 게임'이 될 것"이라고 말했다. 그러나 현재는 빅테크 기업들이 여전히 엔비디아의 칩을 사들이기 위해 수십억 달러를 쏟아붓고 있다. 도전은 많지만 엔비디아의 아성은 당분간 쉽게 무너지지 않을 것이라는 분석이다. 한편, AI 붐의 수혜주인 인베디아 주가가 실적 호조에 힘입어 급등하면서 엔비디아의 시가총액이 300조원 가까이 증가했다. 젠슨 황 CEO의 자산도 동반 급증했다. 로이터통신은 23일 시장조사기관 LSEG 자료를 인용, 이날 엔비디아 주가가 9.32% 오른 1037.99 달러로 종가 기준 1천 달러 선을 처음 넘어서면서 시총도 2180억 달러(약 298조7000억원)가량 늘어났다고 전했다. 이날 엔비디아의 시총 증가분은 어도비의 전체 시총과 맞먹는다. 1거래일 기준으로 이러한 시총 증가는 월가 역사상 두 번째 규모로, 첫 번째 역시 엔비디아가 지난 2월 실적 발표 당시 기록한 2770억 달러(약 379조5000억원)였다. 미 증시 시총 규모 3위인 엔비디아의 시총은 이날 2조5530억 달러(약 3497조원)를 기록, 1위 마이크로소프트(MS)의 3조1700억 달러(약 4343조원), 2위 애플의 2조8700억 달러(약 3932조원)를 바짝 추격했다. 엔비디아 주가의 이날 급등은 전날 실적 발표에 따른 것이다. 이에 따라 자산 대부분이 엔비디아 주식인 황 CEO의 순자산은 85억 달러(약 11조6000억원)가량 증가한 913억 달러(약 125조원)가 됐다. 황 CEO는 블룸버그 억만장자 지수에서 미국 유통업체 월마트 창업자 가문의 3명을 제치고 17위를 차지했다.
-
- IT/바이오
-
엔비디아가 AI 분야 최고 칩제조사인 이유
-
-
"삼성전자 HBM칩, 엔비디아 테스트 통과 지연…발열 등 문제"
- 삼성전자의 현재 고대역폭 메모리(HBM) 기술이 엔비디아의 기준에 부적합한 것으로 알려졌다. 삼성전자가 미국 반도체업체 엔비디아에 고대역폭 메모리(HBM)를 납품하기 위한 테스트를 아직 통과하지 못했다고 로이터통신이 3명의 익명 소식통을 인용해 24일 보도했다고 연합뉴스가 전했다. 소식통들은 삼성전자 HBM의 발열과 전력 소비 등이 문제가 됐다고 전했다. 현재 인공지능(AI)용 그래픽처리장치(GPU)에 주력으로 쓰이는 4세대 제품 HBM3을 비롯해 5세대 제품 HBM3E에 이러한 문제가 있었다는 것. 삼성전자는 지난해부터 엔비디아의 HBM3와 HBM3E 테스트 통과를 위해 노력해왔으며, 지난달 HBM3E 8단 및 12단 제품 테스트 결과가 나왔다. 지난 3월 젠슨 황 엔비디아 최고경영자(CEO)가 엔비디아 연례 개발자 콘퍼런스 'GTC 2024'의 삼성전자 부스를 찾아 HBM3E 12단 제품에 '젠슨 승인'(JENSEN APPROVED)이라고 사인을 해서 시장에서는 테스트 통과 기대감이 높아졌지만, 결과는 다르게 나왔다. 지적된 문제를 쉽게 수정 가능할지는 아직 명확하지 않지만, 소식통들은 투자자들 사이에 삼성전자가 HBM 분야에서 경쟁사인 SK하이닉스와 마이크론테크놀로지에 더 뒤처질 수 있다는 우려가 나온다고 전했다. 삼성전자는 세계 D램 시장 1위업체다. 그러나 HBM 시장 주도권은 10년 전부터 HBM에 적극적으로 '투입'해온 경쟁사 SK하이닉스가 쥐고 있다. SK하이닉스는 GPU 시장의 80% 이상을 장악한 엔비디아에 HBM3를 사실상 독점 공급해왔으며, 지난 3월에는 HBM3E(8단)를 양산해 엔비디아에 공급하기 시작했다. HBM 경쟁에서 주도권을 놓친 삼성전자는 지난 21일 반도체 사업부 수장을 전격 교체했다. 삼성전자는 전영현 미래사업기획단장(부회장)을 반도체 사업을 담당하는 디바이스솔루션(DS)부문장에 임명했다. 로이터는 삼성전자는 구체적인 언급을 피하면서도 HBM에는 고객사의 필요에 맞춰 최적화 과정이 필요하다면서 고객사들과 긴밀히 협조하고 있다고 밝혔다고 전했다. 엔비디아는 로이터의 논평 요청에 입장을 밝히지 않았다. 삼성전자는 이날 공식 입장을 내고 HBM의 공급을 위한 태스트를 순조롭게 진행중이라고 밝혔다. 삼성전자는 "현재 다수의 업체와 긴밀하게 협력하며 지속적으로 기술과 성능을 테스트하고 있다"며 "HBM의 품질과 성능을 철저하게 검증하기 위해 다양한 테스트를 수행하고 있다"고 설명했다. 이어 "삼성전자는 모든 제품에 대해 지속적인 품질 개선과 신뢰성 강화를 위해 노력하고 있으며, 이를 통해 고객들에게 최상의 설루션을 제공할 예정"이라고 덧붙였다. 한편, 고대역폭 메모리 (HBM)는 인공지능(AI) 분야에서 핵심적인 역할을 하는 기술이다. 기존 메모리에 비해 훨씬 빠른 데이터 처리 속도와 높은 효율성을 제공하기 때문에 AI 애플리케이션의 성능 향상에 크게 기여한다. AI는 방대한 양의 데이터를 처리하고 분석해야 하는 특성을 가지고 있다. HBM은 기존 메모리보다 훨씬 빠른 데이터 전송 속도를 제공하여 AI 모델의 학습 및 추론 속도를 대폭 향상시킬 수 있다. 특히, 이미지 인식, 자연어 처리, 머신러닝 분야에서 HBM의 빠른 처리 속도는 모델의 정확성을 높이고 처리 시간을 단축하는 데 중요한 역할을 한다. 또한 HBM은 기존 메모리에 비해 낮은 전력 소비로 작동한다. 이는 데이터 센터 환경에서 AI 모델을 운영할 때 중요한 요소다. 낮은 전력 소비는 운영 비용 절감뿐만 아니라 발열량 감소에도 기여해 시스템의 안정성을 높일 수 있다. HBM은 앞으로 더욱 발전할 AI 기술의 요구 사항을 충족시킬 수 있는 잠재력을 가지고 있다. 예를 들어, 인공지능 기반의 자율주행, 스마트 시티, 첨단 의료 시스템 등의 분야에서 HBM은 핵심적인 역할을 할 것으로 예상된다.
-
- IT/바이오
-
"삼성전자 HBM칩, 엔비디아 테스트 통과 지연…발열 등 문제"
-
-
애플, 'AI용 최신 M4 탑재' 신형 아이패드 출시
- 애플은 7일(현지시간) 자사가 개발한 인공지능(AI)용 최신 칩인 M4를 공개하고 M4를 탑재한 신형 아이패드 프로를 출시했다. 애플이 자사가 개발한 최신 칩 'M4'를 내놓으며 지지부진했던 인공지능(AI) 경쟁과 아이패드 판매에서 반전을 모색하고 나선 것이다. 로이터통신 등 외신들에 따르면 애플은 이날 오전 온라인으로 '렛 루즈(Let Lose)' 이벤트를 열고 최신 태블릿 PC인 신형 아이패드 프로와 에어를 출시했다. 애플이 새로운 아이패드를 내놓는 것은 2022년 10월 이후 18개월여만이다. 아이패드 프로는 아이패드 시리즈 가운데 최고급형이고 에어는 고급형이다. 아이패드 프로는 11인치와 13인치 모델의 두 가지 크기로 출시됐다. 11인치는 5.3㎜, 13인치는 5.1mm 두께로 역대 가장 얇은 제품이라고 설명했다. 11인치 무게는 450g도 되지 않고, 13인치는 이전보다 100g 이상 가벼워졌다. 디스플레이는 유기발광다이오드(OLED)를 이용한 '울트라 레티나 XDR'(Ultra Retina XDR)이 적용됐다. 기존에는 LCD가 사용됐으며 OLED는 아이폰에만 탑재돼 왔다. '울트라 레티나 XDR'는 두 개의 OLED 패널을 조합해 화면을 최대한 더 밝게 해주는 '탠덤 OLED'라는 기술이 적용됐다. 애플은 "세상에서 가장 앞선 디스플레이로 한층 탁월한 시각적 경험을 선사한다"고 설명했다. 특히 아이패드 프로에는 'M4'라는 애플의 최신 칩이 탑재됐다. 이는 기존 프로에 적용돼던 M2는 물론, 애플의 최신 노트북에 사용되는 M3 칩보다 앞선 칩이다. 2세대 3나노미터 공정으로 제작된 시스템온칩(SoC)인 M4를 통해 전력 효율성과 함께 얇은 디자인, 새로운 디스플레이 엔진 장착이 가능하다고 애플은 설명했다. 또 'M4' 칩이 "강력한 인공지능을 위한 칩"이라고 밝혔다. M4에는 AI의 기계 학습을 가속하기 위한 애플의 가장 빠른 뉴럴 엔진(neural engine)이 탑재됐다. 이 뉴럴 엔진은 초당 38조 회에 달하는 연산 처리 능력을 갖추고 있고, 애플의 A11 바이오닉 칩에 처음 탑재됐던 뉴럴 엔진 대비 속도는 60배 더 빠르다. 애플의 플랫폼 아키텍처 담당 부사장인 팀 밀레는 "뉴럴 엔진은 M4를 AI를 위한 강력한 칩으로 만든다"며 "뉴럴 엔진과 M4는 오늘날 어떤 AI PC의 신경망처리장치(NPU)보다 더 강력하다"고 설명했다. 가격은 11인치는 899달러, 13인치는 1199달러부터 시작한다. 애플은 이와 함께 새로운 아이패드 에어도 공개했다. 아이패드 에어는 11인치와 13인치로 출시되며, 모두 애플의 M2 칩을 장착했다. M2 칩은 M1 칩을 향상시킨 칩으로, M1을 장착한 아이패드 에어 대비 약 50%의 속도가 향상됐다. 또 중앙처리장치(CPU)의 기계학습(ML) 가속기와 강력한 그래픽처리장치(GPU) 등을 결합해 획기적인 AI 성능을 제공한다고 애플은 설명했다. 아이패드 에어는 또 화상 회의에 더 적합하도록 아이패드 프로와 같이 가로형 전면 카메라가 탑재됐다. 11인치는 599달러, 13인치는 799달러부터 시작한다. 팀 쿡 애플 최고경영자(CEO)는 이날 온라인 행사에 나와 "역대 가장 강력한 아이패드 라인업이 나왔다"고 말했다. 애플은 이와 함께 아이패드 프로 신작을 위해 새롭게 제작된 매직 키보드와 영화 제작 등에 쓰이는 아이패드용 편집 시스템 파이널 컷 프로2, 이용자의 센서를 더 잘 감지하는 애플 펜슬 프로도 선보였다. 아이패드 프로와 에어는 이날부터 미국 등 29개 국가에서 주문할 수 있고 오는 15일부터 매장에 전시된다. 우리나라 출시 일정은 아직 알려지지 않았다.
-
- IT/바이오
-
애플, 'AI용 최신 M4 탑재' 신형 아이패드 출시
-
-
[신소재 신기술(39)] 식염수로 폐전자제품서 희토류 광물 회수
- 미국 에너지부 산하 태평양 북서부 국립연구소(Pacific Northwest National Laboratory) 연구원들은 폐전자제품에서 망간, 마그네슘, 디스프로슘, 네오디뮴 등 주요 희토류를 선택적으로 회수하는 방법을 개발했다고 마이닝닷컴이 전했다. 연구팀은 간단한 혼합염 수용액과 금속 특성에 대한 지식을 활용하여 연속 흐름 반응로(챔버)에서 이러한 미네랄을 분리할 수 있었다. 두 개의 보완 연구 기사에 자세히 설명되어 있고 시애틀에서 열린 2024 재료 연구 학회(MRS) 춘계 회의에서 발표된 이 방법은 두 개의 서로 다른 액체가 지속적으로 함께 흐르는 화학 반응 챔버에 배치되었을 때 서로 다른 금속의 거동을 기반으로 합니다. 연구팀은 금속이 시간이 지남에 따라 서로 다른 속도로 고체를 형성하는 경향을 이용하여 금속을 분리하고 정제했습니다. 이 방법은 2024년 시애틀에서 열린 재료 연구 학회(MRS) 봄 회의 발표와 함께 두 편의 연구 논문에 상세히 설명되어 있으며, 두 개의 서로 다른 액체가 지속적으로 함께 연속 흐름 반응로(챔버)에서 다른 금속들의 행동을 기반으로 한다. 연구팀은 금속들이 서로 다른 속도로 고체를 형성하는 경향을 이용하여 광물을 분리 및 정제했다. 이 그룹은 2024년 2월에 처음으로 두 가지 필수 희토류 원소인 네오디뮴과 디스프로슘을 혼합 액체에서 성공적으로 분리했다고 보고했다. 기존 분리 방법에 일반적으로 필요한 30시간에 비해 4시간 만에 반응 챔버에서 두 개의 분리되고 정제된 고체가 형성되었다. 두 가지 중요한 광물은 무엇보다도 컴퓨터 하드 드라이브와 풍력 터빈에서 발견되는 영구 자석을 제조하는 데 사용된다. 지금까지 매우 유사한 특성을 가진 이러한 요소를 분리하는 것은 어려운 일이었다. 전자 폐기물에서 이를 경제적으로 회수할 수 있는 능력은 이러한 주요 광물의 새로운 시장과 공급원을 열 수 있다. 이 두 가지 중요 광물은 컴퓨터 하드 드라이브와 풍력 터빈 등에 사용되는 영구 자석 제조에 사용된다. 지금까지는 성질이 매우 유사한 이러한 원소들을 분리하는 것은 어려운 과제였다. 전자 폐기물에서 이들을 경제적으로 회수할 수 있는 능력은 이러한 중요 광물의 새로운 시장과 공급원을 열 수 있다. 마그네슘 공급원인 광산 폐기물과 염수 전자 폐기물에서 광물을 회수하는 것이 이 분리 기술의 유일한 응용 분야는 아니다. 연구팀은 바닷물은 물론 광산 폐기물과 염호 염수로부터 마그네슘을 회수하는 방법을 연구하고 있다. 수석 연구원 친푸 왕(Qingpu Wang)은 보도자료에서 “다음으로 더 많은 양의 제품을 효율적으로 회수하기 위해 원자로 설계를 수정하고 있다”고 말했다. 왕과 그의 동료 엘리아스 나쿠지(Elias Nakouzi)는 보완 기술을 사용해 용해된 리튬 이온 배터리 폐기물을 모방한 용액에서 거의 순수한 망간(>96%)을 회수할 수 있음을 보여주었다. 배터리용 망간은 전 세계적으로 소수의 회사에서 생산되며 주로 음극 또는 배터리의 음극 또는 음극에 사용된다. 본 연구에서 연구팀은 젤 기반 시스템을 사용하여 샘플 내 금속의 다양한 이동 및 반응 속도를 기반으로 물질을 분리했다. 나쿠지는 "이 프로세스의 장점은 간단하다는 것이다"라고 말했다. 그는 "고비용 또는 특수 재료에 의존하는 대신 우리는 이온 거동의 기본 원리를 다시 생각했다. 그리고 거기에서 영감을 얻었다"라고 설명했다. 연구팀은 연구 범위를 확대하고 중요 미네랄과 희토류 원소의 안정적인 국내 공급망을 제공하기 위해 환경 친화적인 새로운 분리 기술을 개발하는 PNNL의 새로운 이니셔티브인 '비평형 수송 구동 분리(NETS, Non-Equilibrium Transport Driven Separations)'를 통해 프로세스를 확장시킬 예정이다. 나쿠지는 "이 접근 방식은 복합적인 공급 흐름과 다양한 화학 성질로부터의 화학 분리와 관련하여 폭넓게 적용될 것으로 예상되며, 이는 더욱 지속 가능한 재료 추출 및 처리를 가능하게 할 것으로 기대한다"라고 말했다.
-
- 포커스온
-
[신소재 신기술(39)] 식염수로 폐전자제품서 희토류 광물 회수
-
-
[퓨처 Eyes(33)] 인텔, 인간 뇌 모방 뉴로모픽 컴퓨터 '하라 포인트' 공개
- 미국 반도체 기업 인텔은 인간 뇌의 작동 방식을 본떠 설계 및 구성된 세계 최대 규모의 뉴로모픽 컴퓨터 '하라 포인트(Hala Point)'를 개발했다고 발표했다. '하라 포인트'라고 명명된 이 컴퓨팅 시스템은 차세대 인공지능(AI) 모델을 구축하려는 연구자를 지원하도록 설계됐다. 라이브사이언스에 따르면, 하라 포인트는 1152개의 신규 인공지능 칩 '로이히 2' 프로세서로 구동된다. 인텔 측은 이 혁신적인 시스템이 기존 컴퓨터 시스템 대비 인공지능 작업 속도를 50배 향상시키고 에너지 소비량을 100배 줄일 수 있다고 주장한다. 다만, 이 수치는 아직 동료 검토를 거치지 않은 연구 결과를 기반으로 한 것임을 밝혔다. 22일(현지시간) AI비즈니스 보도에 따르면, 인텔의 새로운 뉴로모픽 컴퓨터는 에너지 사용량을 크게 줄이면서 기존 GPU 대비 최대 50배 더 빠른 성능을 제공한다. '하라 포인트'에는 최대 11억 5000만 개의 인공 뉴런과 14만 544개의 뉴로모픽 처리 코어를 지원하며, 1152개의 로이히 2 프로세서에 분산된 1288억 개의 시냅스를 탑재하고 있다. 이 강력한 하드웨어는 초당 최대 20경 회 연산, 즉 20페타옵스의 처리 성능을 제공하며, 인텔의 초기 뉴로모픽 시스템인 포호이키 스프링스(Pohoiki Springs) 대비 최대 12배 향상된 성능을 자랑한다. 하라 포인트는 기존 하드웨어 대비 50배 빠른 속도로 동작하면서도 에너지 소비량은 100배 적게 소비한다. 이는 GPU 및 CPU 기반 시스템에서 달성한 성능을 뛰어넘는 놀라운 수치이며, 인공지능 분야의 발전에 획기적인 도약을 선사할 것으로 기대된다. 하지만 뉴로모픽 컴퓨터는 슈퍼컴퓨터와 데이터 처리 방식이 달라 직접적인 비교는 어렵다. 이 혁신적인 시스템은 뉴멕시코주 앨버커키에 위치한 샌디아 국립연구소에 설치되어 장치 물리학, 컴퓨팅 아키텍처, 컴퓨터 과학 등 다양한 분야의 과학적 문제 해결에 활용될 예정이다. 기존 컴퓨터와 어떻게 다른가? 뉴로모픽 컴퓨터는 기존 컴퓨터와 아키텍처부터 근본적으로 차별화된다. 미국 오크리지 국립연구소(Oak Ridge National Laboratory)의 컴퓨터 과학자 프라사나 데이트 박사는 리서치게이트(ResearchGate)에 올린 글에서 뉴로모픽 컴퓨터가 인공 신경망을 기반으로 구축된다고 설명했다. 기존 컴퓨터는 0과 1로 이루어진 이진 데이터를 처리하는 반면, 뉴로모픽 컴퓨터는 '스파이크 입력'이라는 일련의 불연속적인 전기 신호를 사용한다. 또한, 칩 자체에 메모리와 연산 능력을 통합하여 데이터 이동 거리를 줄이고 병렬 처리를 가능하게 함으로써 전력 소비를 획기적으로 감소시킨다. 인텔은 "하라 포인트가 AI 에이전트, 대규모 언어 모델, 스마트 시티 인프라 관리와 같은 '미래 지능형 응용 분야'에 대한 실시간 연속 학습을 가능하게 할 수 있다"고 밝혔다. 인텔 랩스 뉴로모픽 컴퓨팅 랩(Neuromorphic Computing Lab)의 마이크 데비스(Mike Davies) 소장은 "오늘날 인공지능 모델의 컴퓨팅 비용이 지속 불가능한 속도로 증가하고 있다"고 지적했다. 그는 "현재 인공지능 산업은 확장 가능한 근본적으로 새로운 접근 방식을 절실히 필요로 한다"고 강조하며, 이에 인텔은 딥 러닝 효율성과 혁신적인 두뇌 영감 학습 및 최적화 기능을 결합한 첨단 뉴로모픽 컴퓨터 '하라 포인트'를 개발했다고 설명했다. 데비스 소장은 "하라 포인트를 통한 연구가 대규모 인공지능 기술의 효율성과 적응성을 크게 향상시킬 수 있을 것으로 기대한다"고 덧붙였다. 현재 하라 포인트는 연구용 프로토타입 단계라 구매는 불가능하다. 하지만 인텔은 이 혁신적인 시스템이 미래 인공지능 제품의 기반이 되고 인공지능으로 인한 컴퓨팅 집약도를 효과적으로 줄이는 데 기여할 것으로 기대하고 있다. 뉴로모픽 컴퓨팅, AI혁신 이끌까? 뉴로모픽 컴퓨팅(Neuromorphic Computing)은 인간 뇌의 놀라운 신경 가소성, 즉 경험을 통해 적응하고 변화하는 뇌의 능력을 모방하는 시스템 구축에 초점을 맞춘 첨단 연구 분야이다. 이진 코드를 사용하는 기존 컴퓨팅 시스템과 달리 뉴로모픽 시스템은 인공 뉴런과 시냅스의 복잡한 네트워크를 활용하여 정보를 처리한다. 연구자들은 뉴로모픽 컴퓨팅이 인간 두뇌의 놀라운 학습 능력을 모방하여 시스템의 효율성을 극대화하고 정보 처리 능력을 향상시킬 수 있다고 기대한다. 인공지능 시스템은 이전 경험과 데이터를 활용하여 지속적으로 학습하고 발전할 수 있을 것으로 전망된다. 인텔의 혁신적인 노력 외에도, 구글 딥마인드(Google DeepMind)는 단순히 증가하는 데이터로 AI 작업을 훈련하는 것이 아니라 메모리에서 학습하도록 가르치는 '뉴로AI(NeuroAI)' 개념을 연구하고 있다. 뉴로모픽 하드웨어 시스템의 또 다른 예로는 IBM의 '노스폴(NorthPole)' 반도체가 있다. 이는 인간 두뇌의 정보 처리 방식을 모방하지만 단일 칩에 구현된 첨단 시스템이다. 인텔의 뉴로모픽 컴퓨터 시스템은 비디오, 음성, 무선 통신 등 다양한 워크로드를 처리하는 딥 러닝 모델을 크게 강화할 수 있는 잠재력을 지닌다. 인공지능 분야의 게임 체인저인가? 초기 연구 결과에 따르면, 하라 포인트는 인공지능 작업에서 와트당 15조 연산(TOPS/W)이라는 놀라운 에너지 효율성을 달성했다. 대부분의 기존 인공 신경망 처리 장치(NPU)와 다른 인공지능 시스템들이 보여주는 와트당 10 TOPS 이하의 수치를 훨씬 뛰어넘는 성능이다. 뉴로모틱 컴퓨팅은 인공지능 응용 분야에서 특히 유망한 기술로 여겨지고 있다. 로보틱스, 자율주행 차량, 지능형 카메라 시스템, 실시간 의사 결정 시스템 등 다양한 분야에서 활용될 수 있다. 또 뉴모로틱 칩은 전력 소모가 매우 낮아 배터리 수명이 중요한 모바일 기기나 원격 센서에 적합하다. 그러나 고도의 복잡성과 대규모 통합을 요구하는 뉴로모틱 칩의 설계와 제조는 아직까지 도전 과제로 남아 있다. 또한 이 기술을 기존의 컴퓨팅 시스템과 효울적으로 통합하는 방법도 주요 과제 중 하나다. 뉴로모픽 컴퓨팅 기술은 아직 초기 개발 단계이지만, 하라 포인트와 유사한 규모의 시스템들은 빠르게 개발되고 있다. 호주 서부 시드니 대학교 국제 뉴로모픽 시스템 연구 센터(ICNS)는 2023년 12월 유사한 시스템을 배치할 계획이라고 발표했다.
-
- 포커스온
-
[퓨처 Eyes(33)] 인텔, 인간 뇌 모방 뉴로모픽 컴퓨터 '하라 포인트' 공개
-
-
일본 소프트뱅크, 챗GPT 대항 AI 인프라설비에 1.3조원 추가투자
- 일본 통신기업 소프트뱅크가 고성능 생성형 인공지능(AI) 개발에 필요한 인프라 설비에 내년까지 1500억 엔(약 1조3370억 원)을 추가로 투자한다고 닛케이(日本經濟新聞)이 22일 보도했다. 소프트뱅크는이번 추가 투자를 통해 오픈AI의 챗GPT-4와 비슷한 수준의 최고급 모델을 제작하겠다는 방침이다. 소프트뱅크는 지난해 관련 설비에 200억 엔(약 1780억 원)의 투자를 집행했다. 닛케이는 "계산기반에 대한 투자액으로는 일본 기업 중 최대 규모로 보인다"며 "그래픽처리장치(GPU)는 미국 엔비디아 반도체를 구입한다"면서 "챗GPT-4의 파라미터가 1조 규모에 달한다"고 밝혔다. 이아 "일본 기업인 NTT와 NEC 모델은 수십억~수백억 파라미터에 머문다"고 지적했다. 세계 수준의 생성형 AI 실현이 소프트뱅크의 목표라는 설명이다. 닛케이는 또 "소프트뱅크는 국산 생성형 AI 개발에 맞춰 AI 데이터 센터 정비도 추진한다"며 "최근에는 650억엔(약 5800억 원)을 투자해 홋카이도에 일본 최대급 AI 데이터 센터를 건설하기로 결정했다"고 전했다. 그러면서 "국산 생성형 AI는 경제 안보 측면에서도 중요해졌으며 정부와 기업은 자국 데이터를 국내에서 관리하는 ‘데이터 주권’을 중시하기 시작했다"고 덧붙였다. 이에 앞서 손정의 소프트뱅크그룹 회장은 지난해 10월 "소프트뱅크그룹을 세계에서 AI를 가장 많이 활용하는 그룹으로 만들고 싶다"며 AI 사업을 확대하겠다고 예고했다. 한편 독일 시장조사 업체 스태티스타는 2030년 일본의 생성형 AI 시장 규모가 지난해의 17배인 130억달러(약 17조9530억원)에 이를 것으로 예측했다.
-
- IT/바이오
-
일본 소프트뱅크, 챗GPT 대항 AI 인프라설비에 1.3조원 추가투자
-
-
SK하이닉스·TSMC, 파운드리-메모리 협력으로 HBM 시장 선점
- SK하이닉스가 세계적인 파운드리(반도체 수탁생산) 기업인 대만 TSMC와 협력해 차세대 고대역폭 메모리(HBM) 생산과 첨단 패키징 기술 역량을 강화할 계획이다. SK하이닉스는 19일, 최근 대만 타이베이에서 TSMC와 기술 협력을 위한 양해각서(MOU)를 체결하고 TSMC와 협업해 오는 2026년 양산 예정인 HBM4(6세대 HBM)를 개발할 계획이라고 발표했다. 특히, 인공지능(AI) 반도체 시장을 이끄는 기업인 엔비디아는 SK하이닉스로부터 AI 연산작업의 핵심인 그래픽처리장치(GPU)용 HBM을 공급받아 TSMC에 패키징 하도록 맡겨 이를 조달하고 있다. SK하이닉스는 "AI 메모리 분야의 글로벌 리더로서, 세계 최대 파운드리 업체인 TSMC와의 협력을 통해 HBM 기술의 새로운 혁신을 이끌어낼 것"이라며, "고객, 파운드리, 메모리 간의 협력을 통해 메모리 성능의 한계를 넘어설 것"이라고 강조했다. 양사는 HBM 패키지의 베이스 다이(base die) 성능 향상을 위해 노력하고 있다. HBM은 D램 여러 개를 수직으로 연결해 데이터 처리 속도를 혁신적으로 끌어올린 고성능 메모리다. 방대한 데이터를 신속하고 끊임없이 처리해야 하는 생성형 AI를 구동하려면 HBM과 같은 고성능 메모리가 반드시 필요한 것으로 알려졌다. HBM은 베이스 다이 위에 D램 단품 칩인 코어 다이(core die)를 쌓고, 이를 실리콘관통전극(TSV) 기술로 수직 연결해 제조한다. 베이스 다이는 GPU와 연결돼 HBM을 통제 기능을 수행한다. SK하이닉스는 HBM 4세대인 HBM3 시장의 90%를 점유하고 있다. SK하이닉스는 지난 3월 18일 HBM 5세대인 HBM3E도 이달 말부터 AI 칩 선두 주자인 엔비디아에 공급한다고 밝혔다 SK하이닉스는 5세대 HBM인 HBM3E까지는 자체 D램 공정으로 베이스 다이를 만들었으나, HBM4부터는 TSMC가 보유한 로직 초미세 선단공정을 활용해 베이스 다이에 다양한 시스템 기능을 추가할 계획이다. SK하이닉스의 HBM3E는 초당 최대 1.18테라바이트(TB)의 데이터를 처리한다. 이는 풀-HD급 영화(5GB) 230편 분량이 넘는 데이터를 1초 만에 처리하는 수준이다. HBM4는 HBM3에 비해 두 배 가까운 고속과 고용량 성능을 구현해야 한다. 이를 위해 베이스 다이는 단순히 D램 칩과 GPU를 연결하는 기능을 넘어 시스템반도체에서 요구하는 다양한 기능을 수행할 필요가 있으며, 이는 기존의 일반 D램 공정으로는 제작이 어려운 것으로 알려져 있다. SK하이닉스는 이를 통해 성능, 전력 효율 등에 대한 고객들의 폭넓은 요구에 부합하는 맞춤형 HBM을 생산할 계획이다. 또한, 양사는 SK하이닉스의 HBM과 TSMC의 첨단 패키징 공정인 '칩 온 웨이퍼 온 서브스트레이트'(CoWoS) 기술을 결합하여 최적화하는 데 협력하며, HBM 관련 고객의 요청에 공동으로 대응하기로 했다. 김주선 SK하이닉스 AI 인프라 담당 사장은 "TSMC와의 협업을 통해 최고 성능의 HBM4를 개발하는 것뿐만 아니라, 글로벌 고객들과의 개방형 협업을 가속화할 것"이라며, "앞으로 맞춤형 메모리 플랫폼의 경쟁력을 높여 '토털 AI 메모리 프로바이더'로서의 위상을 확립하겠다"고 밝혔ek. 케빈 장 TSMC 수석부사장은 "TSMC와 SK하이닉스는 수년 동안 견고한 파트너십을 유지해 왔으며, 세계 최고의 AI 솔루션을 시장에 공급해 왔다"며 "HBM4에서도 긴밀한 협력을 통해 AI 기반의 혁신을 지원할 최고의 통합 제품을 제공할 것"이라고 말했다.
-
- IT/바이오
-
SK하이닉스·TSMC, 파운드리-메모리 협력으로 HBM 시장 선점
-
-
삼성전자, 1분기 실적 '역대급' 6조6천억원 영업이익…5분기 만에 매출 70조원대
- 삼성전자가 메모리 반도체 시장의 회복과 갤럭시 S24 판매 호조 덕분에 2024년 1분기에 예상을 뛰어넘는 '깜짝 실적(어닝 서프라이즈)'을 올렸다고 발표했다. 삼성전자는 올해 1분기 연결 기준 영업이익이 6조6000억원으로 지난해 같은 기간보다 931.25% 증가한 것으로 잠정 집계됐다고 5일 공시했다. 이는 삼성전자의 지난해 전체 연간 영업이익(6조 5700억 원)을 초과하는 금액이다. 매출액은 71조 원으로 전년 동기 대비 11.37% 상승했다. 삼성전자의 분기별 매출이 70조 원을 넘은 것은 2022년 4분기(70조4646억원) 이후 처음이다. 이번 실적은 시장 예상을 20% 이상 크게 웃도는 수준이다. 최근 1개월 내에 보고서를 낸 18개 증권사의 평균 예측치를 토대로 한 연합인포맥스의 집계에 따르면, 삼성전자의 1분기 매출은 전년 동기 대비 12.88% 증가한 71조 9541억 원, 영업이익은 755.3% 증가한 5조 4756억 원으로 예상됐었다. 올해 초에는 영업이익이 4조원 대 중반을 기록할 것으로 보였으나, 메모리 감산으로 인한 가격 상승 등의 시장 상황이 개선되면서 최근 예측이 상향 조정됐다. 삼성전자의 부문별 성과는 구체적으로 발표되지 않았지만, 증권업계 분석에 따르면 삼성전자의 디바이스솔루션(DS) 부문이 7000억원에서 1조 원 사이의 영업이익을 기록, 2022년 4분기 이후 5분기 만에 흑자로 전환한 것으로 추정된다. SK증권은 DS 부문 영업이익을 1조원으로, 모바일경험(MX)·네트워크와 디스플레이(SDC)는 각각 3조7000억원, 3000억원으로 예상했다. 유진투자증권은 DS 부문의 영업이익을 9000억 원, SDC 부문을 3000억 원, MX와 네트워크를 3조 8000억 원, 영상디스플레이(VD)와 소비자가전(CE)을 3천억 원, 하만을 1천억 원으로 예측했다. 현대차증권은 DS 부문을 7000억 원, SDC 부문을 3500억 원, MX와 네트워크 부문을 3조 9000억 원, VD와 가전 부문을 3800억 원으로 추산했다. 이번 DS 부문의 성공은 D램과 낸드 가격 상승에 따른 것으로, 고부가가치 제품의 집중 판매 전략이 주효했다고 보인다. 삼성전자 메모리사업부의 김재준 부사장은 지난해 4분기 실적 발표에서 생성형 인공지능(AI)에 대응하는 고대역폭 메모리(HBM) 서버와 SSD 수요 증가에 적극 대응하여 수익성 개선에 집중하겠다고 언급한 바 있다. 한동희 SK증권 연구원은 메모리 부문의 수익성 중심 전략과 낸드 가격의 기저 효과로 인해 1분기 가격 상승이 예상을 뛰어넘을 것이라고 전망했다. 이에 따라 재고평가손실 충당금 환입의 효과가 크게 나타날 것으로 기대된다. 모바일 사업 분야에서도 인공지능(AI) 기능을 탑재한 갤럭시 S24의 뛰어난 판매 성과와 함께 스마트폰 출하량 증가로 수익성이 향상된 것으로 파악된다. 지난해 4분기에 영업 손실 500억 원을 기록했던 영상디스플레이(VD) 및 생활가전(DA) 사업부는 프리미엄 TV 및 고부가가치 가전제품의 판매 확대를 통해 수익성이 약간 개선되었다고 볼 수 있다. 이러한 상황에서 메모리 가격의 상승 추세가 지속되면서 삼성전자의 실적 개선 추세가 앞으로도 이어질 것으로 보인다. 대만의 시장조사업체 트렌드포스에 따르면, 1분기 D램의 평균 판매가격(ASP)이 전 분기 대비 최대 20% 상승한 뒤, 2분기에는 3%에서 8% 사이로 추가 상승할 것으로 전망된다. 낸드 가격 역시 1분기에 23%에서 28% 상승한 후, 2분기에는 13%에서 18% 상승할 것으로 예상된다. 연합인포맥스가 집계한 바에 따르면, 삼성전자의 2분기 영업이익 예상치는 전년 동기 대비 약 10배 증가한 7조 3634억 원에 달한다. 또한, 2분기 매출 전망치는 전년 동기 대비 20.73% 증가한 72조4469억 원으로 추정된다. HBM 수요 증가로 실적 개선 기대 HBM(고대역폭 메모리)의 수요 증가가 실적 개선에 기여할 것으로 예상된다. 생성형 AI 서비스의 확장에 힘입어 그래픽 처리 장치(GPU)와 신경망 처리 장치(NPU)의 출하량이 증가하면서, HBM 시장은 2026년까지 빠른 성장세를 유지할 것으로 보인다. 삼성전자는 업계에서 처음으로 D램 칩을 12단까지 쌓는 5세대 HBM, HBM3E를 올해 상반기부터 생산할 계획이며, 올해 HBM 출하량을 지난해 대비 최대 2.9배 증가시킬 예정이다. 김광진 한화투자증권 연구원은 "경쟁사와의 HBM 개발 로드맵 차이를 줄이는 것이 중요하다"며 "삼성전자가 여전히 후발 주자이긴 하지만, 과거 대비 경쟁사와의 기술 격차가 줄어든 것은 긍정적인 신호"라고 평가했다. 파운드리 사업 역시 수주 증가와 수율 개선에 힘입어 4분기에는 흑자 전환될 것으로 전망된다. 대신증권의 신석환 연구원은 "지난해 파운드리 사업이 큰 적자를 기록했지만, 올해는 최대 수주 기록과 함께 하반기 흑자 전환이 기대된다"며 "하반기 HBM 공급 확대와 레거시 제품에 대한 수요 증가로 인해 실적 성장이 예상보다 빠를 것"이라고 내다봤다. 엎서 인공지능(AI) 칩 선두주자인 미국 반도체 기업 엔비디아의 젠슨 황 최고경영자(CEO)는 지난 3월 19일 엔비디아의 연례 개발자 회의인 'GTC 2024' 둘째날 삼성이 아직 HBM3E의 양산에 대해 발표하지 않았음에도 삼성의 HBM이 현재 검증 단계를 거치고 있다고 확인했다. 젠슨 황 CEO는 삼성의 12단 HBM3E 디스플레이 옆에 '젠슨 승인'이라고 서명까지 해 삼성의 HBM3E가 검증 과정을 통과할 가능성이 높다는 추측을 불러일으켰다. 황 CEO는 '삼성의 HBM을 사용하고 있느냐'라는 질문에 "아직 사용하고 있지 않다"면서도 "현재 테스트하고(qualifying) 있으며 기대가 크다"고 말했다. HBM은 D램 여러 개를 수직으로 연결해 데이터 처리 속도를 크게 높인 제품으로 고성능 컴퓨팅 시스템에 사용되는 차세대 메모리 기술이다. 방대한 데이터를 신속하고 끊임없이 처리해야 하는 생성 AI를 구동하려면 HBM과 같은 고성능 메모리가 반드시 필요한 것으로 알려져 있다.
-
- IT/바이오
-
삼성전자, 1분기 실적 '역대급' 6조6천억원 영업이익…5분기 만에 매출 70조원대
-
-
SK하이닉스, 5조3천억원 투자 미국 인디애나주 반도체 패키징공장 건설
- SK하이닉스가 미국 인디애나주 서부 웨스트 라피엣에 첨단 반도체 패키징 공장을 건설할 계획이다. 월스트리트저널(WSJ)은 26일(현지시간) 소식통을 인용해 SK하이닉스가 반도체공장 건설을 위해 40억 달러(약 5조3000억 원)를 투자하며 2028년 가동을 개시할 계획이라고 보도했다. SK하이닉스 이사회는 조만간 이 결정을 승인할 것으로 알려졌다. 소식통은 이 공장 건설로 800∼1000개의 일자리가 창출되며 미국 연방정부와 주 정부의 세금 인센티브 등 지원이 프로젝트 자금 조달에 도움이 될 것이라고 설명했다. 공장이 들어서는 인디애나주 웨스트 라피엣에는 미국 최대 반도체 및 마이크로 전자공학 프로그램을 운영하는 대학 중 한 곳인 퍼듀대학이 있다. SK하이닉스는 대만 반도체 기업 TSMC와 인텔 공장이 들어서는 등 반도체 산업이 급성장하고 있는 애리조나주도 고려했으나 퍼듀대를 통해 엔지니어 풀을 확보할 수 있다는 이점을 감안해 인디애나주를 최종 선택했다고 소식통은 지적했다. 패키징은 웨이퍼 형태로 생산된 반도체를 자르고 전기 배선 등을 연결해 전자 기기에 탑재할 수 있는 형태로 조립(패키징)하는 반도체 생산의 마지막 단계다. 이에 앞서 지난 1일 영국 파이낸셜타임스(FT)는 SK하이닉스가 인디애나주를 반도체 패키징 공장 부지로 선정했으며, 이 공장은 엔비디아의 그래픽처리장치(GPU)에 들어갈 고대역폭 메모리(HBM) 제조를 위한 D램 적층에 특화한 시설이 될 것이라고 복수의 소식통을 인용해 보도했다. 세미애널리틱스의 딜런 파텔 수석 애널리스트는 "SK하이닉스 공장은 미국에서 대규모 HBM(고대역폭 메모리) 패키징을 위한 첫 번째 주요 시설이 될 것"이라고 예상했다. HBM은 D램 여러 개를 수직으로 연결해 데이터 처리 속도를 혁신적으로 끌어올린 고성능 메모리다. 방대한 데이터를 신속하고 끊임없이 처리해야 하는 생성형 AI를 구동하려면 HBM과 같은 고성능 메모리가 반드시 필요한 것으로 알려졌다. SK하이닉스는 HBM 4세대인 HBM3 시장의 90%를 점유하고 있다. SK하이닉스는 HBM 5세대인 HBM3E도 이달 말부터 AI 칩 선두 주자인 엔비디아에 공급한다고 지난 18일 밝혔다. SK하이닉스의 HBM3E는 초당 최대 1.18테라바이트(TB)의 데이터를 처리한다. 이는 풀-HD급 영화(5GB) 230편 분량이 넘는 데이터를 1초 만에 처리하는 수준이다. SK하이닉스는 현재 국내에서 HBM 칩을 생산해 패키징하고 있는데, 이 중 일부를 새로 들어서게 되는 공장에서 처리하게 되며, 이 시설에서는 또 다른 유형의 첨단 패키징도 처리될 예정이라고 소식통은 전했다.
-
- 산업
-
SK하이닉스, 5조3천억원 투자 미국 인디애나주 반도체 패키징공장 건설
-
-
엔비디아, 차세대 AI칩 'B200' 3만달러 이상 예상
- 인공지능(AI) 반도체 기업 엔비디아가 공개한 차세대 AI 칩 '블랙웰B200'의 가격이 3만~4만달러가 될 것으로 예상된다. 19일(이하 현지시간) 로이터통신 등 외신들에 따르면 엔비디아 젠슨 황 최고책임자(CEO)는 이같이 밝혔다. 그는 또 블랙웰 플랫폼의 연구개발 예산이 약 100억 달러였다는 점도 공개했다. 엔비디아는 지난 18일 미국 캘리포니아 새너제이 SAP 센터에서 개막된 개발자 콘퍼런스 'GTC(GPU Technology Conference) 2024'에서 AI칩 블랙웰B200을 내놓았다. 올해 행사에선 900개 세션과 250개 이상의 전시, 수십 개의 기술 워크숍 등이 진행됐다. B200은 두 개의 다이(TSMC 4NP 공정에서 생산)와 8개의 24기가바이트(GB) HBM3E로 구성돼 있다. 다이와 HBM3E 연결을 위해 TSMC 칩 온 웨이퍼 온 서브스트레이트(CoWoS)-S 기술이 적용됐다. 엔비디아는 B200에 대해 2080억개의 트랜지스터가 탑재된 역사상 가장 강력한 칩이라고 소개했다. 엔비디아는 챗봇으로부터의 답변을 제공하는 작업에서는 30배 빠르지만 챗봇을 훈련하기 위해 방대한 양의 데이터를 처리할 때의 성능에 대해서는 구체적인 세부사항을 밝히지 않았다. 젠슨 황 엔비디아 CEO 신제품에 대해 "블랙웰B200 GPU는 이 새로운 산업 혁명을 구동하는 엔진"이라고 설명했다. 이어 "세계에서 가장 역동적인 기업들과 협력해 모든 산업에서 AI의 가능성을 실현할 것"이라고 말했다. '블랙웰'은 흑인으로는 최초로 미국국립과학원에 입회한 '데이비드 헤롤드 블랙웰'을 기리기 위해 붙여진 이름이다.
-
- IT/바이오
-
엔비디아, 차세대 AI칩 'B200' 3만달러 이상 예상
-
-
엔비디아, 차세대 AI칩 'B200'·인공지능 플랫폼 'GR00T' 공개
- 미국 인공지능(AI) 반도체 기업 엔비디아가 새로운 인공지능 플랫폼과 차세대 AI칩을 공개했다. 엔비디아는 18일(현지시간) 미국 캘리포니아주 새너제이 SAP 센터에서 개발자 콘퍼런스 'GTC(GPU Technology Conference) 2024'를 열고 새 인공지능 플랫폼 'GR00T'와 새 인공지능 AI칩 'B200'을 공개했다. 'B200'은 엔비디아의 호퍼 아키텍처를 기반으로 한 최신 AI 칩, H100을 능가하는 차세대 AI 칩으로 평가된다. 엔비디아는 새로운 플랫폼 '블랙웰(Blackwell)'을 통해 H100에 비해 최대 30배 향상된 성능을 제공한다고 밝혔다. 또한, 비용과 에너지 소비는 H100 대비 최대 25분의 1로 대폭 줄였다고 설명했다. 젠슨 황 CEO는 "호퍼는 매우 인상적이었으나, 우리는 더 큰 규모의 GPU를 추구한다"며 '블랙웰' 플랫폼을 소개하면서 "블랙웰은 단순한 플랫폼이 아니다"라고 말했다. 그는 이어 "엔비디아는 지난 30년 동안 딥러닝, AI와 같은 혁신적인 기술을 실현하기 위해 가속 컴퓨팅을 추구해왔다. 생성형 AI는 우리 시대를 정의하는 기술이며, Blackwell GPU는 이 새로운 산업 혁명을 주도할 엔진으로서, 세계에서 가장 혁신적인 기업들과 협력하여 모든 산업 분야에서 AI의 잠재력을 실현할 것"이라고 강조했다. 블랙웰은 게임 이론과 통계학을 전공한 수학자이자 흑인으로는 최초로 미국국립과학원에 입회한 데이비드 헤롤드 블랙웰을 기리기 위해 붙여진 이름이다. 이 새로운 아키텍처는 2년 전 출시된 엔비디아 호퍼(Hopper) 아키텍처의 후속 기술이다. 블랙웰은 최대 10조 개의 파라미터로 확장되는 모델에 대한 AI 훈련과 실시간 거대 언어모델(LLM) 추론을 지원한다. 'B200' 가격은 아직 공개되지 않았다. 새 인공지능 플랫폼 'GR00T' 공개 또 이사악(Isaac)과 제트슨(Jetson)과 같은 기존 프로그램을 통해 로봇 산업 혁신을 주도하는 데 앞장서온 엔비디아는 새 인공지능플랫폼 GR00T를 통해 휴머노이드 로봇 개발 경쟁에 본격적으로 참여할 예정이라고 테크크런치가 전했다. 'GR00T'는 1X 테크놀로지, 아지리리티 로보틱스, 앱트로닉, 보스톤 다이나믹스, 피겨 에이아이, 푸리에 인텔리전스, 샌추어리 에이아이, 유니트리 로보틱스, 엑스펭 로보틱스 등 최근 주목받고 있는 다수의 휴머노이드 로봇 제조업체를 지원할 예정이며, 테슬라와 같은 몇몇 예외를 제외하고는 현재 대부분의 주요 휴머노이드 로봇 제작사를 포함하고 있다. 인공지능 칩 제조업체 선두주자인 엔비디아는 최근 개최된 GTC 개발자 컨퍼런스에서 젠슨 황(Jensen Huang) 최고경영자(CEO)는 "일반적인 휴머노이드 로봇을 위한 기반 모델 구축은 오늘날 인공지능 분야에서 해결해야 할 가장 흥미로운 문제 중 하나"라고 말했다. 휴머노이드 로봇은 현재 로봇 산업에서 가장 활발하게 논의되고 있는 주제 중 하나이며 많은 투자 유치와 동시에 큰 회의감도 불러오고 있다. 아지리리티 로보틱스의 공동 설립자이자 최고 로봇 책임자인 조나단 허스트(Jonathan Hurst)는 "디지트(Digit)와 같은 인간 중심 로봇은 앞으로 노동 시장을 완전히 변화시킬 수 있다. 최신 인공지능은 로봇 개발을 촉진하여 로봇이 일상 생활의 모든 영역에서 사람들을 도울 수 있도록 길을 열어줄 것"이라며 협력에 대한 긍정적인 입장을 밝혔다. 샌추어리 에이아이의 공동 설립자이자 최고경영자인 조디 로즈(Geordie Rose) 역시 "실체 인공지능은 인류가 직면한 가장 큰 과제 중 일부를 해결하는 데 도움이 될 뿐만 아니라 현재 우리의 상상력을 뛰어넘는 혁신을 창출할 수도 있다. 이처럼 중요한 기술은 폐쇄적인 환경에서 개발되어서는 안 되며, 엔비디아와 같은 장기적인 파트너와의 협력이 중요하다"라고 전했다. 엔비디아는 GR00T 와 함께 새로운 하드웨어 '제트슨 토르(Jetson Thor)'도 출시했다. 제트슨 토르는 시뮬레이션 워크플로, 생성 인공지능 모델 등을 실행하기 위해 특별히 설계된 휴머노이드 로봇용 컴퓨터다. 또한 엔비디아는 이번 GTC 컨퍼런스에서 휴머노이드 로봇뿐만 아니라 로봇 팔 조작을 위한 '아이작 매니퓰레이터(Isaac Manipulator)'와 이동용 로봇을 위한 멀티 카메라 3D 서라운드 시각 기능을 갖춘 '아이작 퍼셉터(Isaac Perceptor)' 등 두 개의 중요 프로그램을 발표했다. 이번 발표를 통해 엔비디아는 휴머노이드 로봇과 모바일 매니퓰레이터 시장에서 적극적인 참여와 기여를 목표로 하고 있음을 분명히 했다. 이 두 분야에서의 시장 점유율 경쟁은 앞으로 몇 년간 더욱 치열해질 것으로 보인다.
-
- IT/바이오
-
엔비디아, 차세대 AI칩 'B200'·인공지능 플랫폼 'GR00T' 공개
-
-
외신 "삼성, 칩 생산에 MUF 기술 도입 계획"…삼성, 부인
- 삼성전자가 SK하이닉스가 사용하는 반도체 제조 기술을 도입할 계획이라는 외신 보도를 부인했다. 연합뉴스는 로이터통신을 인용해 인공지능(AI) 붐에 따른 수요 급증에 대응해 반도체 업계의 고성능 반도체 경쟁이 가열되는 가운데, 삼성전자가 경쟁사인 SK하이닉스가 사용하는 반도체 제조 기술을 도입할 계획이라고 13일 보도했다. 로이터통신은 여러 익명 소식통을 인용해 삼성전자가 최근 '몰디드 언더필(MUF)' 기술과 관련된 반도체 제조 장비를 구매 주문했다고 전했다. 하지만 삼성전자는 반도체 칩 생산에 '매스 리플로우(MR)-MUF' 기술을 도입할 계획이 없다며 이 보도를 부인했다. AI 시장의 확대로 고대역폭 메모리(HBM)에 대한 수요가 증가함에 따라, 삼성전자는 이 분야에서 SK하이닉스나 마이크론과는 달리 선두 업체인 엔비디아와 HBM 칩 공급 계약을 체결하지 못한 상황이다. 이에 로이터는 애널리스트들을 인용해, 삼성전자가 경쟁에서 뒤처진 이유 중 하나로 비전도성 필름(NCF) 방식을 고수하고 있음에 따른 생산상의 문제점을 지적했다. HBM(High Bandwidth Memory) 칩은 고대역폭 메모리 기술로, 특히 고성능 컴퓨팅, 서버, 그래픽 처리 장치(GPU) 등에서 데이터 처리 속도를 향상시키기 위해 설계된 반도체 메모리다. HBM은 기존의 DDR(Dual Data Rate) 메모리보다 더 많은 데이터를 빠르게 전송할 수 있는 것이 특징이며, 이를 통해 시스템의 전반적인 성능을 크게 개선할 수 있다. HBM 기술은 여러 개의 메모리 레이어를 수직으로 적층하여 3D 패키징을 구현한다. 이러한 구조는 메모리 칩 사이의 거리를 단축시켜 데이터 전송 속도를 높이고, 전력 소모를 줄이며, 공간 효율성을 개선하는 장점이 있다. HBM 메모리는 그래픽 카드나 고성능 컴퓨팅 분야에서 요구되는 고대역폭과 낮은 전력 소모 요구 사항을 충족시키기 위해 널리 사용되고 있다. 반대로, SK하이닉스는 NCF 방식의 문제점을 해결하기 위해 MR-MUF 방식으로 전환했으며, 결과적으로 엔비디아에 HBM3 칩을 공급하는 성과를 이루었다. 현재 시장에서는 삼성전자의 HBM3 칩 수율이 약 10∼20% 정도인 반면, SK하이닉스의 수율은 60∼70%에 달한다고 추산된다. 삼성전자는 MUF 재료 공급을 위해 일본의 나가세 등 관련 업체와 협상 중인 것으로 알려졌다. 한 소식통에 따르면, 삼성전자가 추가적인 테스트를 진행해야 하기 때문에 MUF를 사용한 고성능 칩의 대량 생산이 내년까지는 어려울 것으로 예상했다. 또 다른 소식통은 삼성전자의 HBM3 칩이 엔비디아에 공급되기 위한 과정을 아직 통과하지 못했다고 밝혔다. 소식통에 따르면 삼성전자가 HBM 칩 생산에 기존 NCF 기술과 MUF 기술을 모두 사용할 계획이라고 전하기도 했다. 한편, MUF(Molded Underfill) 기술은 반도체 칩과 기판 사이의 공간을 채우기 위해 사용되는 고급 패키징 기술이다. 이 기술은 반도체 칩을 기판에 장착한 후, 칩과 기판 사이의 미세한 공간에 특정 물질을 주입하여 경화시키는 과정을 포함한다. MUF 기술은 칩의 열 관리를 개선하고, 기계적 강도를 증가시키며, 전기적 성능을 향상시키는 데 도움을 준다. 또한, 이 기술은 칩의 신뢰성을 높이고, 고밀도 패키징이 요구되는 반도체 제품에서 특히 유용하게 사용된다. NCF(Non-Conductive Film) 기술은 반도체 칩과 기판 사이의 연결 공정에서 사용되는 비전도성 필름을 말한다. 이 기술은 반도체 칩의 미세한 배선 패턴과 기판 사이를 연결할 때 사용되는데, 특히 고밀도 패키징 어셈블리에서 중요한 역할을 한다. NCF는 전기적으로는 비전도성이면서 열적, 기계적 성질을 개선해주어 칩의 신뢰성과 성능을 높이는 데 기여한다. 플립 칩(Flip-chip) 기술과 같은 패키징 공정에서 사용되며, 칩과 기판 사이의 미세한 불균일을 채우고, 열 확산을 도와주며, 기계적인 스트레스를 줄여주는 역할을 한다.
-
- IT/바이오
-
외신 "삼성, 칩 생산에 MUF 기술 도입 계획"…삼성, 부인
-
-
삼성전자, 반도체업계 최초 '12단 HBM3E' 개발
- 삼성전자가 업계 최초로 36GB(기가바이트) 'HBM3E' 12H(12단 적층) D램 개발에 성공했다. 삼성전자는 27일 24Gb(기가비트) D램 칩을 TSV(실리콘 관통 전극) 기술로 12단까지 적층해 업계 최대 용량인 36GB HBM3E 12H를 구현했다고 밝혔다. HBM3E는 5세대 고대역폭메모리다. 삼성전자는 상반기 양산 예정인 이 제품을 통해 고용량 HBM(고대역폭메모리) 시장 선점의 '터닝포인트'로 삼겠다는 계획이다. 'HBM3E 12H'는 1024개의 입출력 통로(I/O)에서 초당 최대 1280GB의 대역폭과 현존 최대 용량인 36GB을 제공한다. 성능과 용량 모두 전작인 HBM3 8H(8단 적층) 대비 50% 이상 개선됐다. 삼성전자는 'Advanced TC NCF(열압착 비전도성 접착 필름)' 기술로 12H 제품을 8H 제품과 동일한 높이로 구현해 HBM 패키지 규격을 만족시켰다. 이 기술을 적용하면 HBM 적층 수가 증가한다. 특히 칩 두께가 얇아지면서 발생할 수 있는 '휘어짐 현상'을 최소화할 수 있는 장점이 있어 고단 적층 확장에 유리하다. 삼성전자는 NCF 소재 두께도 지속적으로 낮춰 업계 최소 칩 간 간격인 '7마이크로미터(㎛)'를 구현했다. 이를 통해 HBM3 8H 대비 20% 이상 향상된 수직 집적도를 실현했다. 또한 칩과 칩 사이를 접합하는 공정에서 신호 특성이 필요한 곳과 열 방출 특성이 필요한 곳에 각각 다른 사이즈의 범프를 적용함으로써 열 특성을 강화하는 동시에 수율도 극대화했다. 삼성전자에 따르면 이번 12단 HBM3E를 사용할 경우 GPU(그래픽처리장치) 사용량이 줄어 기업들이 총소유 비용(TCO)을 절감할 수 있다는 설명이다. 가령 서버 시스템에 HBM3E 12H를 적용하면 HBM3 8H를 탑재할 때보다 평균 34% 인공지능(AI) 학습 훈련 속도 향상이 가능하며, 추론의 경우에는 최대 11.5배 많은 AI 사용자 서비스가 가능할 것으로 기대된다. 삼성전자는 HBM3E 12H의 샘플을 고객사에 제공하기 시작했으며 올해 상반기 양산할 예정이다.
-
- IT/바이오
-
삼성전자, 반도체업계 최초 '12단 HBM3E' 개발