- 뇌-기기 인터페이스 본격화⋯애플, BCI 기술로 접근성 패러다임 전환 시도
- 한국어 자막·퍼스널 보이스·브라유 액세스까지⋯장애 친화적 기능 대폭 강화
애플은 '손쉬운 사용 인식의 날(Global Accessibility Awareness Day, GAAD)'을 기념해 하반기 출시될 새로운 손쉬운 사용 기능들을 13일(현지시간) 공개했다.
아울러 사람의 뇌파를 이용해 아이폰 등 자사 기기를 제어하는 기술 상용화에 본격적으로 나선다. 인공지능(AI)과 뇌-컴퓨터 인터페이스(BCI)의 결합이 가속화되는 가운데, 애플이 접근성 강화와 신시장 개척을 동시에 꾀하고 있다는 분석이 나오고 있다.
이날 씨넷은 애플이 5월 15일 세계 손쉬운 사용 인식의 날을 앞두고 텍스트 읽기부터 실시간 자막 보기, 멀미 완화까지 모든 기능을 지원하도록 설계된 다양한 제품군에 대한 접근성 업데이트를 발표했다고 전했다. 애플의 접근성 업데이트는 아이폰(iPhone), 아이패드(iPad), 맥(Mac), 애플워치(Apple Watch), 애플 비전 프로(Apple Vision Pro)에 적용되며, 해당 기능은 올해말 출시될 예정이다.
'손쉬운 사용 인식의 날'은 장애인이 디지털 기술에 더 쉽게 접근할 수 있도록 인식을 높이고 개선을 촉구하기 위해 2012년에 처음 지정해, 매년 5월 셋째 주 목요일을 이날로 기념하고 있다.
애플은 우선 아이폰 등 자사 기기에서 이용할 수 있는 음성 명령과 실시간 자막인 라이브 캡션(Live Captions)에서 한국어를 지원한다고 밝혔다. 음성 명령과 실시간 자막 기능은 2019년과 2022년 각각 처음 도입됐지만, 그동안 북미 지역에서 영어만 지원됐다.
올 하반기부터 라이브 캡션(Live Captions)에서는 한국어를 포함해 영어(인도, 호주, 영국, 싱가포르), 중국어(중국 본토), 광둥어(중국 본토, 홍콩), 스페인어(라틴 아메리카, 스페인), 프랑스어(프랑스, 캐나다), 일본어, 독일어(독일) 등이 지원된다.

또한 미국 월스트리트저널(WSJ)은 13일 "애플이 뇌파로 기기를 제어할 수 있는 기술의 초기 개발 단계에 돌입했다"며 "BCI 스타트업 싱크론(Synchron)과의 협력을 통해 손을 쓰지 못하는 장애인도 기기를 사용할 수 있도록 돕는 솔루션 개발에 착수했다”고 보도했다.
애플은 싱크론이 개발한 뇌 임플란트 장치인 '스텐트로드(Stentrode)'를 자사 기기와 연동시키기 위한 전용 기술 표준을 올해 말까지 마련할 계획이다. 스텐트로드는 뇌 운동 피질 인접 정맥에 삽입되는 스텐트형 장치로, 내부에 전극이 탑재돼 뇌파를 감지하고 이를 디지털 신호로 변환한다. 사용자는 물리적인 움직임 없이도 화면의 아이콘을 선택하는 등의 간단한 조작이 가능하다.
애플이 추진하는 이 신기술은 기존 스마트폰이 터치와 제스처를 입력으로 삼는 것과 달리, 뇌파를 직접 입력 수단으로 삼는 비접촉식 인간-기계 인터페이스라는 점에서 혁신적이라는 평가를 받는다. 다만, 현재 단계에서는 마우스처럼 커서를 자유롭게 이동시키는 수준에는 미치지 못하고, 단순한 화면 탐색 및 아이콘 선택 수준에 그치는 것으로 전해졌다.
WSJ는 "애플이 올해 공개할 예정인 BCI 전용 인터페이스 표준은 이러한 제약을 극복할 수 있는 기반이 될 것"이라고 전망했다.
애플은 이미 2014년에도 블루투스 기반 보청기 연결 표준을 선도적으로 개발한 바 있다. 이번 뇌파 인터페이스 개발도 접근성(Accessibility) 확대 전략의 연장선상에서 이뤄지는 행보로 풀이된다.
시장에서는 이번 애플의 BCI 기술 진입이 일론 머스크가 이끄는 뇌과학 스타트업 뉴럴링크(Neuralink)와의 본격적인 기술 경쟁을 예고하는 신호탄으로 보고 있다. 뉴럴링크는 최근 사지마비 환자에게 뇌 칩을 이식해 화면 커서를 제어하고 의사소통까지 가능하게 한 사례를 공개했다.

애플은 이번 발표와 함께 청각, 시각, 인지 등 다양한 장애인을 위한 접근성 기능도 대거 강화했다. 대표적으로 '라이브 캡션(Live Captions)' 기능이 아이폰뿐만 아니라 애플워치까지 확대 적용된다. 주변 음성을 실시간으로 텍스트로 변환해 보여주는 기능으로, 청각장애인의 커뮤니케이션을 지원한다.
또한, 시각 장애인이나 시력이 약한 사람들을 위한 '돋보기(Magnifier)' 기능이 맥(Mac)에서도 사용 가능해진다. 돋보기는 아이폰이나 아이패드에서 화면을 확대하고, 텍스트를 읽고, 주변 사물을 감지할 수 있도록 해주는 도구로 이제 맥에서도 이 기능이 적용된다.
'접근성 리더(Accessibility Reader)' 기능은 난독증이나 저시력을 가진 사용자를 위해 텍스트 크기와 색상, 간격 등을 자유롭게 조절할 수 있게 개선됐다.
이 외에도 AI 기반 개인 음성 복제 기능인 '퍼스널 보이스(Personal Voice)', 점자 사용자 지원 기능 '브라유 액세스(Braille Access)', 멀미를 줄이기 위한 '차량 모션 큐(Vehicle Motion Cues)' 등 다양한 기능이 공개됐다. 퍼스널 보이스는 언어 상실 위험이 있는 사람들이 AI와 기기내 머신 러닝을 활용해 자신과 비슷한 목소리를 만들 수 있도록 지원한다.
애플 팀 쿡 CEO는 "접근성은 애플 DNA의 일부”라며 “모든 사람을 위한 기술을 만들기 위해 지속적으로 혁신을 이어갈 것"이라고 강조했다.
이번 기술은 오는 6월 9일 열리는 세계 개발자 회의(WWDC)에서 애플이 발표할 iOS 19과 ‘애플 인텔리전스(Apple Intelligence)’ 기반 AI 전략의 핵심 축으로도 소개될 전망이다. 삼성전자, 구글 등 경쟁사가 AI 기능을 강화한 스마트폰을 속속 선보이는 가운데, 애플이 BCI 기반 접근성과 AI 융합 기술로 시장의 판을 다시 짤 수 있을지 주목된다.