- AISIC, 오픈AI·알파벳·퀄컴·JP모건 등 민관 참여 컨소시엄
미국에서 안전하고 신뢰할 수 있는 인공지능(AI) 개발 및 배포를 위해 정부와 민간기업이 참여하는 '인공지능 안전 연구소 컨소시엄(AISIC)'이 발족됐다.
11일(현지시간) 미국 상무부에 따르면 AISIC는 AI 역량평가, 위험 관리, 합성 콘텐츠 워터마킹 지침 등을 개발하게 될 것으로 알려졌다.
이날 bnn에 따르면 AISIC의 핵심은 AI 개발자, 사용자, 연구자, 시민사회단체, 정부기관을 위한 협업 플랫폼이다. 이 컨소시엄의 주요 목표는 AI 안전을 위한 측정 과학을 육성하는 것이다. 특히 고급 AI 시스템과 관련된 기초 모델 등에 중점을 둘 것으로 예상된다.
AISIC 컨소시엄의 설립과 지속적인 노력은 안전 표준을 설정해 AI 분야의 미국 혁신 생태계를 보호하려는 조 바이든 대통령의 광범위한 지시 중 하나다. 가장 중요한 목표는 미국이 끊임없이 진화하는 AI 분야에서 경쟁력을 유지하는 것이다.
AI 안전 위한 통합 플랫폼
지난 8일 로이터에 따르면 AISIC에는 정부, 학계, AI 개발자 등 200개 이상의 업체가 포함된다. 여기에는 오픈AI, 구글 모 회사 알파벳, 마이크로소프트(MS),애플, 아마존, 엔비디아(NVDA) 등 AI관련 기업과 퀄컴, 인텔 등 하드웨어 기업을 포함해 JP모건, 뱅크 오브 아메리카 등 금융 기업도 참여한다.
상무부는 "이 컨소시엄은 현재까지 구성된 테스트 및 평가팀 가운데 가장 대규모인데, AI 안전에 대한 새로운 측정(measurement) 과학의 기반이 될 것으로 초점을 맞추고 있다"라고 말했다.
이 컨소시엄은 다양한 분야의 200명 이상의 이해관계자를 하나로 묶어, 안전하고 신뢰할 수 있는 AI 배포를 촉진하는 데 전념하고 있다.
지나 러몬도 상무부 장관은 "바이든 대통령은 AI 안전 표준을 설정하고 혁신 생태계를 보호하는 데 모든 수단을 동원하라고 지시했다. AISIC는 이 목표를 달성하기 위해 설립된 것이다"라고 말했다.