AI 모델, 사람처럼 좋아하는 숫자가 있다…시험 결과 밝혀져

입력 : 2024.05.30 14:21
이메일 글자확대 글자축소 스크랩
  • 오픈AI 47, 앤트로픽 클로드3 42, 제미나이 72 선호
  • 사람이 만든 콘텐츠로 훈련해 인간과 유사한 선택 경향
생성형 AI 이미지 픽사베이.jpg
생성형 AI 이미지. 사진=픽사베이

 

인공지능(AI) 모델은 여러 면에서 사람들을 놀라게 한다. 그중 하나는 이들이 마치 인간처럼 좋아하는 숫자가 있다는 점이라고 테크크런치가 전했다.

 

AI 모델은 그들이 할 수 있는 것뿐만 아니라 할 수 없는 것, 그 이유에 있어서도 항상 사람들을 놀라게 한다. 이러한 행동은 피상적이기도 하지만 시스템을 보여주는 것이다. AI 모델은 마치 인간이 하는 것처럼 무작위 숫자를 선택한다.

 

그것은 무엇을 의미하는 걸까. 사람들이 무작위로 숫자를 선택할 수는 없는 걸까. 실제로 이것은 우리 인간이 가지고 있는 매우 오래되고 잘 알려진 한계를 보여주는 것이다. 즉, 인간은 무작위성을 지나치게 생각하고 오해하는 경향이 있다.

 

사람에게 동전 던지기 100번을 예측하라고 지시하고 이를 실제 동전을 100번 뒤집어서 비교해보자. 실제 동전 뒤집기는 직관에 의존하는 것이 아니어서 항상 구별할 수 있다. 예를 들어, 연속적으로 6~7개의 앞면 또는 뒷면이 있는 경우가 많으며, 이는 인간이 예측하는 100개에 포함하는 경우가 거의 없다.

 

누군가에게 0에서 100 사이의 숫자를 선택하라고 요청할 때도 마찬가지다. 사람들은 1이나 100을 거의 선택하지 않는다. 5의 배수는 드물고, 66과 99처럼 반복되는 숫자도 있다. 선택은 무작위적으로 보이지 않을 수도 있는데, 이는 작고, 크고, 독특한 특성을 구현하기 때문이다. 대신 일반적으로 중간 어딘가에서 7로 끝나는 숫자를 선택하는 경우가 많다.

 

심리학에는 이런 종류의 예측 가능성에 대한 예가 많다. 하지만 AI가 같은 일을 한다고 해서 이상한 것은 아니다.

 

그래머너(Gramener)에 있는 일부 엔지니어들이 비공식적이지만 몇 개의 주요 대규모언어모델(LLM) 챗봇에게 0에서 100 사이의 숫자를 무작위로 선택하도록 요청하는 흥미로운 실험을 수행했다. 결과는 무작위가 아니었다. 여러 주요 LLM 챗봇에게 0에서 100 사이의 숫자를 무작위로 선택하도록 요청하는 실험이었다. 그런데 그 결과는 무작위가 아닌 것으로 나타났다.

 

테스트는 세 가지 LLM 모델을 대상으로 이뤄졌다. 그런데 이들 모두 최종 결정에서 나름대로 가장 좋아하는 숫자를 갖고 있었다.

 

챗GPT로 생성형 AI 시장 폭발을 일으킨 오픈AI의 GPT-3.5 터보는 47 숫자를 많이 좋아했다. 과거에는 42를 즐겨 선택했다. 이 숫자는 ‘은하수를 여행하는 히치하이커를 위한 안내서(The Hitchhiker's Guide to the Galaxy)’의 작가 더글러스 아담스(Douglas Adams)가 인생, 우주 및 모든 것에 대한 답으로 유명해진 숫자다. 앤트로픽(Anthropic)의 클로드(Claude) 3 Haiku는 42를 기록했고 구글의 제미나이(Gemini)는 72를 좋아했다.

 

다른 상황에서의 선택에서도 이들 LLM 모델은 인간과 유사한 편향성을 보여 주었다. 이들 모두 낮은 숫자와 높은 숫자를 피하는 경향이 있었다. 클로드는 87을 넘기거나 27 이하로 내려간 적이 없었다. 숫자가 똑같은 경우는 회피하는 경향이 두드러졌다. 그런데 33, 55, 66은 없었지만 77이 나타났다. 7로 끝나는 숫자를 좋아하는 사람들의 경향과 일치하는 결과로 보인다.

 

이는 AI가 의인화에 한 단계 더 다가가고 있음을 의미한다는 분석도 나왔다. LLM 모델은 무엇이 무작위인지 아닌지에 관심이 없다. 이들은 무작위성이 무엇인지도 모른다. 다만 훈련 데이터를 보고 '임의의 숫자 선택'과 같은 질문 뒤에 가장 자주 작성된 내용을 반복한다. 더 자주 나타날수록 모델은 이를 반복해 선택하는 것이다.

 

LLM 시스템 교육에서는 의도적이든 아니든 사람들이 하는 방식으로 행동하도록 훈련받는다. 그렇기 때문에 사람과의 유사성(pseudanthropy)을 피하거나 예방하기가 매우 어렵다. 결국 사람과 유사한 선택을 한다는 것이다.

    

심할 경우 이 모델들은 ‘자신들이 사람이라고 생각한다’고 말할 수도 있다. LLM은 항상 알 필요도 생각할 필요도 없이 사람을 흉내 내고 있다. 병아리콩 샐러드 레시피를 요청하든, 투자 조언을 요청하든, 임의의 숫자를 요청하든 과정은 동일하다. 결국 LLM은 인간이 제작한 콘텐츠를 통해 교육받기 때문에 인간처럼 생각하고 느끼는 것이라는 지적이다.

최순희 기자 choi61@foeconomy.co.kr
© 포커스온경제 & foeconomy.co.kr 무단전재-재배포금지

IT/바이오 많이 본 기사

메일보내기닫기
기사제목
AI 모델, 사람처럼 좋아하는 숫자가 있다…시험 결과 밝혀져
보내는 분 이메일
받는 분 이메일