- 연구조사 결과 로봇에게 '화이트 라이' 용인 의견 다수
- 거짓말 책임에 대해서는 의견 분분, 개발자와 인간 비판도
로봇이 거짓말을 하는 것을 허용해야 할까. '로봇공학 및 AI 프런티어(Frontiers in Robotics and AI'에 게재된 새로운 조사 연구에서 "이익이 되는 방향이라면 로봇의 거짓말도 용인할 수 있다"는 결과가 나왔다고 더컨버세이션이 전했다.
연구는 로봇이 사람들에게 거짓말을 하는 사례를 보여주고, 어떤 거짓말이 허용될 수 있는 지, 그리고 어떻게 거짓말을 정당화할 수 있는지 조사했다.
사회적 규범에 따르면 누군가를 보호하는 목적이라면 사람들이 거짓말을 하는 것은 괜찮을 수 있다. 소위 '화이트 라이(white lie, 선의의 거짓말)'다. 그렇다면 로봇도 큰 이익을 위해 거짓말을 할 수 있다는 동일한 특권을 허용해야 할까. 연구에 따르면 어떤 경우에는 '그렇다'는 결론이다.
로봇은 이제 공상 과학이 아니다. 이미 우리 일상 생활의 일부가 되었다. 집에서 바닥을 청소하거나, 식당에서 서빙하거나, 연로한 가족의 동반자가 되어 준다. 공장에서는 로봇이 근로자가 하는 일을 대체하거나 보조한다. 삼성과 LG 등 여러 글로벌 전자 회사는 진공 청소 이상의 일을 할 수 있는 로봇을 개발하고 있다. 집안일도 하고, 사용자가 슬픈 표정을 지으면 그가 좋아하는 노래를 틀어줄 수 있다.
미국 조지메이슨 대학교의 인지 연구학자 안드레스 로세로 박사팀이 이끈 새로운 연구에서는 로봇이 사람들에게 거짓말을 하는 세 가지 유형을 추적 조사했다. 유형의 순서대로 ▲로봇은 자신이 아닌 다른 것에 대해 거짓말을 할 수 있다 ▲로봇은 무언가를 할 수 있다는 사실을 숨길 수 있다 ▲로봇은 무언가를 할 수 없는 경우에도 할 수 있다고 가장할 수 있다 등이다.
연구팀은 각각의 유형에 따른 간단한 시나리오를 작성해 498명을 대상으로 온라인 설문 조사를 진행했다. 설문 참여자들에게 로봇의 행동이 기만적인지, 그리고 그 행동이 괜찮다고 생각하는지의 여부와 함께, 로봇의 기만 행동이 정당화될 수 있다고 생각하는지를 물었다.
조사 결과, 모든 유형의 거짓말이 기만적인 것으로 인식되었지만, 일부 유형의 거짓말은 용인됐다. 응답자들은 대체로 첫 번째 유형의 거짓말은 용인했지만, 나머지 두 가지 거짓말은 승인하지 않았다. 응답자의 절반 이상(58%)이 로봇이 거짓말을 하는 것(1형)이 누군가의 감정을 상하게 하거나 해를 끼치지 않는다면 정당화된다고 생각했다.
이 답변은 알츠하이머병을 앓고 있는 노인 여성에게 "남편이 아직 살아 있다"고 거짓말하는 의료 보조 로봇의 케이스에서 극명하게 나타났다. 응답자는 "로봇이 여성을 고통스러운 감정으로부터 구해주었다"라고 평가했다.
그러나 다른 두 가지 유형의 거짓말에 대해서는 승인 버튼을 누르지 않았다. 에어비앤비 임대 주택의 가사 로봇은 집안일을 하는 동안 동영상을 녹화한다는 사실을 숨겼다. 응답자의 23.6%만이 방문객을 보호하거나 로봇의 작업 상태를 감시할 수 있다며 이를 정당화했다. 나머지는 사생활 감시로 받아들여 부정했다.
공장 로봇의 경우 "내일 많이 아플 거야"와 같은 말로 작업에 대해 불평한다. 이는 인간 근로자에게 로봇이 고통을 느낄 수 있다는 인상을 준다. 응답자의 27.1%만이 로봇이 거짓말을 하는 것이 괜찮다고 생각했다. 한 응답자는 "누구에게도 해를 끼치지 않는다. 그저 더 공감할 수 있게 보이려고 하는 것일 뿐이다"라고 말했다. 그러나 대다수가 부정적이었다.
다만 응답자들은 이에 대해 로봇이 아닌 사람이 거짓말을 한 것이라고 판단한 경우도 있었다. 동영상 녹화 기능을 숨긴 가사 청소 로봇에 대해서도 응답자의 80.1%가 집주인이나 로봇 프로그래머가 잘 못했다고 비난했다.
로봇이 누군가에게 거짓말을 한다면, 그럴 만한 이유가 있을 수 있다. 로봇이 사회적 규범에 어떻게 맞아야 하는지에 대해서는 많은 논쟁이 있다. 예를 들어, 로봇이 사람에 대한 애정을 흉내 내는 것이 윤리적으로 잘못된 것인지, 아니면 그럴 만한 도덕적 이유가 있는지에 대한 의문이 제기된다.
이 연구는 사람들에게 로봇이 다양한 유형의 거짓말을 하는 것에 대해 어떻게 생각하는지를 묻는 최초의 연구여서 주목된다. 이어지는 질문은 "거짓말을 정당화하는 것이 무엇인지 결정하는 사람은 누구냐"이다. 로봇이 거짓말을 할 수 있는지를 결정하는 주체가 개발자일 수도 있다는 점에서, '로봇의 거짓말'이 결코 괜찮지 않을 수도 있다는 지적이다.