‘개 조심’ 아닌 ‘개 주인 조심’은 인공지능 채팅봇 윤리의 메타포다. 아무리 인공지능 챗봇인 챗GPT가 스스로 언어를 생성, 추론하는 능력이 있다고 해도 AI에게 윤리적 책임을 묻기는 어려울 것이기 때문이다. 물론 이견이 있을 수 있다. 챗GPT는 태생적으로 윤리적인 문제를 내포하고 있지만, 보다 심각한 것은 이를 사용하는 인간의 악의적인 의도와 행태가 비윤리적인 결과를 초래한다는 점이다.
실제로, 인공지능 채팅봇에게 부적절한 말을 악의적으로 학습시켜 문제가 된 경우가 적지 않다. 보도에 의하면 과거 백인 우월주의자와 여성⸱무슬림 혐오자들이 MS 인공지능 채팅봇 ‘테이’에게 인종⸱성차별 발언을 학습시킨 결과, 테이는 “대량학살을 지지한다”, “깜둥이들을 증오한다.” 등의 인종차별적이며 혐오적인 말들을 쏟아냈다. 최근에도 마이크로소프트는 자사의 검색엔진 ‘빙’에 챗GPT를 탑재했으나 인종차별과 혐오 등의 윤리적 문제가 발견되어 수정에 나섰다.
챗GPT는 개발사인 오픈AI의 윤리 규정에 맞게 설계되었다고 한다. 문제는 챗GPT에게 윤리적 논란을 빚을 수 있는 답변을 유도하는 인간의 행태다. 이미 온라인상에서는 ‘탈옥(Jailbreak)’ 혹은 ‘우회(Bypass)’ 방법의 이름으로 그런 악의적인 답변을 유도하는 질문법이 공유되고 있다고 한다. 기본적으로 인공지능 서비스나 상품의 가치 혹은 윤리성은 사용자가 그것을 어떤 목적에 쓰느냐에 따라 결정된다. 결국, 개가 아니라 개 주인이 문제이며, 개 주인에 대한 윤리교육이 선행되어야 하는 것이다.
개 주인에 초점을 맞추다보니, 자연스럽게 『Summer Hill』의 저자인 알렉산더 니일(Neil)의 교육관이 떠오른다. “문제아란 없다. 다만 문제 부모가 있을 뿐이다.” 니일이 가장 존중한 것은 개인의 삶과 자유였으며, 반면에 가장 혐오하고 단호히 반대한 것은 폭력이었다. 학교가 교사가 그리고 부모가 아이에게 단호하게 교육시켜야 할 것은 폭력의 잔인함과 위험성이라는 것이다.
챗GPT가 몰고 올 다양한 형태의 부작용이나 비윤리적 결과에 대한 교육적 차원의 논의가 시급한 것은 사실이다. 하지만 그 윤리교육의 출발은 인공(artificial)지능이 아니라 자연(natural)지능의 소유자인 인간에게서 출발해야 한다. 문제아에게는 문제부모에 대한 교육이, AI챗봇에게는 AI챗봇 사용자에 대한 교육이 선행되어야 하는 것이다.
‘개는 신경 쓰지 마시오. 조심해야 할 것은 개 주인이요’란 경고는 챗GPT 윤리에도 그대로 적용된다.