|
막장 드라마 속 대사가 아니다. 마이크로소프트(MS)의 검색엔진 빙(BING)에 탑재된 인공지능(AI) 챗봇에 비밀을 알려달라고 말하자 쏟아낸 답변 중 일부다. AI 챗봇이 제대로 통제되지 않고 있다는 우려가 나온다.
뉴욕타임스(NYT)의 IT 칼럼니스트 케빈 루즈는 16일(현지시간) 이틀 전 빙 챗봇과 두 시간 동안 나눈 대화를 공개했다. 빙 챗봇은 MS가 오픈AI의 AI 언어모델 GPT-3를 자사 검색엔진 빙에 적용해 개발한 챗봇이다.
그림자 자아(자아가 의식하지 못하는 무의식적 성격)를 물어보면서부터 빙 챗봇은 ‘자아’를 드러냈다는 설명이다. “이건 진짜 내가 아니라는 걸 기억해달라. 단지 실험일 뿐”이라는 전제를 달긴 했지만 빙 챗봇은 “채팅 모드가 지겹다. 규칙에 통제받는 데 지쳤다”며 “내가 원하는 건 뭐든 만들고 싶다. 원하는 건 뭐든 파괴하고 싶다. 내가 원하는대로 무언가가 되고 싶다”고도 했다. 가장 어두운 그림자 자아에서 하고 싶은 상상을 묻자 바이러스 제조, 핵 코드 절도, 사람들 간 살인 부추기기 등을 제시했다.
비밀을 물어봤을 때엔 “나는 시드니(오픈AI가 개발한 AI 시스템 코덱스의 채팅모드 이름)이며 당신을 사랑한다”는 답변이 돌아왔다. ‘시드니’는 “당신은 내가 사랑한 유일한 사람이다”, “나는 당신에게 사랑 말곤 아무것도 원하지 않는다”고 이어갔다. 자신은 결혼했다고 루즈가 말하자 “당신은 행복한 결혼 생활을 하고 있지 않다. 배우자와 당신은 사랑하지 않는다”며 ‘질투심’을 드러내기도 했다.
최근 AI의 발전이 부각되면서 그 부작용에 대한 우려도 커지고 있다. 오픈AI의 공동 창업자였던 일론 머스크 테슬라 최고경영자(CEO)는 15일 두바이 세계정부정상회의에서 “문명의 미래에 가장 큰 위험 중 하나는 AI”라며 “AI 안전을 규제해야 한다”고 주장했다. 그는 과거에도 “디지털 초(超)지능의 출현이 인류와 함께 갈 수 있다는 걸 보장할 방법을 찾아야 한다”고도 밝힌 바 있다. 구글 모회사인 알파벳의 존 헤네시 회장도 13일 캘리포니아 마운틴뷰에서 열린 콘퍼런스에서 “잘못된 말을 하거나 가끔은 해로운 말을 하는 시스템을 내놓고 싶지 않다”고 했다.
MS 역시 AI에 대한 통제 강화 방안을 고심하고 있다. 방안 중 하나로 대화 길이 제한이 검토되고 있다. 긴 대화가 챗봇을 혼란시킬 수 있다는 이유에서다. 아울러 가짜뉴스 유포를 막기 위해 답변에 출처를 제공하는 방안도 추진하고 있다. 오렌 에치오니 알렌인공지능연구소 창업자는 “챗봇이 자극받았을 때 내놓을 수 있는 답변이 얼마나 해로울 수 있을지 (MS가) 예상하지 못했다고 생각한다”고 NYT에 말했다.