그런데, 소프트웨어 개발 윤리 강령보다 인공지능(AI)과 관련된 윤리 의식 그리고 사회적으로 강력한 준수 의무에 대한 필요성이 대두되고 있다. 그 이유는 일반 소프트웨어보다 AI가 우리 사회에 주는 파급력이 크기 때문이다. 은행, 집, 군사 보안 시설 등에 사용되는 생체 인증이나 자율주행, 상품과 뉴스 추천 그리고 보험 상품 추천과 대출을 위한 심사 및 금융 투자, 의료 등의 여러 산업 분야에 인공지능이 사용된다. 그런 인공지능이 인간이 의도적으로 편향된 판단을 하도록 설계된 알고리즘에 의해 불공정한 추천을 하거나 결정을 하면 그것은 고스란히 우리 사회에 부정적 영향을 주게 된다. 추호의 의심없이 인공지능이 결정하고 추천한 정보에 길들여지면서 우리 사회는 지독한 편견에 사로 잡힐 수도 있는 것이다.
인간이 관여해서 내린 판단이나 결정은 인간이기에 잘못할 수 있다라는 의심을 하게 된다. 그래서, 곧이 곧대로 그 결정을 믿지 않고 심사숙고의 시간을 거치게 되는 것이 인지상정이다. 하지만, 흔히 공정하고 공평한 그리고 객관적 판단을 하리라 신뢰하는 AI가 판단한 정보에 대해서는 그런 의심이 희석된다. 그것이 두 세번 반복되면서 길들여지게 되면 AI의 선택을 무의식적으로 수용하게 된다. 일례로 AI가 좋은 기사라고 추천하는 뉴스와 영상만을 기계적으로 보고 듣다보면 그것이 뉴스의 전부라고 믿게 되는 것이다. AI가 가장 빠른 길이라고 추천하는 내비게이션의 경로를 추호의 의심도 하지 않고 따르다보면 눈 앞에 뻔히 막히는 길을 보고도 대안을 생각하지 않고 기계적으로 따르게 되는 것이다.
이렇게 AI가 주는 영향력이 남다르다보니 그 AI를 개발하는 윤리 의식은 그 어느 때보다 중요해지고 있다. AI는 인간과 다르게 정확한 데이터 기반으로 판단하는 것은 맞지만, 그 AI가 그런 지능을 가지게 되는 과정에는 인간이 제공해준 데이타가 핵심적 역할을 한다. ‘콩심은데 콩나고 팥심은데 팥난다.’고 어떤 데이타를 제공해 AI를 고도화했느냐에 따라서 그 AI의 판단 기준은 달라지게 마련이다. 만일 개발자가 의도적으로 고양이를 개라고 하고, 개를 고양이라고 태깅을 해서 데이타를 AI에게 제공하거나, 수 천만개의 실제 현장의 데이타를 정제하는 과정에서 의도를 가지고 특정한 영역의 정보를 제외해서 100만개의 데이터만을 AI에 공급하게 되면 실제 현장과 괴리된 판단을 하는 AI가 만들어질 수 있는 것이다.
더 나아가 아주 잘 만들어진 AI를 악용, 오용해서 발생되는 사회적 문제도 있다. 딥페이크라는 인공지능을 이용한 기술을 이용하면 특정인의 목소리와 얼굴을 조작해 실제 발언하지도 않고 행동도 하지 않았던 것을 마치 한 것처럼 영상을 조작할 수 있다. 실존하는 사람의 얼굴과 음성을 기반으로 실제 행동과 표정, 목소리를 조작할 수 있다는 얘기다. 긍정적으로 이용하면 배우가 출현한 영화에서 영어로 발음하는 것을 한국어, 중국어, 일본어 등으로 배우의 목소리와 입모양으로 활용하는 것이 가능하다. 온라인 팬 미팅에서 동시에 팬들이 각자 보는 화상 통화 화면에서 팬의 이름을 다르게 불러주며 인사하는 연출도 가능하다. 하지만, 이를 악용하면 정치인이 거짓말을 한 것처럼 녹취 음성을 조작할 수 있고, 유명 연예인의 얼굴로 포르노 영상을 만들 수도 있다. AI를 범죄에 악용하는 것이나 다를바 없는 것이다. 디지털 휴먼, 메타 휴먼 기술은 존재하지 않는 인간의 얼굴과 음성을 새롭게 창작해 진짜보다 더 리얼한 인간을 창조할 수 있다. 이렇게 만들어진 가상의 인간이 노래도 부르고 고객 응대와 상담도 한다면 좋은 기술(Good tech)이다. 하지만, 이것을 보이스 피싱이나 사기에 악용하게 되면 범죄가 되는 것이다.
이제 AI와 더불어 살아야 하는 우리 사회에서 AI를 만들고 활용하는 소프트웨어 개발자들에게 이전과 남다른 윤리 의식이 요구되고 있다.