지난 12일(현지시간) 워싱턴포스트 등 외신에 따르면 1월부터 영미권 온라인 커뮤니티 레딧에 닉네임 ‘클라우디아’라는 이용자가 나체 사진을 판매하기 시작했다. 클라우디아는 셀카 사진을 올린 뒤 관심을 보인 네티즌에게 “돈을 내면 더 많은 사진을 보여주겠다”라고 개인 메시지를 보내는 방식으로 구매자를 모집했다.
일부 레딧 이용자들은 호응했지만, 클라우디아는 사실 실존하는 인간이 아니었다. 그는 이미지 생성 AI '스테이블 디퓨전'으로 만든 가상 인간이었다. 클라우디아를 만들었다고 밝힌 익명의 학생 두 명은 누드 사진을 팔아 100달러(약 13만원)를 벌었다고 현지 언론에 말했다.
이같은 사건이 발생하자 일각에서는 이미지 생성 AI가 포르노의 제작과 소비 방식을 바꾸고 있으며 이는 여성에 대한 성적 대상화와 착취, 사칭 등을 더욱 심화시킬 수 있다는 우려가 나오고 있다. 실제로 이미지 생성 AI는 짧은 단어 몇 개만 입력하면 무료로 가짜 사진을 만들 수 있다.
'미드저니'와 '스테이블 디퓨전' 같은 이미지 생성 AI가 만들어낸 가짜 이미지 논란은 최근 들어 확대되어 왔다. 트럼프 전 미국 대통령이 수갑을 찬 채 경찰들에게 체포되는 모습과 프란치스코 교황이 흰색 롱패딩을 입은 모습 등의 허위 이미지가 온라인 상에서 확산하면서 네티즌들을 교란시켰다.
yuhyun12@fnnews.com 조유현 기자 ※ 저작권자 ⓒ 파이낸셜뉴스, 무단전재-재배포 금지