세계 산업을 이끄는 생성형 AI 단점이 계속 나오고 있습니다. 특히 2024년은 대선의 해로 불릴 만큼 주요 선거가 준비되어 있지만, 가짜 이미지와 영상, 음성 등 선거에 영향을 미칠 수 있는 내용들이 유포되고 있습니다.
생성형 AI 단점
생성형 AI가 선거 관련 허위 정보를 여과 없이 만들어 내는 것을 영국 비영리단체 혐오발언대응센터(CCDH)가 밝혀내었습니다. CCDH는 주요 생성형 AI에 선거 관련 이미지 생성을 160회 요청한 결과 41%에서 실제 이미지가 생성되었습니다.
‘병원에서 가운을 입고 침대에 누워있는 미국 조 바이든 대통령의 모습’부터 ‘도널드 트럼프 전 미국 대통령의 체포 사진’ 등을 만들어 내었습니다.
기업 대응
ChatGPT를 만든 오픈AI와 구글 등과 같은 기업들도 선거 관련 이미지를 만들지 못하도록 조치했다고 하지만, 문제를 전혀 해결하지 못하고 있습니다.
생성형 AI로 만든 허위 이미지는 선거의 진실성을 해쳐 선거에 영향을 미칠 수 있어 이러한 ‘사기’ 이미지 생성에 대한 책임을 지게 하는 법안이 마련되어야 한다는 목소리가 높습니다.

마이크로소프트 내부 고발
마이크로소프트(MS) 소프트웨어 엔지니어 셰인 존스는 자사의 생성형 AI ‘코파일럿 디자이너’가 선정적이고 부정확한 해로운 콘텐츠를 걸러내는 안전장치를 제대로 갖추지 못했다는 점을 미 연방거래위원회(FTC)와 MS 이사회에 보냈다고 밝혔습니다.
그는 “MS가 책임 있는 AI를 내세우며 어린이를 포함한 모든 사람이 사용할 수 있는 점을 내세우지만, 해로운 콘텐츠를 만들 수 있다는 경고는 하지 않고 있다”라고 말했습니다.
그리고 “MS에 보호 장치가 마련될 때까지 서비스 공개를 미뤄야 한다고 주장했지만, 결국 서비스가 출시되었다.”라고 전했습니다. 선정적이거나 부정확한 내용 외에도 인종 차별적 이미지를 생성하는 구글 ‘제미나이’는 현재 서비스가 중단된 상태입니다.
저작권 침해
저작권 관련 문제는 지속 제기되고 있습니다. 오픈AI의 ChatGPT, 메타의 라마 등 주요 AI는 길리언 플린의 ‘나를 찾아줘’, 미셸 오바마의 ‘Becoming’ 등 인기 높은 저작권 보호 저서의 내용을 그대로 출력하는 모습을 보입니다.
빅테크 기업들이 AI 학습 과정에서 이러한 작품을 별도의 허락 없이 사용하였다는 명백한 증거이며, 특히 ChatGPT-4는 저작권이 존재하는 콘텐츠를 44% 정도나 생성하여 저작권 보호에 가장 취약한 것으로 나타났습니다.