임홍은, 2024년 3월 28일 12:00 작성
AI 반도체 분야의 선두 주자인 NVIDIA가 3월 8일 AI 모델의 저작권 소송에 휘말렸다. NVIDIA를 고소한 세 명의 작가들은 자신들의 책이 NVIDIA의 생성형 AI 모델인 NeMo 학습에 도움을 주었다고 하는 196,640개의 도서에 포함되어 있었다는 사실을 근거로 들었다. 이 데이터 세트는 저작권 침해 신고를 받고 작년 10월 삭제되었다.
빅데이터로 학습한 AI가 등장하면서 AI의 창작물에 대한 저작권 논란은 계속 이어져왔다. 많은 경우에 AI를 학습시킬 때 인터넷의 방대한 자료를 이용하는데, 이는 인터넷의 자료에 대한 저작권 침해라는 내용이 중점이다. AI는 학습한 자료를 모방하여 새로운 작품을 만들기 때문에 기존 작품과 유사한 작품이 생성될 수 있다.
작년 12월에는 New York Times (NYT)가 OpenAI와 Microsoft를 NYT의 기사들을 언어 모델 학습에 사용했다며 저작권 침해 혐의로 고소했다. 세계적인 AI 회사들을 대상으로 AI의 저작권 문제로 소송이 벌어진 건 이 사례가 처음이었다. 지난 2월 OpenAI는 NYT가 언어 모델에서 기사와 유사한 텍스트가 생성되도록 명령문을 사용해 ChatGPT를 사용했다며 반격에 나섰다.
Tiktok, Stability AI 등에서 AI 전문가로 근무했던 Ed Newton-Rex는 저작권 허가된 데이터만 AI 학습에 이용하는 회사에 인증서를 주는 회사인 Fairly Trained를 올해 1월 설립했다. 저작권 허가된 데이터를 사용하는 것이 확인되고, 직원들이 허가된 데이터만 접근하는지 확인된 회사에만 인증서를 발급한다.
시카고 대학의 SAND 연구소도 AI 학습에 인터넷 데이터가 무단으로 사용되는 것을 방지하기 위한 모델 Glaze와 Nightshade를 제작했다. 작년 3월 공개된 Glaze는 AI가 그림의 화풍을 잘못 인식하도록 원본 그림을 변형시킨다. 인간의 눈에는 차이를 알아보기 힘들지만 AI가 그림의 모작을 만들려고 할 때 형태를 알아볼 수 없는 그림을 그리게 된다. 올해 1월 공개된 Nightshade는 이미지를 변형시켜 AI의 인식 체계에 혼란이 오도록 한다. SAND 연구소에 의하면, 소가 그려진 그림에 필터를 씌운다면 가죽 지갑으로 인식할 수 있다.
Nightshade를 입힌 이미지가 인간의 눈에는 큰 차이가 없다. 이미지: SAND 연구소
Nightshade를 입힌 이미지로 학습한 모델은 알아보기 힘든 작품을 생성한다. 이미지: SAND 연구소