#이미지: 섀도우 AI의 위험성 또는 '전면 망분리 vs 게이트웨이 통제'를 비교하는 다이어그램/인포그래픽 삽입
Expert
이상욱
한양대학교 철학과 · 대학원 인공지능철학과
한양대학교 철학과와 대학원 인공지능철학과에서 인공지능을 비롯한 첨단 과학기술의 철학적, 윤리적 쟁점에 대해 연구하고 가르치고 있습니다. 유네스코 세계과학기술윤리위원회 의원과 한국과학철학회 회장을 역임했습니다.
다음과 같은 상황을 상상해 보자.
“ 김과장은 회사가 심혈을 기울여 추진 중인 대형 프로젝트의 기획에 참여하고 있다. 늘 그렇듯 주어진 시간에 비해 검토해야 할 문서와 확인해야 할 사실들이 너무 많다. 평소 AI를 업무에 잘 활용하기로 소문난 김과장은 인공지능을 여럿 사용해서 기한 내에 훌륭한 기획서를 제출할 수 있었다. 임원진들에게 발표할 때 반응도 좋았다.
그런데 난처한 상황이 벌어졌다. 하나는 경쟁 기업에서 유사한 내용의 기획안을 먼저 언론에 발표해 버린 것이고, 다른 하나는 기획안에 포함된 멋진 이미지가 저작권을 위반했으니 일정한 보상 금액을 지불하지 않으면 고소하겠다는 연락을 어느 변호사로부터 받은 것이다. 김과장은 자신의 아이디어가 담긴 기획안이 어떻게 경쟁사로 넘어갔는지, 그리고 그런 저작권이 있는 줄도 모르던 이미지에 대해 자신이 왜 추궁을 당해야 하는지를 이해할 수 없었다.”
회사 업무에 생성형 인공지능을 활용하는 사람들이 늘어나면서 위와 같은 당혹스러운 상황은 누구에게나 닥칠 수 있게 되었다. 왜 그런지를 이해하려면 현재 인공지능의 개발과 활용에서 저작권 관련 쟁점이 어떻게 전개되고 있는지를 이해해야 한다. 전체 상황은 복잡하지만 요점은 단순하다. 현재 저작권 관련 사안은 사용자에게 절대적으로 불리하기에 최대한 조심해야 한다!
1. AI 개발과 저작권: 빅테크에게 유리한 구조
AI와 관련해서 저작권이 문제가 되는 상황은 크게 두 가지로 나뉜다. 첫째는 인공지능 개발 과정에서의 학습 데이터의 저작권 문제이다. 잘 알려져 있듯이 현재 주도적인 인공지능 기계학습 방식은 엄청난 양의 데이터를 요구한다. 이 데이터의 거의 대부분은 인터넷에서 크롤링을 통해 확보한 데이터다. 당연히 저작권이 있는 데이터도 상당량 포함된다. 이 데이터에 대해 정당한 대가를 지불하라고 뉴욕타임즈를 비롯한 여러 저작권자가 인공지능 빅테크를 대상으로 소송을 제기했고 현재 일부 판결이 나오기도 했다. 아직 국제적으로 판결의 방향성에 완전한 합의가 있는 것은 아니지만 대체적으로 AI 학습 데이터에 대한 빅테크들의 '공정 이용(fair use)' 주장이 수용되고 있는 추세이다. 물론 게티이미지나 디즈니처럼 강력한 힘을 가진 저작권 소유자의 경우 빅테크와 '비공개 합의'를 통해 상당한 대가를 지불받을 수도 있다. 하지만 오픈AI를 비롯한 인공지능 회사의 입장은 인공지능은 전 인류의 공공 복지를 위한 기술이기에 저작권 예외 조항이 적용되어야 한다는 것이다. 오픈AI CEO 샘 알트만은 오직 적극적으로 문제를 제기한 '힘센' 측과만 개별적으로 조정하겠다는 입장을 밝히기도 했다.
하지만 정작 사용자가 인공지능 서비스를 이용하다 저작권 분쟁에 휘말리면 빅테크의 태도는 달라진다. 서비스 이용 약관에는 결과물로 인한 모든 법적 책임은 사용자에게 있다는 조항이 명시되어 있다.
최근 뉴욕타임스나 작가 협회가 빅테크를 대상으로 제기한 소송에서 인공지능 회사도 저작권 위반의 책임이 있다고 판결했지만 당연히 빅테크들은 항소했고 판결의 향방은 예측하기 어렵다. 요약하자면 빅테크는 학습할 때는 공익을 위해 면책을 주장하면서, 결과물에 문제가 생기면 구독료를 낸 사용자에게 책임을 전가하는 불공정한 기조를 유지하고 있다. 오픈AI도 구글도 앤스로픽조차 결코 당신을 도와주지 않을 것이라는 사실을 명심해야 한다.
2. 보안 문제: 새도우 AI의 위험
저작권 문제와 별도로 보안의 문제도 심각하다. 한때 외부 인공지능 서비스 활용을 장려하던 많은 회사들이 내부망과 외부망을 망분리하는 정책을 도입하고 있다. 삼성은 한 개발자가 자신이 작업하던 코드를 외부 인공지능에 올려 디버깅을 하다가 문제가 된 이후 민감한 정보에 대해 내부망인 가우스의 활용을 요구하고 있다. 원칙적으로 사용자가 올린 '모든'프롬프트는 외부에 유출될 수 있기에 영업비밀이나 중요한 내부 정보의 심각한 보안 위험이 있기 때문이다. 김과장의 기획안이 경쟁사에게 유출된 것도 이런 위험이 현실화된 것으로 볼 수 있다.
문제는 마감에 시달리며 업무를 해야 하는 직원의 입장에서는 보다 강력한 도구인 외부 인공지능의 '유혹'을 물리치기 어렵다는 데 있다. 이런 상황에서 직원들은 회사의 방침이나 상사의 감시를 피해 '몰래' 외부 인공지능 서비스를 업무에 사용할 수 있고, 이런 '새도우 AI' 사용의 보안 위험은 현재 AI를 적극적으로 활용하는 기업의 공통적인 골치거리가 되고 있다.
💡
이런 상황에서 취할 수 있는 합리적인 방식은 무조건 '망분리'를 강제하기보다는 업무 내용을 구별하여 철저한 망분리가 필요한 민감한 정보, 외부 인공지능 서비스 활용을 허용하되 모니터링과 통제가 가능한 '게이트웨이'를 통하도록 강제하는 준민감 정보, 그리고 이런 제한 없이 AI 활용이 가능한 정보로 나누어 인공지능 활용에서의 보안 문제에 대응하는 것이다. 최근 한국은행이 구축한 '보키(BOKI)' 시스템이 이 접근을 채택한 사례이다.
3. 현명한 사용자가 되기 위하여
업무에서 인공지능 활용이 (여러 한계도 있지만) 유용하다는 점은 누구도 부인할 수 없다. 하지만 여러 복잡한 AI 국제 거버넌스 요인들과 현재 인공지능 아키텍처의 기술적 특징으로 인해 저작권 문제와 보안 문제는 앞으로 상당 기간 사용자의 주의가 필요한 문제로 남아 있을 것이다. 그래서 사용자 여러분의 현명한 대응이 중요하다.
중요한 점은 개인이나 조직 모두 저작권을 포함해 인공지능 관련 사회적, 제도적 변화를 끊임없이 모니터링하고 그 대응 방안을 지속적으로 고민해야 한다는 점이다. 인공지능의 미래는 지금도 만들어지고 있기 때문이다.
Writer. 이상욱 교수
💡 시리즈 다음 편 예고
[Next Up] Part 2. 실전 대응과 법적 방어 기제 (정지우 작가)
구조적 리스크를 이해했다면, 이제 실전으로 들어갑니다. 저작권법과 부정경쟁방지법을 통해 내 책상 위에서 벌어지는 법적 분쟁에 어떻게 대응해야 하는지 정지우 변호사의 솔루션을 공개합니다.