딥페이크 기술 악용 사례, 처벌 사례 & AI 규제 동향

딥페이크 기술 세월이 흐를수록 인공지능(AI) 기술은 나날이 발전하고 있습니다. 특히 최근 주목받고 있는 기술 중 하나가 바로 ‘딥페이크(Deepfake)’입니다. 딥페이크란 인공지능을 활용해 실제 사람이나 사물의 모습을 합성하거나 조작한 가짜 영상이나 이미지를 일컫는 말이죠.

이 기술 자체는 엔터테인먼트나 교육, 의료 분야에서 유용하게 쓰일 수 있지만, 악용될 경우 심각한 사회적 문제를 야기할 수 있습니다. 실제로 세계 각국에서 딥페이크로 인한 처벌 사례가 잇따르고 있는 가운데, 이를 규제하기 위한 법안 마련도 한창입니다.

과연 어떤 사례들이 있었으며, 각국에서는 어떤 식으로 규제하고 있는지 구체적으로 알아보겠습니다.

딥페이크 기술의 악용사례와 처벌사례를 각 나라별로 소개하고 ai 규제에 대한 생각을 덧붙였다는 내용이 담긴 텍스트 썸네일


세계 각국의 딥페이크 처벌 사례

한국의 딥페이크 처벌 사례

대한민국에서는 2020년 4월 15일 국회의원 선거를 앞두고 특정 후보를 공격하기 위해 딥페이크 영상을 제작, 유포한 사건이 발생했습니다.

해당 영상에는 그 후보가 막말과 인신 공격성 발언을 하는 듯한 모습이 담겼는데, 전혀 사실이 아니었죠.

영상은 온라인상에서 큰 파장을 일으켰고, 결국 경찰 조사 끝에 가해자가 체포되었습니다.

법원은 가해자에게 명예훼손 및 허위사실 유포 혐의로 징역 1년에 집행유예 2년을 선고했습니다.

이전에는 딥페이크 음란물로 인한 피해 사례가 속출하고 있었는데요.

이런 사회적 혼란을 막고자 2020년 3월 국회에서는 ‘딥페이크 영상물’에 대한 처벌을 강화하기위해 성폭력범죄의 처벌 등에 관한 특례법 일부 개정 법률 공포안이 국무회의 의결을 통과하여 6월부터 시행되고 있습니다.

해당 법안에는 딥페이크 기술을 악용해 허위정보를 유포할 경우 형사처벌하는 내용이 포함되어 있었죠.

하지만 딥페이크 처벌 사례 및 수위가 낮아 실제 제재효과는 미미하다고 합니다.

무엇보다 단돈 몇만원으로도 쉽게 제작 및 유포되는 딥페이크의 특성에 비해 법적 처벌 기준이 모호하게 되어 있어 실제 처벌 할 수 있는 수는 얼마 되지 않는다고 하네요.

미국의 딥페이크 처벌 사례

2019년 4월 미국 펜실베이니아주 한 여성이 전 연인의 얼굴을 합성한 딥페이크 포르노 영상을 제작했다가 처벌을 받은 사례가 있습니다.

이 여성은 복수 목적으로 해당 영상을 제작하여 SNS와 포르노 사이트에 유포했는데, 이는 당시 미국에서 처음 발생한 딥페이크 포르노 사건이었죠.

검찰은 이 여성을 불법촬영물 유포와 범죄수익 은닉 혐의로 기소했고, 법원은 그에게 징역 3년형과 12만 달러의 벌금형을 선고했습니다.

판결문에서 재판부는 “이 사건이 여성 인권을 크게 침해했으며, 앞으로 유사 사례에 대해 엄중한 처벌이 있을 것”이라고 밝혔습니다.

유럽연합(EU)의 딥페이크 처벌 사례

2019년 5월, 벨기에의 한 정치인이 자신의 정적에 대한 허위 동영상을 페이스북에 게시했다가 처벌을 받은 사례가 있습니다.

해당 영상에는 정적 인물이 인종차별적 발언을 하는 모습이 담겼는데, 이는 딥페이크로 조작된 것이었죠.

벨기에 법원은 이를 명예훼손과 허위사실 유포로 판단하여 해당 정치인에게 6,000유로(약 800만 원)의 벌금형을 선고했습니다.

판결문에서 재판부는 “정치인들이 상대 정치인을 공격할 목적으로 딥페이크를 활용한다면 민주주의에 심각한 위협”이 될 수 있다며 엄중히 경고했습니다.

이 외에도 EU에서는 2018년 프랑스 한 예술가가 프랑스 전 총리의 말을 딥페이크로 합성한 사례가 있었습니다.

해당 영상은 총리가 허위 발언을 하는 것처럼 조작되어 있었는데, 예술가 측은 이를 ‘풍자 목적의 작품’이라고 주장했죠.

하지만 결국 법원은 이를 불법으로 판단하고 예술가에게 벌금형을 내렸습니다.

처벌을 당한듯 얼굴 반쪽이 벗겨져 기계적인 면이 드러난 한 남성의 모습이 있으며 특유의 손가락을 입에 대는 동작을 통해 불법적인 일을 저지른 것처럼 나타내고 있다.


딥페이크 관련 주요 국가별 AI 규제 동향

대한민국의 AI 규제 동향

우리나라는 2020년 1월부터 ‘지능정보화 기본법’을 시행하고 있습니다.

이 법은 AI 기술의 연구개발, 활용, 기반조성 등을 포괄적으로 규율하는 최초의 법안입니다.

구체적으로 이 법은 AI 기술 발전을 촉진하고 안전성과 윤리성을 확보하며, 관련 인력을 양성하는 등의 내용을 담고 있습니다.

AI 기술 활용 시 개인정보 보호, 차별 금지, 설명가능성 등의 원칙을 지켜야 한다는 점도 명시되어 있죠.

하지만 딥페이크에 대한 구체적인 규제 방안은 아직 마련되어 있지 않습니다.

정부 차원에서 관련 연구와 토론이 진행 중이며, 향후 딥페이크 기술 규제를 위한 별도 법안도 제정될 것으로 보입니다.

일각에서는 기존의 형법과 정보통신망법으로도 일정 부분 대응이 가능하다는 의견도 있지만, 딥페이크 기술의 특수성을 고려할 때 이를 전담할 수 있는 새로운 법체계가 필요하다는 지적이 많습니다.

특히 최근 국회에서는 ‘허위조작 AI 영상물 유통 규제법’ 제정을 골자로 한 입법 논의가 한창입니다.

미국의 AI 규제 동향

미국에서는 작년 2021년 10월, 상원 AI 분과위원회가 ‘인공지능을 위한 민주주의 보호법안’을 발의했습니다.

이 법안은 연방정부 차원에서 AI 기술, 특히 딥페이크 기술을 규제하기 위한 기본 원칙을 천명합니다.

주요 내용으로는 AI 개발 및 활용 시 공정성과 안전성 보장, AI 윤리 기준 마련, AI 기술 오남용 방지를 위한 처벌 규정, AI 기술의 학술적 연구 지원 등이 있습니다.

또한 딥페이크와 관련해서는 연방 차원의 규제 기관 신설, 불법 딥페이크 제작 및 유포 처벌, 딥페이크 콘텐츠 식별을 위한 기술 개발 등의 내용도 포함되어 있죠.

일각에서는 이 법안이 미국 AI 기업의 혁신과 발전을 저해할 수 있다는 우려도 제기되고 있지만, 향후 통과될 경우 불법 딥페이크 규제에 대한 기본 틀은 마련될 것으로 보입니다.

유럽연합(EU)의 AI 규제 동향

EU는 2021년 4월, AI 기술에 관한 종합 규제안인 ‘인공지능법(AI Act)’ 초안을 발표한 바 있습니다.

이 규제안은 인간의 안전과 기본권을 최우선으로 하되, 혁신과 투자를 저해하지 않는 균형을 추구한다는 입장입니다.

주요 내용을 살펴보면 우선 위험도에 따라 AI 시스템을 분류하고 각각의 요구사항을 규정하고 있습니다.

예컨대 고위험 AI 시스템의 경우 인간 감독, 강화된 데이터 거버넌스, 기록 의무 등이 부과됩니다. 이외에도 AI 윤리 원칙 수립, 시장 감독기구 설치 등을 명시하고 있죠.

특히 딥페이크와 관련해서는 ‘허위 외관(임퍼소네이션) AI 시스템’을 명시적으로 금지하고 있습니다.

다만 예외적으로 법 집행, 언론 등 공익적 목적의 경우에는 허용될 수 있습니다. 또한 딥페이크 콘텐츠 사용 시 주의문구 게시를 의무화하는 등 섬세한 규정도 담고 있습니다.

규제안이 통과되면 EU는 세계 최초로 AI 전반을 아우르는 법체계를 갖추게 됩니다. 이미 EU 집행위는 해당 규제안을 빠르면 2024년부터 적용할 것이라고 예고한 상황입니다.

딥페이크 기술


앞으로의 딥페이크는 어떻게 될까?

지금까지 딥페이크 기술 악용에 따른 처벌 사례와 관련 AI 규제 동향을 살펴보았습니다.

종합해보면 세계 각국이 딥페이크 기술의 위험성을 인지하고 이를 규제하기 위한 법적 기반을 마련하고 있다는 점을 알 수 있습니다.

하지만 동시에 딥페이크 기술 자체를 전면 금지하기란 현실적으로 어려울 것으로 보입니다.

왜냐하면 이 기술이 영화, 방송, 의료 등 다양한 분야에서 유익하게 활용될 수 있기 때문입니다. 따라서 딥페이크 콘텐츠 자체를 지나치게 제한하기보다는, 악의적 목적으로 활용되는 것을 막는 데 초점을 맞추는 것이 합리적일 것 같습니다.

그런 의미에서 최근 EU의 ‘인공지능법’ 초안이 주목할 만합니다.

여기서는 고위험 AI의 인간 감독 의무화, 허위 외관 AI 원칙적 금지 등의 방안을 제시하고 있습니다. 즉, 유해 콘텐츠에 대해서만 강력히 규제하되, 기술 발전 자체를 막지는 않겠다는 입장인 셈이죠.

앞으로 우리나라에서도 이런 방향으로 관련 법안을 마련할 필요가 있습니다.

예를 들어 고의로 딥페이크 기술을 악용해 타인의 명예를 훼손하거나 사회 혼란을 초래한 자에 대해서는 무겁게 처벌하는 한편, 긍정적인 활용 분야에 대해서는 규제를 완화하는 식의 균형 잡힌 접근이 바람직할 것으로 보입니다.

더불어 딥페이크 콘텐츠 식별기술 개발에도 힘써야 합니다. 정부와 기업이 협력하여 딥페이크를 탐지하고 분류할 수 있는 AI 기술을 발전시킨다면, 악의적 목적의 딥페이크를 사전에 차단할 수 있을 것입니다.

또한 국민 대상 교육과 인식 개선 노력도 게을리해서는 안 됩니다.

딥페이크 기술의 위험성을 알리고, 이를 어떻게 식별하고 대응해야 하는지에 대한 교육 프로그램을 마련해야 합니다. 특히 언론계와 정치권에서는 딥페이크 활용에 더욱 엄격한 자정 노력이 필요해 보입니다.

마지막으로 국제사회 차원의 공조도 중요합니다.

앞서 소개한 바와 같이 주요 국가들은 나름의 규제 체계를 갖추고 있지만, 아직 표준화된 국제기준은 부재한 상황입니다.

만약 국가별로 제각각 규제 수준을 달리한다면, 앞으로 통신기술 발달에 따라 국경을 초월한 불법 딥페이크 유통이 만연할 수 있습니다.

따라서 UN 산하 국제기구를 중심으로 공동의 규범을 정립하고 국가 간 정보 공유와 법집행 공조가 필요할 것으로 보입니다.

요컨대 딥페이크 기술을 악용하는 자에 대해서는 엄중한 처벌이 뒤따라야겠지만, 긍정적 활용 분야에 대해서는 기술혁신이 저해되지 않도록 유념해야 합니다.

기술의 편익을 최대한 활용하되, 부작용은 최소화할 수 있는 균형 잡힌 정책이 요구된다고 하겠습니다.

이를 위해서는 공권력의 역할과 함께 국민들의 인식 제고, 그리고 국제사회의 협력이 필수적입니다.

딥페이크 기술 악용 사례, 처벌 사례 & AI 규제 동향”의 1개의 생각

  1. 핑백: 딥페이크 구별법 & 대응: 가짜 영상을 가려내는 방법

댓글이 닫혀있습니다.