• 9개월 전
■ 진행 : 함형건 앵커
■ 출연 : 김덕진 IT커뮤니케이션 연구소장

* 아래 텍스트는 실제 방송 내용과 차이가 있을 수 있으니 보다 정확한 내용은 방송으로 확인하시기 바랍니다. 인용 시 [YTN 뉴스라운지] 명시해주시기 바랍니다.

◇앵커> 그래서 구체적으로 어떤 사례들이 있었습니까?

◆김덕진> 예를 들면 말씀하신 조 바이든 이슈도 있었고 또 일론 머스크가 비트코인 투자자를 모집한다는 거짓 홍보 영상도 있었습니다. 그 외에 또 우리나라의 조인성, 송혜교 씨가 투자를 권유하는 영상들도 나왔어요. 그런데 이런 부분은 실제로 국내에서 피해자들도 상당히 존재했던 부분이고요. 그 외에 또 톰 행크스 같은 경우에 본인의 인스타그램에 가짜 톰 행크스에 속지 마세요라는 영상을 올리기도 했습니다. 왜냐하면 본인이 본인의 인스타그램을 보는데 본인이 안 찍은 광고가 나오는 거예요. 그거에 대해서 이게 어떻게 된 거냐 하면서 피해에 대한 이야기를 했고요.

또 이미지도 문제가 되는데 작년 5월에 펜타곤 옆이 폭발했다라고 하는 가짜 이미지를 누가 만든 거예요. 그런데 그것도 요즘에는 문장 하나만 넣어도 이런 이미지가 나오거든요. 그런데 그 이미지와 함께 가짜뉴스, 예를 들면 모 언론사가 단독 보도다라는 게 같이 나오니까 이게 실제인 줄 알고 인도에 있는 한 TV 프로그램, TV 방송에서 이걸 보도를 한 겁니다. 가짜의 정보를 보고 속보라고 보도를 하니까 일이 더 커지는 상황들도 작년에 생겼는데요. 그만큼 우리가 알든 모르든 이미 이러한 AI의 부작용 혹은 딥페이크의 부작용이라고 하는 것들이 이미 많이 나오고 있다. 그리고 실제로 피해를 당하는 사람들도 많이 있다라고 말씀드릴 수 있을 것 같습니다.

◇앵커> 유명인의 이미지를 이용한 이런 가짜 정보, 허위 정보는 물론이고 일반인들도 이 리스크에 노출돼 있는 것 아니겠습니까?

◆김덕진> 그렇죠. 이 부분이 상당히 피해가 심각한데요. 이른바 온라인에서 안 좋은 얘기인데 지인 능욕이라는 키워드가 이슈가 되기도 했어요. 오히려 아는 사람들의 이미지를 자꾸 이러한 음란물에 활용하는 이러한 건수들도 상당히 많이 늘었고요. 그래서인지 국내에 딥페이크에 대한 성적 허위 영상물을 차단하거나 삭제하는 건수들이 계속 늘어납니다. 문제는 이게 본인이 알고 본인이 신고하지 않으면 기본적으로 이게 자동으로 모니터링이 되지 않고 있기 ... (중략)

▶ 기사 원문 : https://www.ytn.co.kr/_ln/0134_202402011458462465
▶ 제보 안내 : http://goo.gl/gEvsAL, 모바일앱, social@ytn.co.kr, #2424

▣ YTN 데일리모션 채널 구독 : http://goo.gl/oXJWJs

[ 한국 뉴스 채널 와이티엔 / Korea News Channel YTN ]

Category

🗞
뉴스

추천