딥페이크가 우리의 기억을 바꾸는 방법

Deepfakes Mandela effect

최근 인터넷은 놀라운 이미지들 때문에 한바탕 떠들썩했습니다. 교황님이 패딩을 입고, 무릎을 꿇은 블라디미르 푸틴이 시진핑의 손에 키스를 하는 사진 때문이었습니다. 사실 이런 일은 실제로 일어나지 않았습니다. 이 이미지들은 딥페이크로 알려진 첨단 AI 기술이 만들어낸 결과물입니다.

Fake photos of Pope Francis wearing a large white puffer coat, created with an AI-image generator, fooled users online.

AI 이미지 생성기로 만든 커다란 흰색 패딩를 입은 프란치스코 교황의 가짜 사진이 온라인 사용자들을 속였습니다.

중국 국가주석의 러시아 국빈 방문 기간 중 블라디미르 푸틴 러시아 대통령이 무릎을 꿇고 시진핑의 손에 키스하는 AI 생성 이미지가 소셜 미디어에 떠돌았고, 일부는 이 가상의 장면이 실제라고 믿었습니다.

이러한 딥 러닝 기반 가짜 이미지는 AI가 현실과 허구 사이의 경계를 얼마나 쉽게 모호하게 만들 수 있는지를 보여주며 중요하고 큰 영향력을 가집니다.

[부담 없는 VPN 체험으로 온라인 활동을 보호하고 개인 정보를 비공개로 유지하세요.] 

저희는 AI가 어떻게 우리의 기억을 바꾸고 있는지, 그리고 딥페이크가 ‘만델라 효과’라고 알려진 현상에 얼마나 기여할 수 있는지에 대해 자세히 알아봤습니다. 

‘만델라 효과’란 무엇인가?

이 용어는 남아프리카 공화국의 반인종차별주의 혁명가이자 정치가인 넬슨 만델라의 이름을 따왔습니다. 많은 사람들은 그가 1980년대에 감옥에서 죽었다고 믿었습니다. 하지만 실제로 그는 1990년에 석방되어 남아프리카 공화국의 대통령이 되었고 결국 2013년에 세상을 떠났습니다.

이후 만델라 효과는 브랜드 이름의 철자, 노래 가사, 영화나 TV 쇼의 줄거리, 역사적인 사건의 세부 사항을 비롯해 잘못 기억된 다양한 사건이나 세부 정보를 설명하는 데 사용되었습니다.

만델라 효과의 한 예로는 1990년대 인기 코미디언 신밧드가 있습니다. 많은 사람들은 신밧드가 두 아이를 돕는 지니 역을 연기한 ‘샤잠‘이라는 영화(2019년 슈퍼히어로 영화 ‘샤잠(Shazam)‘이 아님)를 기억한다고 주장합니다. 하지만 그런 영화는 만들어진 적이 없습니다. 가장 비슷한 것으로 ‘카잠(Kazaam)‘이라는 영화가 있는데, 이 영화에는 샤킬 오닐이 지니로 출연했습니다.

샤잠이라는 영화가 존재한다는 증거가 부족함에도 불구하고 많은 사람들은 그런 영화를 봤다고 확신하며 줄거리, 등장인물, 심지어 영화 포스터가 어땠는지에 대한 세부 사항을 기억합니다. 비록 신밧드 본인이 지니를 연기한 적이 없다고 말했지만 그 영화에 대한 생각이 사람들의 기억에 너무 깊이 박혀서 그 영화가 정말로 있다고 굳게 믿습니다.

[QUIZ] 기억이 장난을 치고 있나요? 만델라 효과 퀴즈를 통해 지식을 테스트해보세요.

무엇이 ’만델라 효과’를 일으키는가?

만델라 효과가 왜 일어나는지 완전히 밝혀지지는 않았지만 그 원인을 설명하는 몇 가지 이론이 있습니다. 한 이론은 잘못된 정보, 잘못된 해석 또는 암시의 힘으로 인해 사람들이 사건이나 사실을 잘못 기억하는 거짓 기억의 결과라고 주장합니다. 더 크게는 매트릭스나 평행 우주의 결함 때문에 사람들이 다른 버전의 현실을 경험했을 수 있다는 이론도 있습니다.

심리학자들은 만델라 효과가 우리의 뇌가 연결되어 있는 방식에 의해 야기될 수 있다고 생각합니다. 구체적으로 말하자면 우리 마음이 때때로 다른 사람들의 말이나 우리 자신의 이미 갖고 있는 믿음 등에 영향을 받을 수 있고, 그로 인해 우리가 어떤 정보를 잘못 기억하게 만들 수 있다는 것입니다. 이것은 인지적 편견이라고 불립니다. 예를 들어, 소셜 미디어에서 많은 사람들이 어떤 일이 특정한 방식으로 일어났다고 말한다면 우리는 그 일이 실제로 그런 방식으로 일어났다고 믿게 될 수 있습니다. 실제로는 그러지 않았더라도 말입니다.

만델라 효과가 최근에 발생한 것이 아니고 대부분 대중 문화와 관련이 있지만, 최근 딥페이크의 증가로 거짓 정보가 훨씬 더 빠르고 쉽게 퍼질 수 있으며 더 많은 사람들이 실제로 일어나지 않은 일들을 기억하게 될 수 있습니다.

이 문제는 우리가 온라인에서 보는 정보를 신뢰할 수 있는지, AI를 사용해 이미지와 동영상을 조작하는 것이 괜찮은지, 그리고 우리의 기억과 믿음을 형성하는 데 기술이 얼마나 많은 힘을 가져야 하는지에 대한 중요한 질문을 제기합니다.

딥페이크에서 파생된 기억의 위험성

딥페이크는 AI를 이용해 사람들이 실제로 하지 않은 말이나 행동을 하는 실제 같은 동영상과 이미지를 만들어냅니다. 이 기술은 많은 양의 데이터에 인공 신경망을 훈련시키는 머신 러닝의 일종인 딥 러닝을 기반으로 합니다.

2019년 기준으로 온라인에서 검출된 딥페이크는 15,000개 미만입니다. 세계 경제 포럼에 따르면 전문가가 조작한 딥페이크의 수는 매년 900%씩 증가하고 있습니다.

딥 페이크의 가장 우려되는 점은 가짜 뉴스나 선전을 만들거나 금전적 이익을 위해 누군가를 사칭하는 등의 악의적인 목적으로 사용될 가능성입니다. 이 기술은 딥페이크 포르노를 만드는 데도 사용되고 있어 개인 착취와 학대 가능성에 대한 우려가 제기되고 있습니다.

또한 딥페이크 기술은 매우 실제 같은 특징을 지니고 있어 사람들이 실제로 일어난 적이 없는 일을 봤다고 믿게 만드는 힘이 있습니다. 이로 인해 궁극적으로 사람들이 진실되지 않은 시나리오를 사실로 잘못 기억하게 될 수 있습니다.

다음은 만델라 효과와 그에 따른 위험에 딥페이크가 얼마나 기여할 수 있는지에 대한 몇 가지 예입니다.

가짜 뉴스 스토리 생성

딥페이크는 가짜 뉴스를 생성하는 데 이용될 수 있으며, 완전히 조작되었더라도 너무 현실적이어서 사람들은 그 내용을 사실이라고 믿게 됩니다. 그 예로, 특정 사회 정치적 의도를 추진하려는 목적으로 만들어진 테러 공격 또는 자연 재해 관련 거짓 뉴스가 있습니다. 딥페이크로 이러한 이야기를 만든다면 그 결과물은 설득력 있는 동영상과 오디오가 삽입된 실제 뉴스 보도처럼 보일 있습니다. 이로 인해 결국에는 다음 세대가 왜곡된 역사관을 갖게 될 수도 있습니다.

정치적 여론몰이

2018년 중간 선거를 몇 달 앞두고 버락 오바마가 당시 대통령인 도널드 트럼프를 욕하는 딥페이크 동영상이 온라인에 퍼졌습니다. 그 동영상은 오스카 수상 감독인 조던 필이 온라인에서 접하는 자료를 신뢰하는 사용자에 대한 경고의 목적으로 만든 것입니다. 역설적이게도, 수많은 트럼프 지지자들이 그것을 진짜라고 믿는 바람에 그들 무리가 분노를 표하기 위해 해당 동영상을 소셜 미디어로 퍼나르는 역효과를 낳았습니다.

정치 후보자나 공인이 실제로 하지 않은 말이나 행동을 하는 유사한 딥페이크 동영상이 충분히 설득력이 있다면 민주주의의 기능과 기관에 대한 국민의 신뢰에 해로운 영향을 미칠 수 있습니다.

예를 들어, 점점 더 많은 사람들이 소셜 미디어나 다양한 뉴스 매체를 통해 정치 후보자들이 등장하는 그럴 듯한 딥페이크 동영상에 노출됨에 따라 거짓 기억이 퍼져 진실로 받아들여질 수 있습니다. 이는 사람들이 선거에서 누구에게 투표하고 누구를 지도자로 지지할지를 변화시킬 수 있습니다.

선전 선동

딥페이크로 만들어진 선전 캠페인은 여론을 조작하고 국가가 후원하는 단체에 대한 허위 정보를 퍼뜨리는 데 이용될 수 있으며 결국 왜곡된 현실관을 초래할 수 있습니다. 예를 들어, 러시아와의 지속적인 분쟁과 관련하여 우크라이나 정보부는 최근 볼로디미르 젤렌스키 우크라이나 대통령이 우크라이나인들에게 항복을 촉구하는 모습이 담긴 딥페이크가 유포되고 있다고 경고했습니다.

이 동영상은 많은 플랫폼에서 삭제되었음에도 불구하고 페이스북, 레딧, 틱톡 등 여러 소셜 미디어 사이트에 계속 나타나 대중들 사이에 갈등을 일으키고 그들이 진실을 구별하기 어렵게 만들고 있습니다.

역사적 자료 변형

딥페이크는 실제 일어난 일에 대한 사람들의 기억을 바꾸기 위해 정치 연설 또는 중요한 사건이 담긴 영상과 같은 역사적 자료를 변형하는 데 사용될 수 있습니다. 이는 과거에 실제로 일어난 일에 대한 혼란과 불확실성을 불러일으켜 역사적 기록과 미디어에 대한 대중의 신뢰를 떨어뜨리고 궁극적으로 음모론을 부추길 수 있습니다.

달 착륙을 예로 들어보겠습니다. 오늘날까지 어떤 이들은 달 착륙이 실제로 일어난 적이 없다고 주장합니다. 딥페이크는 이러한 거짓된 이야기를 뒷받침하는 설득력 있는 동영상과 음성 녹음을 날조하는 데 활용되어 역사적 사건의 진실성에 대한 회의와 불신을 심화시킬 수 있습니다.

소셜 미디어 콘텐츠 조작

딥페이크는 소셜 미디어 플랫폼에 쉽게 접근할 수 있으며 유명 인사, 공인 또는 인플루언서가 특정 행사에 참석하거나 특정 제품을 홍보하는 것처럼 보이게 하는 가짜 게시물을 만드는 데 이용될 수 있습니다. 딥페이크는 거짓된 이야기가 통제되지 않고 퍼지도록 함으로써 사회를 양극화하고 허위 정보 캠페인을 위한 비옥한 토대를 만들 수 있습니다. 이는 결국 민주주의와 사회적 결속에 매우 중요한 소통 도구로서의 소셜 미디어의 신뢰성을 훼손합니다.

과학적 증거 날조

딥페이크는 바이러스의 기원부터 의학적 해결책에 이르기까지 거짓 주장이나 가설을 뒷받침하는 가짜 과학적 증거를 만드는 데 이용될 수 있습니다. 예를 들어, 어떤 사람들은 인간의 활동이 기후 변화를 초래한다는 수많은 과학적 증거에도 불구하고 기후 변화에 관한 잘못된 정보를 퍼뜨리려고 노력합니다. 이는 지구 온난화와 같은 중요한 문제에 위협이 됩니다.

딥페이크는 기후 변화가 외부 요인에 의해 발생한다고 주장하는 잘못된 과학적 증거를 만들어낼 수 있으며, 이는 심각한 영향을 미칠 수 있습니다. 기후 변화 원인에 대한 회의가 만연해진다면 정책 입안자들이 기후 변화를 해결하기 위한 조치를 취할 가능성이 낮아질 수 있습니다. 더 나아가 여론을 분열시키고 이 시급한 문제의 해결 방안에 대한 합의에 도달하는 것을 어렵게 만들 수 있습니다.

거짓 알리바이 만들기

게다가 딥페이크는 법정 사건에서 거짓 자백 또는 진술을 만들거나 범죄자들의 알리바이를 만들기 위해 보안 영상을 조작하는 데에도 이용될 수 있습니다. 이로 인해 범죄 사건을 중심으로 거짓된 소문이 생겨나고 사람들은 가해자가 범죄를 저지르지 않았거나, 무고한 사람이 범죄를 저질렀다고 믿게 될 수 있습니다. 시간이 지나면서 이 헛소문은 사건 관련자들의 집단 기억 속에 깊이 스며들어 그들 사이에서 사실로 받아들여질 수 있습니다.

세간의 주목을 받는 형사 사건에서 피고인 측이 범행 당시 다른 장소에 있는 피고인의 모습이 담긴 매우 사실적인 딥페이크 동영상을 만들었다고 해봅시다. 이 동영상은 널리 유포되어 많은 사람들은 피고인이 살인을 했을 리 없다고 믿게 됩니다. 나중에 이 동영상이 딥페이크로 판명되어 피고인이 유죄 판결을 받더라도 동영상에 대한 기억 때문에 피고인이 무죄였다고 계속해서 믿는 사람들이 있을 수 있습니다.

딥페이크를 구별하는 10가지 방법

에이브러햄 링컨의 명언 중에 이런 말이 있습니다. “인터넷에서 보는 어떤 것도 믿지 말라.” 딥페이크가 잘못된 기억을 만들어내는 문제에 맞서기 위해서는 우리 모두가 인터넷에서 소비하는 정보에 대해 비판적이고 회의적인 태도를 유지하고 기술 회사와 정부가 협력하여 딥페이크 동영상의 확산을 탐지하고 방지하는 솔루션을 개발하는 것이 필수적입니다.

잘못된 정보와 잘못된 기억의 확산으로부터 자신을 보호하기 위해 딥페이크를 구별하는 방법을 알아보세요.

  1. 얼굴 왜곡 및 변형
  • 얼굴에 조명 및 3D 변환 왜곡이 있는지 확인하기
  • 특히 볼, 이마, 눈썹, 얼굴 털에서 질감의 불일치 확인하기
  1. 현실적인 눈 및 입술 움직임
  • 음영, 눈 색깔, 얼굴 점 및 눈 깜빡임의 움직임이 사실적인지 확인하기
  • 피사체의 입술이 해당 얼굴과 자연스럽게 조화를 이루는지 확인하기
  1. 피사체 움직임 및 제스처
  • 동영상에서 피사체의 움직임과 제스처에 주의 기울이기
  • 어색하거나 너무 완벽해 보이지 않는지 확인하기
  1. 오디오 분석
  • 동영상의 오디오 주의 깊게 듣기
  • AI가 생성하거나 변형한 음성을 사용하고 있을 수 있으므로 음성이 인위적으로 들리거나 왜곡되었는지 확인하기
  1. 조명 및 반사 불일치
  • 동영상 또는 이미지에 담긴 환경 또는 사람의 위치와 어울리지 않는 조명 및 반사의 불일치 찾기
  1. 동영상 콘텐츠 검증
  • 원본 동영상을 찾거나 다른 예를 검색하여 내용 검증하기
  • Google 이미지 검색, TinEye, SourceNAO 또는 Bing Visual Search와 같은 도구로 리버스 이미지 검색 사용하기
  1. 맥락 분석
  • 맥락을 통해 동영상의 진위를 알 수 있으므로 동영상이 게시 혹은 공유된 맥락 평가하기 (예: 교황이 왜 갑자기 교황궁에서 자주 착용하는 전형적인 예복을 입고 있지 않을가?)
  • 동영상의 원출처가 평판이 좋은 뉴스 기관인지, 임의의 소셜 미디어 사용자인지, 의심스러운 의도를 가진 개인인지 확인하기
  1. 부자연스럽거나 흔치 않은 상황
  • 유명한 사람이 성격에 맞지 않는 행동을 하거나 정치인이 논란이 되는 말을 하는 등 흔하지 않거나 가능성이 낮은 상황을 보여주는 동영상에 회의적인 태도 갖기
  1. 메타데이터 확인
  • 동영상의 메타데이터를 확인하여 녹화 시간 및 장소 등이 동영상 속 주장과 일치하는지 확인하기
  • 메타데이터는 쉽게 변경될 수 있으므로 동영상의 진위를 판단하는 유일한 기준이 될 수 없음을 유념하기
  1. 최신 정보 확인
  • 딥페이크를 만드는 데 사용되는 기술은 끊임없이 개선되고 있으며 앞으로 딥페이크를 구별해내기가 점점 더 어려워 질 수 있다는 사실을 유념하기
  • 이 분야의 새로운 발전에 대해 가능한 한 최신 정보를 습득하고 의심스럽거나 뉴스거리가 될 만한 동영상을 공유하거나 그런 동영상에 반응할 때는 주의를 기울이기
ExpressVPN은 고객의 온라인 보안 및 개인정보 보호를 위해 최선을 다하고 있습니다. 이 계정의 게시물은 회사 뉴스 또는 중요한 개인 정보 보호 및 보안 사례를 다룹니다.