가짜 이미지와 비디오로 온라인에 속지 마십시오.
아니, 허리케인 이르마 (Hurricane Irma)의 실제 뉴스 보도가 아니야. 스노 프스

2016 미국 대통령 선거 1 개월 전 도널드 트럼프 (Donald Trump)의 "Access Hollywood"녹음이 공개되어 여성에 관한 이야기를 들려 주었다. 그때 후보자와 그의 캠페인은 그 말을 무해하다고 사과하고 기각했다.

당시 녹음의 진위는 의문의 여지가 없었습니다. 불과 2 년 후, 사람들은 자신이 보는 것과 듣는 것을 믿는 관점에서 극적으로 다른 풍경 속에서 스스로를 찾습니다.

인공 지능의 발전 강력하고 정교한 가짜 이미지, 비디오 및 오디오 녹음을보다 쉽게 ​​만들 수 있습니다. 그 동안에, 소셜 미디어에서 잘못된 정보가 확산된다., 양극화 된 대중 아마도 그들의 세계관에 부합하는 뉴스를 먹는 것에 익숙하다..

모두는 온라인에서보고 듣는 것을 믿는 것이 점점 더 어려워지는 기후에 기여합니다.

당신이 속임수에 빠지지 않도록 자신을 보호하기 위해 할 수있는 일이 몇 가지 있습니다. 다가오는 책 "가짜 사진"의 저자로서 8 월에 출간되기 위해, 나는 거짓말 쟁이에 빠지지 않도록 자신을 보호하기위한 몇 가지 요령을 제시하고자합니다.


내면의 구독 그래픽


1. 이미지가 이미 삭제되었는지 확인하십시오.

많은 가짜 이미지가 재순환되고 이전에 해설되었습니다. 역상 검색은 이미지가 이전에 어떻게 사용되었는지를 간단하고 효과적으로 보여줍니다.

키워드가 지정된 일반적인 인터넷 검색과는 달리, 구글 or TinEye 방대한 데이터베이스에서 동일하거나 유사한 이미지를 검색 할 수 있습니다.

이미지 검색 엔진을 반대로하면 인터넷에서 방대하고 광범위하게 끊임없이 변화하는 콘텐츠를 철저히 색인 할 수 없습니다. 따라서 이미지가 인터넷에 있더라도 사이트에서 발견 될 것이라는 보장은 없습니다. 이 점에서, 이미지를 찾지 않는다고해서 이것이 진짜가 아니거나 가짜 인 것은 아닙니다.

관심 영역 만 포함하도록 이미지를 자르면 일치 가능성을 높일 수 있습니다. 이 검색은 상업용 사이트에 이미지를 업로드해야하므로 중요 이미지를 업로드 할 때는주의하십시오.

2. 메타 데이터 확인

디지털 이미지는 종종 자신의 출처와 신뢰성에 대한 단서를 제공 할 수있는 풍부한 메타 데이터를 포함합니다.

메타 데이터는 데이터에 관한 데이터입니다. 디지털 이미지의 메타 데이터에는 카메라 제조사 및 모델이 포함됩니다. 조리개 크기 및 노출 시간과 같은 카메라 설정; 이미지가 캡처 된 날짜와 시간. 이미지가 캡처 된 GPS 위치; 그리고 훨씬 더.

가짜 이미지와 비디오로 온라인에 속지 마십시오.
EXIF 데이터는 꽃의 사진에 대한 단서를 제공합니다.
Andreas Dobler / Wikimedia의 원본 이미지, CC의 BY-SA

날짜, 시간 및 위치 태그의 중요성은 자명합니다. 다른 태그는 똑같이 똑같은 해석을 할 수 있습니다. 예를 들어, 사진 편집 소프트웨어는 소프트웨어를 식별하는 태그 또는 다른 태그와 일치하지 않는 날짜 및 시간 태그를 도입 할 수 있습니다.

여러 태그는 카메라 설정에 대한 정보를 제공합니다. 이러한 설정에 의해 암시 된 이미지 속성과 이미지의 실제 속성간에 큰 불일치는 이미지가 조작되었다는 증거를 제공합니다. 예를 들어, 노출 시간 및 조리개 크기 태그는 촬영 된 장면의 광 레벨을 정 성적으로 측정합니다. 짧은 노출 시간과 작은 조리개는 낮에는 높은 조명 수준을 갖는 장면을 제시하지만 긴 노출 시간과 큰 조리개는 야간이나 실내에서 낮은 조명 수준의 장면을 나타냅니다.

메타 데이터는 이미지 파일에 저장되며 다양한 프로그램으로 쉽게 추출 할 수 있습니다. 그러나 일부 온라인 서비스는 이미지 메타 데이터의 대부분을 제거하므로 메타 데이터가 없어도 드문 일은 아닙니다. 그러나 메타 데이터가 손상되지 않은 경우 매우 유익한 정보가 될 수 있습니다.

3. 가짜 일 수있는 것과하지 말아야 할 일들을 인식하십시오.

이미지 또는 비디오가 본격적인지 평가할 때 무엇이 ​​무엇이며 가짜가 아닌 것을 이해하는 것이 중요합니다.

예를 들어 어깨에서 어깨 사이에 서있는 두 사람의 이미지는 두 이미지를 서로 이어 붙여 비교적 쉽게 만들 수 있습니다. 서퍼 옆에서 수영하는 상어의 이미지도 마찬가지입니다. 반면 복잡한 상호 작용은 가짜이기 때문에 포용하는 두 사람의 이미지를 만드는 것이 어렵습니다.

현대 인공 지능은 매우 매력적인 가짜를 생산할 수 있지만 딥 페이크 - 이것은 주로 전신이 아닌 비디오의 얼굴과 목소리를 변경하는 것으로 제한됩니다. 따라서 절대 한 적이없는 사람의 좋은 가짜를 만들 수는 있지만 절대 한 적이없는 신체적 행위를 반드시 수행하는 것은 아닙니다. 그러나 이것은 향후 몇 년 동안 분명히 바뀔 것입니다.

4. 상어를 조심하십시오.

디지털 법의학 분야에서 20 년이 넘은 시간 동안 나는 상어와의 바이러스 이미지가 거의 항상 가짜라는 결론에 도달했습니다. 장엄한 상어 사진을 조심하십시오.

5. 잘못된 정보 싸움에 도움

가짜 이미지와 동영상으로 인해 전 세계의 끔찍한 폭력, 민주적 인 선거 및 시민 불안에 대한 조작. 잘못된 정보의 보급은 이제 누구나 동의하지 않는 뉴스에 대한 반응으로 "가짜 뉴스"를 울릴 수있게합니다.

기술 분야에서는 콘텐츠 중재 정책을 광범위하고 심도있게 변경하는 것이 중요하다고 생각합니다. 기술의 거장은 더 이상 직접적이고 측정 가능한 피해를 무시할 수 없습니다. 그들의 무기의 무기화.

더 나아가 정교한 가짜를 쉽게 만들 수있는 기술을 개발하는 사람들은 자신의 기술이 어떻게 남용 될 수 있는지, 남용을 방지하기 위해 몇 가지 안전 장치를 설치하는 방법에 대해 신중하게 생각해야합니다. 또한 디지털 포렌식 커뮤니티는 가짜 이미지, 비디오 및 오디오를 신속하고 정확하게 탐지 할 수있는 도구를 계속 개발해야합니다.

마지막으로, 모든 사람들이 콘텐츠를 온라인에서 사용하고 퍼뜨리는 방식을 변경해야합니다. 온라인으로 이야기를 읽을 때 근면하고 근원을 고려하십시오. New York Evening (가짜 뉴스 사이트)은 The New York Times와 동일하지 않습니다. 항상 양파의 환상적인 풍자적 인 이야기에주의를 기울여야한다.

각 이야기의 날짜를 확인하십시오. 가짜 이야기는 도입 후 몇 년이 지난 후에도 계속해서 돌아갑니다. 많은 헤드 라인이 당신의주의를 끌기 위해 고안되었다는 것을 알아야합니다. 소셜 미디어에서 읽은 뉴스는 알고리즘을 사용하여 이전 소비량을 기반으로 사용자에게 제공되며, 기존의 뷰를 준수하는 스토리에만 사용자를 노출시키는 에코 챔버를 만듭니다.

마지막으로 특별한 주장은 특별한 증거가 필요합니다. 신뢰할 수있는 2 차 및 3 차 소스를 사용하여 특히 공유하기 전에 사실을 확인하는 데 모든 노력을 기울이십시오.

저자에 관하여

Hany Farid, 컴퓨터 과학 교수, 다트머스 대학

이 기사는에서 다시 게시됩니다. 대화 크리에이티브 커먼즈 라이센스하에 읽기 원래 기사.

관련 서적

at 이너셀프 마켓과 아마존