AI가 생성한 사진?

얼굴 분석을 잘한다고 생각해도 연구 보여줍니다 많은 사람들이 실제 얼굴 사진과 컴퓨터로 생성된 이미지를 확실하게 구분하지 못합니다. 이것은 컴퓨터 시스템이 존재하지 않는 사람들의 사실적인 사진을 생성할 수 있는 지금 특히 문제가 됩니다.

최근에 컴퓨터로 생성된 프로필 사진이 포함된 가짜 LinkedIn 프로필이 뉴스를 만들었습니다. 미국 관리 및 기타 영향력 있는 개인과 성공적으로 연결됨 예를 들어 네트워킹 플랫폼에서. 방첩 전문가들은 심지어 스파이들이 일상적으로 그러한 사진으로 팬텀 프로필을 만들어 소셜 미디어를 통해 외국 목표물에 집에.

이러한 딥 페이크는 일상 문화에서 널리 퍼지고 있으며, 이는 사람들이 마케팅, 광고 및 소셜 미디어에서 딥 페이크가 어떻게 사용되고 있는지 더 잘 인식해야 함을 의미합니다. 이미지는 또한 정치적 선전, 간첩 및 정보 전쟁과 같은 악의적인 목적으로 사용되고 있습니다.

이를 만드는 데는 뇌가 학습하는 방식을 모방하는 컴퓨터 시스템인 심층 신경망이라는 것이 포함됩니다. 이것은 실제 얼굴의 점점 더 큰 데이터 세트에 노출되어 "훈련"됩니다.

실제로 두 개의 심층 신경망이 서로 경쟁하여 가장 사실적인 이미지를 생성하기 위해 경쟁합니다. 결과적으로 최종 제품은 GAN 이미지라고 불리며 GAN은 Generative Adversarial Networks를 나타냅니다. 이 프로세스는 훈련 이미지와 통계적으로 구별할 수 없는 새로운 이미지를 생성합니다.


내면의 구독 그래픽


iScience에 발표된 연구에서, 우리는 이러한 인공 얼굴을 실제와 구별하지 못하는 것이 온라인 행동에 영향을 미친다는 것을 보여주었습니다. 우리의 연구에 따르면 가짜 이미지는 다른 사람에 대한 우리의 신뢰를 약화시키고 우리가 온라인에서 소통하는 방식을 근본적으로 바꿀 수 있습니다.

제 동료들과 저는 사람들이 GAN 얼굴이 실제 사람 얼굴의 실제 사진보다 훨씬 더 실제처럼 보인다고 인식한다는 사실을 발견했습니다. 이것이 왜 그런지는 아직 명확하지 않지만, 이 발견은 기술의 최근 발전을 강조 인공 이미지를 생성하는 데 사용됩니다.

그리고 우리는 매력에 대한 흥미로운 링크도 발견했습니다. 덜 매력적이라고 ​​평가된 얼굴은 더 실제적이라고 평가되었습니다. 덜 매력적인 얼굴은 더 일반적이고 일반적인 얼굴은 참조로 사용할 수 있습니다. 모든 얼굴이 평가되는 대상. 따라서 이러한 GAN 얼굴은 사람들이 일상 생활에서 구축한 정신적 템플릿과 더 유사하기 때문에 더 실제처럼 보일 것입니다.

그러나 이러한 인공 얼굴을 진짜로 보는 것은 우리가 낯선 사람들에게 확장하는 일반적인 신뢰 수준, 즉 "사회적 신뢰"로 알려진 개념에 영향을 미칠 수 있습니다.

우리는 종종 우리가 보는 얼굴에서 너무 많은 것을 읽습니다. 우리가 형성하는 첫인상은 우리의 사회적 상호 작용을 안내합니다. 최신 연구의 일부를 구성한 두 번째 실험에서 우리는 사람들이 이전에 실제라고 판단한 얼굴이 전달하는 정보를 인위적으로 생성하더라도 더 신뢰하는 경향이 있음을 확인했습니다.

사람들이 실제라고 믿는 얼굴을 더 신뢰하는 것은 놀라운 일이 아닙니다. 그러나 우리는 사람들이 온라인 상호 작용에서 인공 얼굴의 잠재적 존재에 대해 알게 된 후 신뢰가 침식되었음을 발견했습니다. 그런 다음 얼굴이 진짜인지 아닌지에 관계없이 전반적으로 낮은 수준의 신뢰를 보였습니다.

이 결과는 가짜 사용자가 활동할 수 있는 환경에서 사람들을 더 의심하게 만들었기 때문에 어떤 면에서는 유용하다고 볼 수 있습니다. 그러나 다른 관점에서 보면 그것은 우리가 의사소통하는 방식의 본질을 점차 잠식할 수 있습니다.

일반적으로 우리는 다른 사람들이 기본적으로 진실하고 신뢰할 수 있다는 기본 가정. 가짜 프로필 및 기타 인공 온라인 콘텐츠의 증가는 그들의 존재와 그들에 대한 우리의 지식이 이 "진실 기본값" 상태를 얼마나 변경하여 결국 사회적 신뢰를 약화시킬 수 있는지에 대한 질문을 제기합니다.

기본값 변경

실제와 그렇지 않은 것을 구별할 수 없는 세상으로의 전환은 문화적 지형을 주로 진실에서 주로 인위적이고 기만적인 것으로 바꿀 수 있습니다.

우리가 온라인에서 경험하는 것의 진실성에 정기적으로 의문을 제기하는 경우 메시지 자체 처리에서 메신저의 신원 처리에 이르기까지 정신적 노력을 재배치해야 할 수 있습니다. 즉, 매우 현실적이지만 인위적인 온라인 콘텐츠의 광범위한 사용으로 인해 우리는 예상하지 못한 방식으로 다르게 생각해야 할 수 있습니다.

심리학에서는 어떤 것이 외부 세계에서 오는지 뇌에서 오는지 정확하게 식별하는 방법에 대해 "현실 모니터링"이라는 용어를 사용합니다. 가짜이지만 매우 사실적인 얼굴, 이미지 및 화상 통화를 생성할 수 있는 기술의 발전은 현실 모니터링이 우리 자신의 판단이 아닌 다른 정보를 기반으로 해야 함을 의미합니다. 그것은 또한 인류가 여전히 진실에 불이행할 여유가 있는지에 대한 더 광범위한 논의를 요구합니다.

사람들이 디지털 얼굴을 평가할 때 더 비판적이 되는 것이 중요합니다. 여기에는 역 이미지 검색을 사용하여 사진이 진품인지 확인하고, 개인 정보가 적거나 팔로워가 많은 소셜 미디어 프로필을 경계하고, 딥페이크 기술이 사악한 목적으로 사용될 가능성을 인식하는 것이 포함될 수 있습니다.

이 영역의 다음 프론티어는 가짜 디지털 얼굴을 감지하는 알고리즘을 개선해야 합니다. 그런 다음 소셜 미디어 플랫폼에 내장되어 새로운 연결의 얼굴에서 진짜와 가짜를 구별하는 데 도움이 될 수 있습니다.

저자에 관하여

마노스 차키리스, 심리학 교수, 감정의 정치 센터 소장, 런던의 로얄 홀로 웨이 대학

이 기사는에서 다시 게시됩니다. 대화 크리에이티브 커먼즈 라이센스하에 읽기 원래 기사.