인공 지능은 이제 인간의 행동을 모방하고 곧 위험에 빠질 수 있습니다.

인공 지능은 이제 인간의 행동을 모방하고 곧 위험에 빠질 수 있습니다.이 얼굴이 단지 컴퓨터 비트의 집합체일까요? PHOTOCREO Michal Bednarek / Shutterstock.com

인공 지능 시스템이 창의력을 발휘할 때 훌륭한 정보를 생성 할 수 있습니다. 예를 들어 AI 프로그램을 통해 웹 사용자가 음악을 작곡합니다. 와 함께 가상 요한 세바스찬 바흐 그들을 일치시키는 바흐 같은 하모니를 생성하는 프로그램에 노트를 입력함으로써.

Google 제공, 앱 드류 칭찬 획기적인 재미와 함께 놀 수 있습니다. 그것은 또한 끌었다 비판AI의 위험에 대한 우려를 제기했다.

방법에 대한 나의 연구 신흥 기술이 사람들의 삶에 영향 그 문제는 분명히 커다란 우려를 넘어서고 있다고 나에게 가르쳐 주었다. 알고리즘 여부 정말로 할 수있다. 음악을 만들다. 또는 일반적으로 예술. 일부 불만은 작게 보였지만 실제로는 그렇지 않았습니다. Google의 AI가 기본 규칙 위반 음악 작곡.

실제로 컴퓨터를 실제 사람들의 행동을 모방하려는 노력은 혼란스럽고 잠재적으로 해로울 수 있습니다.

가장 (impersonation) 기술

Google의 프로그램은 Bach의 음악 작품 306에서 멜로디와 조화를 제공 한 음 간의 관계를 찾아 분석했습니다. 바흐는 엄격한 구성 규칙을 따르기 때문에이 프로그램은 규칙을 효과적으로 배우기 때문에 사용자가 자신의 노트를 제공했을 때 적용 할 수 있습니다.

Google 기념일 로고 팀에서는 바흐 프로그램에 대해 설명합니다.

바흐 앱 자체는 새로운 것이지만 기반 기술은 그렇지 않습니다. 알고리즘 훈련 대상 패턴을 인식하다 및 확인 확률 론적 결정 오랫동안 존재 해왔다. 이러한 알고리즘 중 일부는 너무 복잡하여 사람들 항상 이해하지 못한다. 그들이 결정을 내리고 특정한 결과를 산출하는 방법.

인공 지능 시스템은 완벽하지 않습니다. 대표가 아닌 데이터 전체 인구 중 인간 편견의 영향을 받음. 완전히 명확하지 않다. 누가 법적으로 책임이 있을지 AI 시스템에서 오류가 발생하거나 문제가 발생하는 경우

하지만 인공 지능 기술은 개인의 글쓰기 스타일이나 말하기 스타일, 심지어 얼굴 표정까지도 접근 할 수있을만큼 발전했습니다. 항상 나쁜 것은 아닙니다. 상당히 단순한 AI가 Stephen Hawking에게 의사 소통 능력 그가 가장 많이 사용할 단어를 예측함으로써 다른 사람들과보다 효율적으로 협력 할 수 있습니다.

인간의 목소리를 모방 한보다 복잡한 프로그램 장애를 가진 사람들을 돕는다. - 또한 청취자를기만하는 데 사용될 수 있습니다. 예를 들어, Lyrebird, 음성 모방 프로그램 인 시뮬레이션 된 대화 버락 오바마, 도널드 트럼프, 힐러리 클린턴 사이. 그것은 사실일지도 모르지만 그 교환은 결코 일어나지 않았습니다.

좋은 것에서 나쁜 것까지

2 월 2019에서 비영리 회사 인 OpenAI는 텍스트를 생성하는 프로그램을 만들었습니다. 사실상 텍스트와 구별 할 수 없다. 사람들이 썼다. 그것은 "스타일"로 연설을 쓸 수 있습니다. 존 F. 케네디, JRR 톨킨 (Tolkien)반지의 제왕"또는 학생 글쓰기 미국 남북 전쟁에 관한 학교 과제.

OpenAI의 소프트웨어에 의해 생성 된 텍스트는 회사가 선택한 석방하지 않기 프로그램 그 자체.

비슷한 기술로 사진과 비디오를 시뮬레이션 할 수 있습니다. 예를 들어 초기 2018에서 배우이자 영화 제작자 인 Jordan Peele은 전 미국 대통령 Barack Obama가 말하는 비디오를 만들었습니다 오바마는 실제로 말한 적이 없다. 이 기술로 인한 위험에 대해 대중에게 경고합니다.

믿을만한 비디오를주의하십시오.

초기 2019에서는 가짜 누드 사진 알렉산드리아 (Alexandria Ocasio-Cortez) 의원이 온라인으로 회람했다. 조작 된 동영상, 종종 "딥 페이크, "될 것으로 예상됩니다 더욱 더 익숙한 선거 운동.

의회 의원 이 문제를 조사하기 시작했다. 2020 선거를 앞두고. 미국 국방부는 대중에게 편집 된 비디오를 찾는 방법 및 오디오. 같은 뉴스 조직 로이터 언론인을 대상으로 깊은 연설을하기 시작했다.

그러나 내 생각에 더 큰 우려가 남아 있습니다. AI 기술이 더욱 복잡 해짐에 따라 사용자가 가짜 콘텐츠를 구별하기에 충분히 빨리 배울 수 없을 수도 있습니다. 예를 들어 대중이 딥 피규어에 대해 알게되기 시작하면서 AI는 이미 훨씬 진보 된기만에 사용되고 있습니다. 이제는 생성 할 수있는 프로그램이 있습니다. 가짜 얼굴들 그리고, 가짜 디지털 지문적어도 기업이나 정부 기록에서 전체 인물을 제작하는 데 필요한 정보를 효과적으로 생성합니다.

기계 학습 계속

현재이 기술에는 사람들이 디지털 제작을 감지 할 수있는 잠재적 인 오류가 있습니다. 구글의 바흐 작곡가 실수를 저질렀다. 전문가가 감지 할 수 있습니다. 예를 들면, 내가 그것을 시도했을 때, 프로그램은 내가 들어가는 것을 허락했다. 평행 5 분의 1, 바흐가 연주 한 음악 신중히 피한. 또한 앱 음악 규칙을 어기다. 잘못된 키로 멜로디를 조화시킴으로써 대위법을 배우십시오. 마찬가지로, OpenAI의 텍스트 생성 프로그램은 때때로 "물속에서 일어나는 불"그것은 그들의 맥락에서 말이되지 않았다.

개발자가 자신의 창작물을 작업 할 때 이러한 실수는 점점 줄어들 것입니다. 효과적으로 AI 기술은 진화하고 배우게됩니다. 향상된 성능으로 AI 프로그램이 도움을줌으로써보다 나은 건강 관리를 비롯하여 많은 사회적 혜택을 가져올 수 있습니다. 약의 실천을 민주화하다.

AI 시스템에서 이러한 긍정적 인 업적을 추구하기 위해 연구자와 회사에게 탐험의 자유를 부여하면 속임수와 기타 사회 문제를 창출 할 수있는보다 발전된 방법을 개발할 위험이 있습니다. AI 연구를 심각하게 제한하면 그 진보를 억제하다.. 그러나 유익한 기술 제공 성장할 방 적은 비용으로 오용 될 수 있습니다. 부정확 한 "바흐 같은"음악을 만들거나 수백만 달러를 속일 지 여부에 관계없이 악용 가능성은 사람들이 아직 예상 할 수없는 방식으로 성장할 것입니다.대화

저자에 관하여

Ana Santos Rutschman, 조교수, 세인트 루이스 대학

이 기사는에서 다시 게시됩니다. 대화 크리에이티브 커먼즈 라이센스하에 읽기 원래 기사.

관련 서적

{amazonWS : searchindex = Books, keywords = 인공 지능, maxresults = 3}

enafar에서 zh-CNzh-TWnltlfifrdehiiditjakomsnofaptruessvtrvi

InnerSelf을 (를) 팔로우하세요.

페이스 북-아이콘지저귀다 아이콘rss 아이콘

이메일로 최신 정보 얻기

{emailcloak = 오프}