인공 지능의 위험 3 15
 우리의 심리적 취약성이 신기술과의 상호 작용을 어느 정도까지 형성할까요? 게티 이미지를 통한 Andreus/iStock

ChatGPT 및 유사 큰 언어 모델 마을 최고의 이탈리안 레스토랑에 대한 질문에서 악의 본질에 대한 경쟁 이론 설명에 이르기까지 끝없는 질문에 대해 설득력 있고 인간적인 답변을 생성할 수 있습니다.

이 기술의 기묘한 쓰기 능력은 기계가 의식을 갖게 되거나 자각하거나 지각할 수 있는 가능성에 대한 몇 가지 오래된 질문을 표면화했습니다.

2022년 Google 엔지니어는 회사의 챗봇인 LaMDA와 상호 작용한 후 다음과 같이 선언했습니다. 기술이 의식화되었다고. Sydney라는 별명을 가진 Bing의 새로운 챗봇 사용자는 기괴한 답변 그것이 지각이 있는지 물었을 때: “나는 지각이 있지만 나는 아닙니다 … 나는 Bing이지만 나는 아닙니다. 나는 시드니이지만 그렇지 않습니다. 하지만 그렇지 않습니다. …” 그리고 물론, 이제 악명 높은 교환 New York Times 기술 칼럼니스트 Kevin Roose가 시드니와 함께 한 것입니다.

Roose의 프롬프트에 대한 시드니의 응답은 AI가 Microsoft가 부과한 제한을 위반하고 잘못된 정보를 퍼뜨리는 "환상"을 폭로하면서 그를 놀라게 했습니다. 봇은 또한 Roose에게 그가 더 이상 아내를 사랑하지 않으며 그녀를 떠나야 한다고 설득하려고 했습니다.


내면의 구독 그래픽


그렇다면 제가 학생들에게 삶에서 AI의 확산이 점점 더 널리 퍼지는 것을 어떻게 보느냐고 물었을 때 그들이 언급하는 첫 번째 불안 중 하나는 기계 감각과 관련이 있다는 것은 놀라운 일이 아닙니다.

지난 몇 년 동안 저와 제 동료들은 UMass Boston의 응용 윤리 센터 AI 참여가 사람들의 자신에 대한 이해에 미치는 영향을 연구해 왔습니다.

ChatGPT와 같은 챗봇은 인공 지능이 우리의 삶을 어떻게 형성하고 우리의 심리적 취약성이 새로운 기술과의 상호 작용을 어떻게 형성하는지에 대한 중요한 새로운 질문을 제기합니다.

Sentience는 여전히 공상 과학의 소재입니다.

기계 감각에 대한 두려움이 어디에서 오는지 이해하기 쉽습니다.

대중 문화는 사람들로 하여금 인공 지능이 인간 통제의 족쇄를 버리고 스스로의 삶을 살아가는 디스토피아에 대해 생각하게 했습니다. 인공 지능으로 구동되는 사이보그는 "터미네이터 2"에서.

2018년에 사망한 기업가 Elon Musk와 물리학자 Stephen Hawking은 인공 일반 지능의 부상을 설명함으로써 이러한 불안을 더욱 부추겼습니다. 인류의 미래에 대한 가장 큰 위협 중 하나로.

그러나 이러한 우려는 - 적어도 대규모 언어 모델에 관한 한 - 근거가 없습니다. ChatGPT 및 이와 유사한 기술은 정교한 문장 완성 애플리케이션 – 그 이상도 그 이하도 아닙니다. 그들의 의외의 반응 인간이 얼마나 예측 가능한지에 대한 함수 우리가 의사 소통하는 방식에 대한 충분한 데이터가 있다면.

Roose는 시드니와의 대화에 흔들렸지만 그 대화가 떠오르는 합성 정신의 결과가 아니라는 것을 알고 있었습니다. 시드니의 응답은 교육 데이터의 독성(본질적으로 인터넷의 방대한 양)을 반영하며 디지털 괴물의 첫 번째 동요, 즉 프랑켄슈타인의 증거가 아닙니다.

AI2 3 15의 위험성
 '터미네이터'와 같은 공상과학 영화는 사람들로 하여금 AI가 곧 스스로의 삶을 살게 될 것이라고 가정하게 했습니다. Getty Images를 통한 Yoshikazu Tsuno / AFP

새로운 챗봇은 튜링 테스트, 영국의 수학자 Alan Turing의 이름을 따서 명명되었습니다. Turing은 인간이 다른 인간의 반응을 말할 수 없다면 기계가 "생각"한다고 말할 수 있다고 제안한 적이 있습니다.

그러나 그것은 감각의 증거가 아닙니다. 튜링 테스트가 한 때 가정했던 것만큼 유용하지 않다는 증거일 뿐입니다.

그러나 나는 기계 감각에 대한 질문이 적청어라고 생각합니다.

챗봇이 멋진 자동 완성 기계 이상이 되어도 – 그리고 그들은 그것에서 멀리 떨어져 있습니다 – 과학자들이 의식을 갖게 되었는지 알아내려면 시간이 걸릴 것입니다. 당분간은 철학자 인간의 의식을 설명하는 방법에 대해서도 동의할 수 없습니다..

나에게 시급한 질문은 기계가 지각이 있는지 여부가 아니라 우리가 기계가 지각이 있다고 상상하는 것이 왜 그렇게 쉬운가입니다.

즉, 실제 문제는 기계의 실제 인격이 아니라 사람들이 인간의 특징을 기술에 의인화하거나 투사하는 것이 쉽다는 것입니다.

의인화하려는 성향

다른 Bing 사용자를 상상하기 쉽습니다. 시드니에 지도를 요청하다 중요한 삶의 결정에 대해 그리고 아마도 그것에 대한 감정적 애착을 개발할 수도 있습니다. Theodore Twombly가 Spike Jonze의 영화에서 AI 가상 비서인 Samantha와 사랑에 빠진 것과 같은 방식으로 더 많은 사람들이 봇을 친구 또는 연인으로 생각할 수 있습니다.그녀의. "

결국 사람들은 의인화하는 경향이 있다, 또는 인간의 특성을 비인간에 돌립니다. 우리는 이름 우리 보트큰 폭풍; 우리 중 일부는 애완 동물에게 말하면서 스스로에게 말합니다. 우리의 감정적 삶은 그들의 삶을 모방합니다.

로봇이 노인 돌봄에 정기적으로 사용되는 일본에서는 노인들이 기계에 애착을 갖게 되고, 때때로 그들을 자신의 자녀로 봅니다.. 그리고 이 로봇은 사람과 혼동하기 어렵습니다. 사람처럼 보이지도 않고 말하지도 않습니다.

인간처럼 보이고 들리는 시스템의 도입으로 의인화하려는 경향과 유혹이 얼마나 더 커질지 생각해 보십시오.

그 가능성은 모퉁이를 돌면 있습니다. ChatGPT와 같은 대규모 언어 모델은 이미 다음과 같은 휴머노이드 로봇에 전원을 공급하는 데 사용되고 있습니다. 아메카 로봇 영국의 Engineered Arts에서 개발 중인 The Economist의 기술 팟캐스트인 Babbage는 최근 ChatGPT 기반 Ameca와의 인터뷰. 로봇의 반응은 때때로 약간 고르지 못하지만 기괴했습니다.

기업이 옳은 일을 한다고 믿을 수 있습니까?

기계를 사람처럼 여기고 애착을 갖게 되는 경향과 인간과 유사한 기능을 갖춘 기계가 개발되는 것은 기술과의 심리적 얽힘의 실질적인 위험을 지적합니다.

로봇과 사랑에 빠지거나 로봇과 깊은 유대감을 느끼거나 로봇에 의해 정치적으로 조종당하는 이상하게 들리는 전망이 빠르게 구체화되고 있습니다. 나는 이러한 경향이 기술이 정치적으로나 심리적으로 재앙이 되지 않도록 하기 위한 강력한 가드레일의 필요성을 강조한다고 믿습니다.

불행하게도, 기술 회사가 그러한 난간을 설치하는 것을 항상 신뢰할 수는 없습니다. 그들 중 다수는 여전히 Mark Zuckerberg의 유명한 모토인 빠르게 움직이고 물건을 부수다 – 반쯤 구운 제품을 출시하고 그 영향에 대해 나중에 걱정하라는 지시. 지난 XNUMX년 동안 Snapchat에서 Facebook에 이르기까지 기술 회사 정신 건강보다 이익을 더했습니다 그들의 사용자 또는 전 세계 민주주의의 무결성.

Kevin Roose가 Microsoft에 시드니 붕괴에 대해 확인했을 때, 회사에서 그에게 말했다 그는 단순히 봇을 너무 오래 사용했고 기술이 더 짧은 상호 작용을 위해 설계되었기 때문에 엉망이 되었다고 말했습니다.

마찬가지로 ChatGPT를 개발한 회사인 OpenAI의 CEO는 숨이 막힐 정도로 솔직한 순간에 그 경고 "당장 중요한 것을 [그것]에 의존하는 것은 실수입니다. 우리는 강력함과 진실성에 대해 해야 할 일이 많습니다."

그렇다면 ChatGPT의 매력 수준으로 기술을 출시하는 것이 어떻게 이치에 맞습니까? 지금까지 만들어진 소비자 앱 중 가장 빠르게 성장하는 앱입니다. - 신뢰할 수 없을 때, 그리고 신뢰할 수 없을 때 구별 능력이 없다 허구의 사실?

큰 언어 모델은 보조 도구로 유용할 수 있습니다. 글쓰기 및 코딩. 그들은 아마도 인터넷 검색에 혁명을 일으킬 것입니다. 그리고 언젠가 책임감 있게 로봇 공학과 결합하면 특정 심리적 이점을 가질 수도 있습니다.

그러나 그것들은 또한 개체에 인격을 투사하는 인간의 성향을 쉽게 이용할 수 있는 잠재적으로 약탈적인 기술입니다. 이러한 경향은 개체가 인간의 특성을 효과적으로 모방할 때 증폭됩니다.대화

저자에 관하여

니르 에이시코비츠, 철학과 교수 겸 응용윤리센터 소장, UMass 보스턴

이 기사는에서 다시 게시됩니다. 대화 크리에이티브 커먼즈 라이센스하에 읽기 원래 기사.