인공지능이 사람들의 일상생활에 점점 더 깊이 파고들면서 그에 대한 걱정도 커지고 있습니다. 가장 우려스러운 점은 AI에 대한 우려입니다. 도적질하다 인간 주인을 제거합니다.

그러나 요구 뒤에는 AI 개발을 잠시 멈추다 보다 실질적인 사회적 질병의 모음입니다. 그중에는 AI가 사람들에게 미치는 위험이 있습니다. 프라이버시와 존엄성 그리고 AI 내부의 알고리즘은 인간이 프로그래밍하기 때문에 AI와 똑같다는 피할 수 없는 사실입니다. 치우친차별적 인 우리만큼. 에 던져 투명성의 부족 AI가 어떻게 설계되었는지, 그리고 누구에 의해, 요즘 왜 그렇게 많은 시간을 투자하는지 이해하기 쉽습니다. 위험에 대해 토론하다 그 잠재력만큼.

그러나 내 자신의 연구 심리학자로서 사람들이 어떻게 결정을 내리는지 연구 이러한 모든 위험은 눈에 보이지는 않지만 훨씬 더 부패한 위협에 의해 가려진다고 믿게 됩니다. 즉, AI는 사려 깊은 결정을 내릴 때 사람들이 덜 훈련되고 숙련되게 만드는 데 있어서 단순한 키 입력에 불과합니다.

신중한 결정

신중한 결정을 내리는 과정에는 세 가지가 포함됩니다. 상식적인 단계 이는 직면한 작업이나 문제를 이해하는 데 시간을 투자하는 것부터 시작됩니다. 나중에 자신있게 방어할 수 있는 결정을 내리기 위해 알아야 할 것이 무엇인지, 무엇을 해야 하는지 스스로에게 물어보세요.

이러한 질문에 대한 답은 지식의 격차를 메우고 이전 신념과 가정에 도전하는 정보를 적극적으로 찾는 데 달려 있습니다. 사실은 이게 다야 반사실적 정보 – 사람들이 특정 가정에 대한 부담을 덜 때 나타나는 대안적 가능성 – 궁극적으로 비판을 받을 때 결정을 방어할 수 있는 능력을 갖추게 됩니다.


내면의 구독 그래픽


사려 깊은 결정에는 귀하의 가치를 고려하고 균형을 맞추는 것이 포함됩니다.

두 번째 단계는 한 번에 두 가지 이상의 옵션을 찾고 고려하는 것입니다. 삶의 질을 향상시키고 싶습니까? 당신이 누구에게 투표하든, 당신이 받아들이는 직업이나 당신이 구입하는 물건이 무엇이든, 당신을 그곳으로 데려갈 길은 항상 하나 이상입니다. 최소한 몇 가지 그럴듯한 옵션을 적극적으로 고려하고 평가하기 위해 노력하며, 해당 옵션에 대해 정직한 방식으로 노력합니다. 당신이 기꺼이 만들려는 절충안 장단점을 고려한 것은 사려 깊고 방어 가능한 선택의 특징입니다.

세 번째 단계는 기꺼이 노력하는 것입니다. 폐쇄 지연 모든 일을 마친 후까지 결정에 따라 필요한 무거운 정신적 리프팅. 비밀은 아닙니다. 종결은 어렵거나 중요한 결정을 뒤로 미뤘다는 의미이므로 기분이 좋습니다. 그러나 너무 일찍 진행하는 데 드는 비용은 숙제를 하는 데 시간을 투자하는 것보다 훨씬 높을 수 있습니다. 내 말을 믿을 수 없다면, 감정이 당신을 인도하도록 내버려 두었던 그 모든 시간을 생각해 보세요. 후회를 경험하다 좀 더 깊게 생각할 시간을 갖지 않았기 때문입니다.

AI에 대한 아웃소싱 결정의 위험

이 세 단계 중 어느 것도 수행하기가 매우 어렵지 않습니다. 하지만 대부분의 경우 그들은 직관적이지 않다 어느 하나. 사려 깊고 방어 가능한 결정 내리기 연습과 자기 훈련이 필요합니다. 그리고 이것이 AI가 사람들에게 노출시키는 숨겨진 해악이 나타나는 곳입니다. AI는 대부분의 "사고"를 배후에서 수행하고 사용자에게 맥락과 숙고가 없는 답변을 제시합니다. 더 나쁜 것은 AI가 사람들이 스스로 사려 깊고 방어 가능한 결정을 내리는 과정을 연습할 기회를 빼앗는다는 것입니다.

오늘날 사람들이 많은 중요한 결정에 어떻게 접근하는지 생각해 보십시오. 인간은 존재하는 것으로 잘 알려져 있다. 다양한 편견에 빠지기 쉽다 왜냐하면 우리는 정신적 에너지를 소비하는 데 있어서 검소한 경향이 있기 때문입니다. 이러한 검소함은 겉으로 보기에 좋거나 신뢰할 수 있을 때 사람들이 그것을 좋아하게 만듭니다. 결정은 그들을 위해 내려진다. 그리고 우리는 사회적 동물 그들은 자신의 자율성보다 지역 사회의 보안과 수용을 더 중요하게 생각하는 경향이 있습니다.

혼합에 AI를 추가하면 결과적으로 위험한 피드백 루프가 발생합니다. AI가 알고리즘에 연료를 공급하기 위해 채굴하는 데이터는 다음과 같습니다. 사람들의 편향된 결정으로 이루어진 이는 또한 지혜보다는 순응에 대한 압력을 반영합니다. 비판적 추론. 그러나 사람들은 자신을 위해 결정을 내리는 것을 좋아하기 때문에 이러한 잘못된 결정을 받아들이고 다음 결정으로 넘어가는 경향이 있습니다. 결국 우리도 AI도 더 현명해지지는 않습니다.

AI 시대에 사려 깊다

AI가 사회에 어떤 혜택도 제공하지 않을 것이라고 주장하는 것은 잘못된 생각입니다. 특히 다음과 같은 분야에서는 그럴 가능성이 높습니다. 사이버 보안, 건강 관리재원복잡한 모델과 막대한 양의 데이터를 정기적으로 신속하게 분석해야 하는 경우입니다. 그러나 대부분의 일상적인 결정에는 이러한 종류의 분석 능력이 필요하지 않습니다.

그러나 우리가 요청했든 안 했든, 우리 중 많은 사람들은 이미 다음과 같은 환경에서 AI로부터 조언과 AI가 수행하는 작업을 받았습니다. 엔터테인먼트여행학교 과제, 건강 관리재원. 그리고 디자이너들은 열심히 일하고 있어요 차세대 AI 이는 우리의 일상적인 결정을 훨씬 더 자동화할 수 있게 될 것입니다. 그리고 내 생각에는 이것은 위험하다.

사람들의 생각과 생각이 이미 포위당하고 있는 세상에서 소셜 미디어의 알고리즘, AI가 우리를 대신하여 모든 종류의 결정을 내릴 수 있는 정교한 수준에 도달하도록 허용한다면 우리는 훨씬 더 위험한 위치에 놓일 위험이 있습니다. 실제로, 우리는 AI에 대한 사이렌의 부름에 저항하고 인간으로서의 진정한 특권과 책임, 즉 스스로 생각하고 선택할 수 있는 권리에 대한 소유권을 되찾아야 할 의무가 있습니다. 그렇게 하면 기분이 좋아질 것이고, 중요한 것은 더 좋아질 것입니다.대화

조 아르바이, Dana 및 David Dornsife 심리학 교수이자 Wrigley 환경 및 지속 가능성 연구소 소장, USC Dornsife 문학, 예술 및 과학 대학

이 기사는에서 다시 게시됩니다. 대화 크리에이티브 커먼즈 라이센스하에 읽기 원래 기사.