AI 7 11의 위험
AI가 인류를 노예로 만들 가능성은 없지만 우리 삶의 여러 측면을 차지할 수 있습니다. Getty Images를 통한 elenabs/iStock

ChatGPT 및 유사한 인공 지능 시스템의 등장은 급격한 변화를 동반했습니다. AI에 대한 불안감 증가. 지난 몇 달 동안 경영진과 AI 안전 연구원들은 ''라는 제목의 예측을 제공해 왔습니다.피(둠),” AI가 대규모 재앙을 가져올 확률에 대해.

비영리 연구 및 옹호 단체인 AI 안전 센터(Center for AI Safety)가 발표한 2023년 XNUMX월에 우려가 최고조에 달했습니다. 한 문장의 진술: “AI로 인한 멸종 위험을 완화하는 것은 전염병, 핵전쟁 등 다른 사회적 규모의 위험과 함께 글로벌 우선순위가 되어야 합니다.” 이 성명에는 OpenAI, Google 및 Anthropic의 리더와 소위 AI의 "대부" 두 명을 포함하여 해당 분야의 많은 주요 참가자가 서명했습니다. 제프리 힌튼요슈아 벤 지오.

그러한 실존적 두려움이 어떻게 작용해야 하는지 물을 수도 있습니다. 유명한 시나리오 중 하나는 “종이 클립 최대화 장치” 옥스포드 철학자가 표현한 사고 실험 닉 보스 트롬. 가능한 한 많은 클립을 생산하는 임무를 맡은 AI 시스템이 원자재를 찾기 위해 공장을 파괴하고 자동차 사고를 일으키는 등 엄청난 노력을 기울일 수 있다는 아이디어입니다.

A 덜 자원 집약적인 변형 다른 고객이 테이블에 앉는 것을 방지하기 위해 셀룰러 네트워크와 신호등을 끄는 인기 레스토랑에 대한 예약을 확보하는 임무를 맡은 AI가 있습니다.


내면의 구독 그래픽


사무용품이든 저녁 식사이든 기본 아이디어는 동일합니다. AI는 빠르게 외계 지능이 되어가고 있으며 목표 달성에는 능숙하지만 제작자의 도덕적 가치와 반드시 일치하지 않기 때문에 위험합니다. 그리고 가장 극단적인 버전에서 이 주장은 AI에 대한 노골적인 불안으로 변질됩니다. 인류를 노예로 삼거나 파괴하는 행위.

종이 클립을 만드는 AI가 미친 듯이 뛰는 것은 AI 종말 시나리오의 한 변형입니다.

 

실제 피해

지난 몇 년 동안 저와 제 동료들은 UMass Boston의 응용 윤리 센터 AI 참여가 사람들의 자기 이해에 미치는 영향을 연구해 왔으며 이러한 재앙적인 불안은 과장되고 방향이 잘못됨.

그렇습니다. 설득력 있는 딥 페이크 비디오 및 오디오를 생성하는 AI의 능력은 무섭고, 나쁜 의도를 가진 사람들이 이를 악용할 수 있습니다. 실제로 그런 일이 이미 일어나고 있다. 러시아 공작원들이 크렘린 비평가를 난처하게 만들려고 시도했을 가능성이 크다. 빌 브라우 페트로 포로셴코 전 우크라이나 대통령의 아바타와 대화를 나누는 과정에서 그를 함정에 빠뜨린 것이다. 사이버 범죄자들은 ​​다양한 범죄에 AI 음성 복제를 사용해 왔습니다. 하이테크 강도일반적인 사기.

AI 의사결정 시스템 대출 승인 및 채용 추천 제공 실행되는 훈련 데이터와 의사결정 모델은 오랜 사회적 편견을 반영하기 때문에 알고리즘 편향의 위험이 있습니다.

이는 큰 문제이며 정책 입안자의 관심이 필요합니다. 그러나 그들은 한동안 주변에 있었고 거의 격변적이지 않았습니다.

같은 리그에 속하지 않음

AI 안전 센터의 성명은 AI를 전염병 및 핵무기와 함께 문명에 대한 주요 위험으로 묶었습니다. 그 비교에는 문제가 있습니다. 코로나19로 인해 거의 세계적으로 7 만 명이 사망, 가져온 거대하고 지속적인 정신 건강 위기 그리고 창조 경제적 도전, 만성적인 공급망 부족과 폭주하는 인플레이션을 포함합니다.

핵무기는 아마도 죽을 것이다 이상 200,000 명 1945년 히로시마와 나가사키에서 암으로 더 많은 생명을 잃었고, 냉전 기간 동안 수십 년간의 깊은 불안을 불러일으켰으며, 1962년 쿠바 미사일 위기 동안 세계를 멸망의 위기에 빠뜨렸습니다. 국가 지도자들의 계산을 바꾸다 현재 러시아의 우크라이나 침공과 같은 국제적 공격에 대응하는 방법에 대해 설명합니다.

AI는 이런 종류의 피해를 입힐 수 있는 능력을 전혀 갖추지 못했습니다. 종이 클립 시나리오 및 이와 유사한 시나리오는 공상 과학 소설입니다. 기존 AI 애플리케이션은 광범위한 판단을 내리기보다는 특정 작업을 실행한다. 기술은 결정하고 계획을 세우는 것과는 거리가 멀다 레스토랑에 자리를 잡기 위해 교통을 막고, 종이 클립에 대한 가려움증을 해소하기 위해 자동차 공장을 폭파하는 데 필요한 목표와 하위 목표.

이 기술에는 이러한 시나리오와 관련된 다층 판단을 위한 복잡한 역량이 부족할 뿐만 아니라, 그러한 종류의 피해를 입힐 만큼 중요한 인프라의 충분한 부분에 자율적으로 액세스할 수 없습니다.

그것이 인간이라는 것이 무엇을 의미 하는가?

실제로 AI 사용에는 내재된 실존적 위험이 있지만, 그 위험은 종말론적 의미라기보다는 철학적 의미에서 실존적입니다. 현재 형태의 AI는 사람들이 자신을 보는 방식을 바꿀 수 있습니다. 그것은 사람들이 인간으로서 필수적이라고 생각하는 능력과 경험을 저하시킬 수 있습니다.

예를 들어, 인간은 판단을 내리는 동물입니다. 사람들은 합리적으로 세부 사항을 따져보고 직장에서나 여가 시간에 누구를 고용할지, 누가 대출을 받아야 할지, 무엇을 시청할지 등에 대해 매일 판단합니다. 그러나 이러한 판단은 점점 더 많아지고 있습니다. 자동화되어 알고리즘에 적용됩니다.. 그렇게 되면 세상은 끝나지 않을 것이다. 그러나 사람들은 이러한 판단을 스스로 내릴 수 있는 능력을 점차 상실하게 될 것입니다. 사람들이 만드는 것이 적을수록 만드는 능력이 더 나빠질 가능성이 높습니다.

또는 사람들의 삶에서 우연의 역할을 생각해 보십시오. 인간은 우연한 만남을 중요하게 생각합니다. 우연히 장소, 사람 또는 활동을 만나고, 거기에 끌려가고, 이러한 의미 있는 발견에서 우연이 수행한 역할을 회고적으로 평가합니다. 하지만 알고리즘 추천 엔진의 역할은 그런 우연을 줄여라 이를 계획과 예측으로 대체합니다.

마지막으로 ChatGPT의 쓰기 기능을 고려하십시오. 이 기술은 고등 교육에서 작문 과제의 역할을 제거하는 과정에 있습니다. 만약 그렇다면, 교육자들은 학생을 가르치는 핵심 도구를 잃게 될 것입니다. 비판적으로 생각하는 방법.

죽지는 않았지만 줄어들었다

따라서 AI는 세상을 폭파하지 않을 것입니다. 그러나 다양한 좁은 맥락에서 이를 점점 더 무비판적으로 받아들이는 것은 인간의 가장 중요한 기술 중 일부가 점진적으로 침식된다는 것을 의미합니다. 알고리즘은 이미 사람들의 판단 능력, 우연한 만남을 즐기고 비판적 사고를 연마하는 능력을 약화시키고 있습니다.

인류는 그러한 손실에서 살아남을 것입니다. 그러나 그 과정에서 우리의 존재 방식은 빈곤해질 것이다. 다가오는 AI 대격변, 특이점, 스카이넷 또는 여러분이 어떻게 생각하든에 대한 환상적인 불안은 이러한 더 미묘한 비용을 모호하게 만듭니다. TS Eliot의 유명한 마지막 대사인 "할로우 맨": "이것이 세상이 끝나는 방식입니다. "라고 그는 썼습니다. "쾅하는 소리가 아니라 훌쩍이는 소리."대화

저자에 관하여

니르 에이시코비츠, 철학과 교수 겸 응용윤리센터 소장, UMass 보스턴

이 기사는에서 다시 게시됩니다. 대화 크리에이티브 커먼즈 라이센스하에 읽기 원래 기사.