채팅 GPT
저명한 컴퓨터 과학자들과 기타 기술 산업의 저명인사들이 인공 지능 기술에 대한 XNUMX개월 중단을 요구하고 있습니다. (Shutterstock)

컴퓨터 과학자 및 기술 산업 리더의 최근 공개 서한 인공지능 개발 XNUMX개월 금지 촉구온라인에서 큰 주목을 받음. 캐나다 혁신부 장관 François-Philippe Champagne조차 트위터의 편지에 답장했습니다.

비영리 Future of Life Institute에서 발행한 이 서한은 모든 AI 연구실에 ChatGPT의 배후 모델인 GPT-4보다 더 강력한 AI 시스템 교육을 중단할 것을 요청했습니다. 이 서한은 AI가 "아무도(심지어 제작자도 포함) 이해, 예측 또는 안정적으로 제어할 수 없는 더욱 강력한 디지털 마인드를 개발하고 배포하기 위한 통제 불능의 경쟁에 갇혔다"고 주장합니다.

편지는 AI가 "강력한 디지털 마음"이 되거나 될 수 있다고 가정합니다. AI 발전에 대한 장기론적 해석미래의 우려 대신 오늘날 AI에 대한 중요한 논쟁을 무시합니다..

장기주의와 AI

장기주의는 인공 지능이 제어할 수 없는 초지능이 됨으로써 인류의 미래에 장기적 또는 실존적 위험을 초래한다는 믿음.


내면의 구독 그래픽


초지능 AI에 대한 걱정은 일반적으로 공상과학소설에서나 볼 수 있는 내용입니다. AI 판타지 실리콘 밸리의 많은 두려움 중 하나입니다. 그로 이어질 수 있습니다 어두운 예언. 하지만 처럼 고통 넥서스 밈, 이러한 걱정은 주의가 아닌 대규모 투자로 이어집니다. 대부분의 주요 기술 회사는 담당 AI 팀을 삭감.

ChatGPT는 분명히 초지능으로 가는 길이 아닙니다. 공개 서한은 ChatGPT와 같은 AI 언어 기술을 인지적 혁신, 즉 AI가 일반적인 작업에서 인간과 경쟁할 수 있게 해주는 것으로 보고 있습니다. 그러나 그것은 단지 하나의 의견일 뿐입니다.

ChatGPT, GPT-4 모델 및 기타 언어 학습 모델을 다음과 같이 보는 다른 많은 사람들이 있습니다. "확률적 앵무새" 온라인에서 배운 내용을 반복해서 표시 인간에게 지능적입니다.

초지능의 맹점

장기주의는 다음과 같은 보다 시급한 문제보다 초지능을 우선시하는 직접적인 정책적 함의를 가지고 있습니다. AI의 힘의 불균형. 장기주의의 일부 지지자들 기후 비상 사태를 해결하는 것보다 더 시급한 초 지능을 중지하는 규제를 고려하십시오.

AI 정책에 미치는 영향은 멀리 떨어져 있는 문제가 아니라 즉각적입니다. GPT-4는 전체 인터넷에서 훈련되고 명시적으로 상업적인 목적을 가지고 있기 때문에, 공정 거래 및 공정 사용에 대한 질문을 제기합니다..

AI가 생성한 텍스트와 이미지가 애초에 저작권이 있는지 여부는 여전히 알 수 없습니다., 이후 기계 및 동물 저작권을 보유할 수 없습니다.

개인 정보 보호 문제에 관한 한 ChatGPT의 접근 방식은 다른 AI 애플리케이션과 구별하기 어렵습니다. 클리어 뷰 AI. 두 AI 모델 모두 개방형 인터넷에서 수집된 방대한 양의 개인 정보를 사용하여 훈련되었습니다. 이탈리아의 데이터 보호 당국은 개인 정보 보호 문제로 ChatGPT를 금지했습니다..

이러한 즉각적인 위험은 공개 서한에서 언급되지 않은 채 남겨져 있으며, 공개 서한은 야생 철학과 기술 솔루션 사이를 오가며 우리 앞에 있는 문제를 무시합니다.

실용주의를 익사시키다

이 편지는 공동 저자와 내가 확인하는 오래된 역학을 따릅니다. AI 거버넌스에 대한 향후 동료 검토 장. AI를 실존적 위험 또는 일상적이고 기술적인 것으로 보는 경향이 있습니다.

이 두 극단 사이의 긴장이 공개 서한에 잘 나타나 있습니다. 이 서한은 "고급 AI는 지구상의 생명 역사에서 심오한 변화를 나타낼 수 있다"고 주장한 후 "기술적 AI 안전 연구를 위한 강력한 공적 자금 지원"을 요구하는 것으로 시작합니다. 후자는 AI의 사회적 피해가 해결해야 할 기술 프로젝트에 불과하다고 제안합니다.

이 두 극단에 초점을 맞추면 위에서 언급한 AI의 즉각적인 위험과 노동 문제 등.

공개 서한에 대한 관심은 캐나다에서 특히 문제가 됩니다. 예술가시민 자유 단체, 같은 양의 관심을 받지 못했습니다. 이 서한은 영향을 받는 사람들을 보호하기 위해 AI 거버넌스에 대한 개혁과 보다 강력한 접근 방식을 요구합니다.

AI 법안에 대한 불필요한 주의 산만

공개 서한에 대한 정부의 답변은 캐나다에 법률이 있음을 강조했습니다. AIDA(인공지능 및 데이터법). AI의 장기적인 위험은 이제 AIDA와 같은 법안을 서두르는 데 사용되고 있습니다.

AIDA는 적절한 AI 거버넌스 체제를 향한 중요한 단계이지만 AI의 영향을 받는 사람들과 더 나은 상담 구현하기 전에. 인지된 장기적인 두려움에 서둘러 대응할 수는 없습니다.

AI 입법을 서두르라는 편지의 요청은 오늘날 AI 연구를 주도하는 동일한 소수의 회사에 유리하게 끝날 수 있습니다. AIDA는 AI의 책임과 감사를 이미 기술의 혜택을 받을 수 있는 좋은 위치에 있는 기관에 전가하여 새로운 AI 감사 산업을 위한 시장을 창출할 위험이 있습니다.

인류의 운명은 위태롭지 않을 수 있지만 AI의 좋은 거버넌스는 확실합니다.대화

저자에 관하여

펜윅 맥켈비, 정보통신기술정책학과 부교수, Concordia University

이 기사는에서 다시 게시됩니다. 대화 크리에이티브 커먼즈 라이센스하에 읽기 원래 기사.