열쇠에 손을 대고 노트북 앞에 앉아 있는 로봇
이미지로 수잔 치프리아노 

편집기에서:

이 기사에서 강조한 바와 같이 Clogger라는 가상 머신과 같은 AI 기반 정치 캠페인의 개발은 선거의 무결성을 크게 훼손할 수 있습니다. 자동화, 맞춤형 메시징 및 강화 학습을 활용함으로써 이러한 기계는 유권자의 행동을 대규모로 조작하고 변경할 수 있는 잠재력을 가지고 있습니다.

인공 지능(AI)이 빠르게 발전하는 시대에 우리는 그것이 우리의 민주적 절차에 가하는 잠재적인 위협에 대해 경계해야 합니다. AI 기반 캠페인의 출현은 민주주의의 본질에 도전합니다. 아이디어, 정책 제안 및 진정한 유권자 선택의 힘에 의해 선거가 결정되는 대신 승리에만 초점을 맞춘 기계에 의해 좌우될 수 있습니다. 우세한 내용은 진실이나 정치적 원칙을 고려하지 않은 AI 언어 모델에서 나올 것입니다. 본질적으로 선거 결과는 인공 지능에 의해 결정되어 민주적 절차를 약화시킵니다.

"폐쇄정치"의 부상과 시민의 권한 박탈을 방지하려면 조치를 취하는 것이 중요합니다. 향상된 개인 정보 보호 및 강력한 데이터 개인 정보 보호법은 개인 데이터에 대한 AI 기계의 액세스를 제한하여 개인을 대상으로 하고 조작하는 효율성을 줄이는 데 도움이 될 수 있습니다. 선거관리위원회는 유권자에게 영향을 미치기 위해 고안된 AI 시스템을 금지하거나 엄격하게 규제하는 것도 고려해야 합니다. AI가 생성한 메시지가 정치 캠페인에 사용될 때 명확한 면책 조항을 요구하는 규정을 구현합니다. 이는 투명성을 제공하고 유권자가 정보에 입각한 결정을 내리는 데 도움이 될 수 있습니다.

이러한 문제를 사전에 해결하고 AI의 힘을 책임감 있게 활용하여 민주주의 원칙을 유지하는 것이 중요합니다. 선거의 무결성을 보호하고 선택의 자유를 보호함으로써 AI의 복잡성을 탐색하고 민주적 거버넌스의 기반을 보존할 수 있습니다.

AI가 선거를 장악하고 민주주의를 훼손하는 방법

Written by 아콘 펑, 시민권 및 자치학 교수, 하버드 케네디 스쿨로렌스 레식, 법률 및 리더십 교수, 하버드 대학교


내면의 구독 그래픽


조직에서 ChatGPT와 같은 인공 지능 언어 모델을 사용하여 유권자가 특정 방식으로 행동하도록 유도할 수 있습니까?

Josh Hawley 상원의원은 OpenAI CEO Sam Altman에게 다음과 같은 질문을 했습니다. 16년 2023월 XNUMX일, 미국 상원 청문회 인공 지능에. Altman은 일부 사람들이 언어 모델을 사용하여 유권자를 조작하고 설득하고 일대일 상호 작용에 참여할 수 있다는 점을 정말로 우려한다고 답했습니다.

Altman은 자세히 설명하지 않았지만 이와 같은 시나리오를 염두에 두었을 수 있습니다. 곧 정치 기술자들이 블랙박스 속의 정치 캠페인인 Clogger라는 기계를 개발한다고 상상해 보십시오. Clogger는 단 하나의 목표를 끊임없이 추구합니다. Clogger Inc.의 서비스를 구입하는 캠페인인 후보자가 선거에서 승리할 가능성을 극대화하는 것입니다.

Facebook, Twitter 및 YouTube와 같은 플랫폼은 AI 형식을 사용하여 사용자가 시간을 좀더 보내다 그들의 사이트에서 Clogger의 AI는 사람들의 투표 행동을 바꾸는 다른 목표를 가질 것입니다.

Clogger 작동 방식

으로 정치 과학자법학자 기술과 민주주의의 교차점을 연구하는 사람들은 Clogger와 같은 것이 자동화를 사용하여 규모와 잠재적으로 효율성을 극적으로 높일 수 있다고 믿습니다. 행동 조작 및 마이크로 타겟팅 기술 2000년대 초부터 정치 캠페인에 사용된 것입니다. 그냥 광고주는 귀하의 브라우징 및 소셜 미디어 기록을 사용합니다. 이제 상업 및 정치 광고를 개별적으로 타겟팅하기 위해 Clogger는 귀하와 수억 명의 다른 유권자에게 개별적으로 관심을 기울일 것입니다.

그것은 현재의 최첨단 알고리즘 행동 조작에 대해 세 가지 진보를 제공할 것입니다. 첫째, 언어 모델은 메시지(텍스트, 소셜 미디어 및 이메일, 아마도 이미지와 비디오 포함)를 생성하여 귀하에게 개인적으로 맞춥니다. 광고주는 상대적으로 적은 수의 광고를 전략적으로 배치하는 반면, ChatGPT와 같은 언어 모델은 캠페인 과정에서 귀하를 위해 수많은 고유한 메시지를 생성할 수 있습니다.

둘째, Clogger는 강화 학습 투표를 변경할 가능성이 점점 더 높아지는 일련의 메시지를 생성합니다. 강화 학습은 컴퓨터가 목표를 달성하는 방법을 배우기 위해 조치를 취하고 어느 것이 더 잘 작동하는지에 대한 피드백을 받는 머신 러닝 시행 착오 방식입니다. 바둑, 체스 및 다양한 비디오 게임을 할 수 있는 기계 어떤 인간보다 낫다 강화 학습을 사용했습니다.

강화 학습 작동 방식.

 

셋째, 캠페인 과정에서 Clogger의 메시지는 기계의 이전 파견에 대한 귀하의 반응과 다른 사람의 마음을 바꾸는 것에 대해 학습한 내용을 고려하기 위해 진화할 수 있습니다. Clogger는 시간이 지남에 따라 귀하 및 수백만 명의 다른 사람들과 역동적인 "대화"를 계속할 수 있습니다. Clogger의 메시지는 다음과 유사합니다. 당신을 따르는 광고 다양한 웹사이트와 소셜 미디어에서

AI의 본질

세 가지 추가 기능 또는 버그는 주목할 가치가 있습니다.

첫째, Clogger가 보내는 메시지는 내용상 정치적일 수도 있고 아닐 수도 있습니다. 기계의 유일한 목표는 투표 점유율을 최대화하는 것이며, 이 목표를 달성하기 위해 어떤 인간 캠페인가도 생각하지 못한 전략을 고안할 것입니다.

한 가지 가능성은 그들이 받는 정치적 메시지를 묻기 위해 스포츠나 엔터테인먼트에 대한 비정치적 열정에 대한 정보를 상대 유권자에게 보내는 것입니다. 또 다른 가능성은 상대방의 메시지와 일치하도록 시간을 맞춰 요실금 광고와 같은 불쾌감을 주는 메시지를 보내는 것입니다. 또 다른 하나는 유권자의 소셜 미디어 친구 그룹을 조작하여 그들의 소셜 서클이 해당 후보를 지지한다는 느낌을 주는 것입니다.

둘째, Clogger는 진실을 고려하지 않습니다. 실제로 무엇이 참인지 거짓인지 알 방법이 없습니다. 언어 모델 "환각" 이 기계의 목적은 정확한 정보를 제공하는 것이 아니라 귀하의 투표를 변경하는 것이기 때문에 문제가 되지 않습니다.

셋째, 블랙박스형 인공지능, 사람들은 그것이 사용하는 전략을 알 방법이 없습니다.

설명 가능한 AI 분야는 사람들이 작동 방식을 이해할 수 있도록 많은 기계 학습 모델의 블랙박스를 여는 것을 목표로 합니다.

 

클로고크라시

공화당 대선 캠페인이 2024년에 Clogger를 배치한다면 민주당 캠페인은 아마도 비슷한 기계로 같은 방식으로 대응해야 할 것입니다. 도거라고 부르세요. 캠페인 관리자가 이러한 기계가 효과적이라고 생각한다면 대통령 경선은 Clogger 대 Dogger로 귀결될 수 있으며 승자는 더 효과적인 기계의 고객이 될 것입니다.

정치학자와 전문가들은 하나 또는 다른 AI가 우세한 이유에 대해 할 말이 많겠지만 실제로 아는 사람은 아무도 없을 것입니다. 대통령은 자신의 정책 제안이나 정치적 아이디어가 더 많은 미국인들을 설득해서가 아니라 더 효과적인 AI를 가졌기 때문에 선출되었을 것입니다. 이날 승리한 콘텐츠는 후보자나 정당이 아니라 자신의 정치적 이념 없이 오로지 승리에만 집중하는 AI에서 나왔을 것이다.

이 매우 중요한 의미에서 사람이 아니라 기계가 선거에서 이겼을 것입니다. 연설, 광고, 메시지, 투표 및 개표와 같은 모든 일상적인 민주주의 활동이 발생하더라도 선거는 더 이상 민주적이지 않을 것입니다.

그런 다음 AI로 선출된 대통령은 두 가지 방법 중 하나로 갈 수 있습니다. 그 또는 그녀는 공화당 또는 민주당 정책을 추구하기 위해 선거의 맨틀을 사용할 수 있습니다. 그러나 당의 생각은 사람들이 자신이 한 방식으로 투표한 이유와 거의 관련이 없었을 수 있기 때문에(Clogger와 Dogger는 정책 견해에 관심이 없습니다) 대통령의 행동이 반드시 유권자의 의지를 반영하는 것은 아닙니다. 유권자는 정치 지도자와 정책을 자유롭게 선택하는 것이 아니라 AI에 의해 조작되었을 것입니다.

또 다른 길은 대통령이 재선 가능성을 극대화할 것이라고 기계가 예측하는 메시지, 행동 및 정책을 추구하는 것입니다. 이 길에서 대통령은 권력 유지 외에 특별한 강령이나 의제가 없을 것입니다. Clogger가 이끄는 대통령의 행동은 유권자의 진정한 이익이나 대통령 자신의 이데올로기에 봉사하기보다는 유권자를 조종할 가능성이 가장 높은 행동입니다.

클로고크라시 피하기

후보자, 캠페인 및 컨설턴트가 모두 그러한 정치적 AI의 사용을 거부한다면 AI 선거 조작을 피할 수 있습니다. 그럴 가능성은 희박합니다. 정치적으로 효과적인 블랙박스가 개발된다면 블랙박스를 사용하려는 유혹은 거의 저항할 수 없을 것입니다. 실제로 정치 컨설턴트는 후보자의 승리를 돕기 위해 전문적인 책임에 따라 이러한 도구를 사용하는 것을 잘 볼 수 있습니다. 그리고 한 후보가 그러한 효과적인 도구를 사용하면 상대방이 일방적으로 무장 해제하여 저항하기는 거의 불가능합니다.

향상된 개인 정보 보호 도움이 될 것이다. Clogger는 개인을 타겟팅하고, 개인을 설득하거나 조작하기 위한 맞춤형 메시지를 작성하고, 캠페인 과정에서 그들을 추적 및 재타겟팅하기 위해 방대한 양의 개인 데이터에 대한 액세스에 의존합니다. 기업이나 정책 입안자가 기계에서 거부하는 모든 정보는 기계의 효율성을 떨어뜨릴 것입니다.

강력한 데이터 개인 정보 보호법은 AI가 조작되지 않도록 하는 데 도움이 될 수 있습니다.

 

또 다른 해결책은 선거 위원회에 있습니다. 그들은 이러한 기계를 금지하거나 엄격하게 규제하려고 할 수 있습니다. 거기에 격렬한 논쟁 그런 여부에 대해 "레플리컨트" 연설, 본질적으로 정치적인 경우에도 규제될 수 있습니다. 미국의 극단적 표현의 자유 전통 많은 주요 학자들이 할 수 없다고 말합니다..

그러나 수정헌법 제XNUMX조의 보호를 이러한 기계 제품에 자동으로 확장할 이유가 없습니다. 국가는 기계에 권리를 부여하기로 선택할 수 있지만 그것은 오늘날의 도전에 근거한 결정이어야 합니다. 잘못된 가정이 아니라 1789년 James Madison의 견해는 AI에 적용하기 위한 것이었습니다.

유럽 ​​연합 규제 당국은 이 방향으로 움직이고 있습니다. 정책 입안자들은 "캠페인에서 유권자에게 영향을 미치는 AI 시스템"을 지정하기 위해 유럽 의회의 인공 지능 법 초안을 수정했습니다. "고위험"으로 및 규제 조사 대상.

체질적으로 더 작은 단계는 이미 부분적으로 채택된 단계입니다. 유럽 ​​인터넷 규제 으로 혹은 캘리포니아, 봇이 자신을 사람으로 가장하는 것을 금지합니다. 예를 들어 규정에 따라 캠페인 메시지에 포함된 콘텐츠가 인간이 아닌 기계에 의해 생성된 경우 고지 사항이 함께 제공되어야 할 수 있습니다.

이는 "Sam Jones가 의회 위원회를 위해 지불했습니다"라는 광고 면책 조항 요구 사항과 같지만 AI 기원을 반영하도록 수정되었습니다. "이 AI 생성 광고는 의회 위원회를 위해 Sam Jones가 지불했습니다." 더 강력한 버전은 다음과 같이 요구할 수 있습니다. 최소한 우리는 유권자가 봇이 말을 하는 경우를 알 자격이 있고 그 이유도 알아야 한다고 믿습니다.

Clogger와 같은 시스템의 가능성은 인간의 집단 무력화 어떤 초인적인 것을 필요로 하지 않을 수도 있습니다 인공 일반 지능. 수백만 명의 버튼을 효과적으로 누를 수 있는 강력하고 새로운 도구를 가진 열정적인 운동가와 컨설턴트가 필요할 수도 있습니다.

저자 정보

아콘 펑, 시민권 및 자치학 교수, 하버드 케네디 스쿨로렌스 레식, 법률 및 리더십 교수, 하버드 대학교

이 기사는에서 다시 게시됩니다. 대화 크리에이티브 커먼즈 라이센스하에 읽기 원래 기사.


편집자 부록: AI가 선거를 장악하고 민주주의를 훼손할 가능성은 우리의 관심을 요하는 시급한 문제입니다. 이 기사에서 강조했듯이 Clogger와 같은 AI 기반 정치 캠페인의 부상은 기계가 전례 없는 규모로 유권자 행동에 영향을 미치면서 선거 결과를 재구성할 수 있습니다. 그러한 변화의 결과는 국민의 의지가 아니라 AI 조작의 효과에 따라 결정되는 선거로 광범위할 것입니다.

이러한 시민의 무력화를 막고 민주주의를 수호하기 위해서는 적극적인 대책을 세워야 합니다. 선거에서 AI 시스템의 영향을 제한하는 강력한 개인 정보 보호 및 규정이 중요합니다. 투명성을 보장하고, AI 생성 콘텐츠에 대한 명확한 면책 조항을 적용하고, AI의 책임 있는 사용을 장려함으로써 우리는 민주적 절차의 무결성을 유지하고 우리 사회의 근본적인 가치를 보호할 수 있습니다.

선거에서 AI가 제기하는 문제를 탐색하기 위해 경계를 유지하고 공동으로 노력하는 것이 필수적입니다. 그렇게 함으로써 우리는 우리 사회를 뒷받침하는 민주적 이상을 보존하고 기술의 힘이 사람들의 관심과 열망에 부합하는 미래를 확보할 수 있습니다.

하다

관련 도서 :

폭정에 관하여: XNUMX세기의 XNUMX가지 교훈

티모시 스나이더

이 책은 제도의 중요성, 개별 시민의 역할, 권위주의의 위험성을 포함하여 민주주의를 보존하고 수호하기 위한 역사의 교훈을 제공합니다.

자세한 정보를 보거나 주문하려면 클릭하십시오.

우리 시대는 지금이다 : 권력, 목적, 공정한 미국을위한 싸움

스테이시 에이브람스

정치가이자 활동가인 저자는 보다 포괄적이고 정의로운 민주주의에 대한 비전을 공유하고 정치적 참여와 유권자 동원을 위한 실질적인 전략을 제시합니다.

자세한 정보를 보거나 주문하려면 클릭하십시오.

민주주의는 어떻게 죽는가

스티븐 레비츠키와 다니엘 지블라트

이 책은 민주주의 붕괴의 경고 신호와 원인을 조사하고 민주주의를 보호하는 방법에 대한 통찰력을 제공하기 위해 전 세계의 사례 연구를 활용합니다.

자세한 정보를 보거나 주문하려면 클릭하십시오.

People, No: 반포퓰리즘의 간략한 역사

토마스 프랭크

저자는 미국의 포퓰리즘 운동의 역사를 제시하고 민주주의 개혁과 진보를 질식시켰다고 주장하는 "반포퓰리즘" 이데올로기를 비판합니다.

자세한 정보를 보거나 주문하려면 클릭하십시오.

한 권 이하의 민주주의: 작동 방식, 작동하지 않는 이유, 문제 해결이 생각보다 쉬운 이유

데이비드 리트

이 책은 민주주의의 강점과 약점을 포함하여 개요를 제공하고 시스템을 보다 민감하고 책임 있게 만들기 위한 개혁을 제안합니다.

자세한 정보를 보거나 주문하려면 클릭하십시오.