신뢰하는 AI 7 20
 AI 챗봇은 점점 더 강력해지고 있지만, 그것이 당신에게 가장 유익한지 어떻게 알 수 있습니까? 

아마존의 음성비서 AI 시스템인 알렉사에게 아마존이 독점이냐고 물으면 아마존은 이렇게 답한다. 모른다고 한다. 만드는데 별로 시간이 안걸리는데 다른 거대 기술 기업을 맹렬히 공격하다, 그러나 모기업의 잘못에 대해서는 침묵하고 있습니다.

Alexa가 이런 식으로 응답하면 개발자의 이익을 귀하보다 우선시한다는 것이 분명해집니다. 그러나 일반적으로 AI 시스템이 누구에게 서비스를 제공하는지 명확하지 않습니다. 이러한 시스템에 악용되지 않으려면 사람들은 AI에 회의적으로 접근하는 방법을 배워야 합니다. 이는 입력을 의도적으로 구성하고 출력에 대해 비판적으로 생각하는 것을 의미합니다.

더욱 정교하고 덜 암기적인 반응을 보이는 최신 세대의 AI 모델로 인해 말을 할 때 누가 혜택을 받는지 파악하기가 더 어려워졌습니다. 인터넷 기업이 자신의 이익을 위해 눈에 보이는 것을 조작하는 것은 새로운 것이 아닙니다. Google의 검색 결과와 Facebook 피드는 다음과 같습니다. 유료 항목으로 가득 차 있습니다.. 페이스북, 틱톡 서비스 그리고 다른 사람들은 귀하의 피드를 조작하여 귀하가 플랫폼에서 보내는 시간을 최대화합니다. 이는 귀하의 웰빙에 비해 더 많은 광고 조회수를 의미합니다.

AI 시스템이 다른 인터넷 서비스와 구별되는 점은 상호 작용 방식과 이러한 상호 작용이 점차 관계처럼 변하는 방식입니다. 당신을 위해 여행을 계획하고, 당신을 대신해 협상하고, 치료사 및 인생 코치 역할을 하는 AI를 상상하는 데에는 오늘날의 기술을 많이 추론할 필요가 없습니다.


내면의 구독 그래픽


그들은 연중무휴 24시간 내내 귀하와 함께 있고, 귀하를 잘 알고 있으며, 귀하의 요구 사항을 예측할 수 있습니다. 웹상의 방대한 서비스 및 리소스 네트워크에 대한 이러한 종류의 대화 인터페이스는 ChatGPT와 같은 기존 생성 AI의 기능 내에 있습니다. 그들은 될 궤도에 있습니다 개인화된 디지털 비서.

으로 보안 전문가데이터 과학자, 우리는 이러한 AI에 의존하게 된 사람들이 일상 생활을 탐색하기 위해 암묵적으로 AI를 신뢰해야 한다고 믿습니다. 이는 AI가 다른 사람을 위해 비밀리에 일하고 있지 않은지 확인해야 함을 의미합니다. 인터넷에서는 당신에게 도움이 되는 것처럼 보이는 장치와 서비스가 이미 비밀리에 당신에게 불리하게 작용하고 있습니다. 스마트 TV 당신을 스파이. 전화 앱 데이터 수집 및 판매. 많은 앱과 웹사이트 어두운 패턴을 통해 당신을 조종하세요, 디자인 요소 웹사이트 방문자를 고의로 오도하거나, 강요하거나, 속이는 행위. 이것은 감시 자본주의, AI가 그 일부가 될 것으로 예상됩니다. AI는 감시 자본주의에서 역할을 하고 있는데, 이는 결국 돈을 벌기 위해 당신을 염탐하는 것으로 귀결됩니다.

어두운 데에서

아마도 AI의 경우 상황이 훨씬 더 나쁠 수도 있습니다. AI 디지털 비서가 진정으로 유용하려면 사용자를 실제로 알아야 합니다. 당신의 휴대폰이 당신을 아는 것보다 더 낫습니다. Google 검색보다 더 잘 당신을 알고 있습니다. 아마도 당신의 가까운 친구, 친밀한 파트너, 치료사가 당신을 더 잘 알고 있을 것입니다.

오늘날 최고의 생성 AI 도구를 신뢰할 이유가 없습니다. 제쳐두고 환각, GPT 및 기타 대규모 언어 모델이 생성하는 꾸며낸 "사실"입니다. 우리는 향후 몇 년 동안 기술이 향상됨에 따라 이러한 문제가 크게 해결될 것으로 기대합니다.

그러나 AI가 어떻게 구성되어 있는지, 즉 어떻게 훈련되었는지, 어떤 정보가 제공되었는지, 어떤 지침을 따르도록 명령받았는지는 알 수 없습니다. 예를 들어 연구자들은 비밀규칙을 알아냈다 이는 Microsoft Bing 챗봇의 동작을 제어합니다. 대체로 양성이지만 언제든지 바뀔 수 있습니다.

돈을 벌다

이러한 AI 중 다수는 최대 규모의 기술 독점 기업에 의해 막대한 비용으로 생성되고 훈련됩니다. 사람들에게 무료로 또는 매우 저렴한 비용으로 사용할 수 있도록 제공되고 있습니다. 이들 회사는 어떻게든 수익을 창출해야 합니다. 그리고 나머지 인터넷과 마찬가지로 여기에도 감시와 조작이 포함될 가능성이 높습니다.

다음 휴가 계획을 챗봇에게 요청한다고 상상해 보세요. 특정 항공사나 호텔 체인, 레스토랑을 선택한 이유는 귀하에게 가장 적합했기 때문입니까, 아니면 제조업체가 기업으로부터 리베이트를 받았기 때문입니까? Google 검색의 유료 결과, Facebook의 뉴스피드 광고, Amazon 쿼리의 유료 게재위치와 마찬가지로 이러한 유료 영향력은 시간이 지남에 따라 더욱 은밀해질 가능성이 높습니다.

챗봇에게 정치적인 정보를 묻는다면 그 결과는 챗봇을 소유한 기업의 정치에 의해 왜곡되는 걸까요? 아니면 가장 많은 돈을 지불한 후보자입니까? 아니면 모델 훈련에 데이터가 사용된 사람들의 인구통계학적 관점인가요? 당신의 AI 에이전트는 비밀리에 이중 요원인가요? 지금으로서는 알 수 있는 방법이 없습니다.

법적으로 신뢰할 수 있음

우리는 사람들이 기술로부터 더 많은 것을 기대해야 하며 기술 회사와 AI가 더욱 신뢰할 수 있게 될 수 있다고 믿습니다. 유럽연합이 제안한 AI법 AI 모델 훈련에 사용되는 데이터에 대한 투명성, 잠재적 편견 완화, 예측 가능한 위험 공개 및 업계 표준 테스트 보고 등 몇 가지 중요한 조치를 취합니다. 유럽연합(EU)은 AI 규제를 추진하고 있다.

현존하는 대부분의 AI 준수하지 않는다 이러한 새로운 유럽의 위임통치로 인해, 그리고 그럼에도 불구하고 최근 자극 척 슈머 상원 원내대표는 미국이 그러한 규제에 훨씬 뒤처져 있다고 말했습니다.

미래의 AI는 신뢰할 수 있어야 합니다. 정부가 AI 제품에 대한 강력한 소비자 보호 조치를 제공하지 않는 한, 사람들은 스스로 AI의 잠재적인 위험과 편견을 추측하고 AI가 사람들의 경험에 미치는 최악의 영향을 완화할 것입니다.

따라서 AI 도구로부터 여행 추천이나 정치적 정보를 얻을 때 광고판 광고나 캠페인 자원봉사자와 마찬가지로 회의적인 눈으로 접근하십시오. 모든 기술적 마법에 대해 AI 도구는 거의 동일할 수 있습니다.대화

저자에 관하여

브루스 슈나이어, 공공 정책 겸임 강사, 하버드 케네디 스쿨네이선 샌더스, Berkman Klein 인터넷 및 사회 센터 제휴사, 하버드 대학교

이 기사는에서 다시 게시됩니다. 대화 크리에이티브 커먼즈 라이센스하에 읽기 원래 기사.