기술이 인권을 위험에 처하게하는 이유

기술이 인권을 위험에 처하게하는 이유
Spainter_vfx / Shutterstock.com

같은 영화 2001 : 스페이스 오디세이, 블레이드 러너 그리고, 터미네이터 불량 로봇과 컴퓨터 시스템을 영화 스크린에 가져 왔습니다. 그러나 요즈음, 그런 고전적인 과학 소설은 현실과 멀리 떨어져있는 것처럼 보이지 않습니다.

점점 더 자율적이고 지능적인 컴퓨팅 기술로 살고 일하고 놀 수 있습니다. 이러한 시스템에는 독립적 인 추론 및 의사 결정 능력을 갖춘 소프트웨어 및 하드웨어가 포함됩니다. 그들은 공장 바닥에서 우리를 위해 일합니다. 그들은 우리가 담보를 얻을 수 있는지 여부를 결정합니다. 그들은 우리의 활동 및 체력 수준을 추적하고 측정합니다. 그들은 우리 거실 바닥을 청소하고 잔디를 자른다.

자율적이고 지능적인 시스템은 평범한 일상을 포함하여 사회, 경제, 정치 및 사생활의 거의 모든면에 영향을 줄 수 있습니다. 이 중 많은 부분이 결백 해 보이지만 걱정할 이유가 있습니다. 전산 기술은 권리에서 삶으로, 권리에서 사생활, 표현의 자유, 사회 경제적 권리에 이르기까지 모든 인권에 영향을 미친다. 그렇다면 로봇과 인공 지능 (AI)에 의해 점점 더 형성되는 기술 환경에서 인권을 어떻게 방어 할 수 있을까요?

인공 지능과 인권

첫째, 기계 자율을 높이면 인간의 지위가 훼손 될 것이라는 두려움이 있습니다. 이 두려움은 지능형 기계가 해를 입을 때 합법적인지 또는 도덕적 인 의미인지 여부를 누가 고려해야 할지를 명확하게 밝히지 않음으로 인해 복잡해집니다. 그러나 나는 인권에 대한 우리의 관심의 초점이 정말로 불량 로봇, 그것은 현재로 보인다. 오히려 우리는 인간의 로봇 및 인공 지능 사용과 정치, 군사, 경제적, 사회적 불공정 한 상황에서의 배치에 대해 걱정해야합니다.

이러한 걱정은 치명적인 자율 무기 시스템 (LAWS)과 관련하여 특히 적절하며, 킬러 로봇이라고 묘사됩니다. 우리로 AI 무기 경쟁으로 나아가 다., 인권 학자 및 Christof Heyns와 같은 선거 운동가, 즉 비사 법적, 요약 또는 임의 처형에 관한 UN 유엔 특별 보고관은 법의 사용이 자율 로봇 시스템을 배치 할 것을 두려워한다 삶과 죽음을 결정하는 사람인간의 통제가 제한적이거나 아예 없다.

인공 지능은 또한 전쟁과 감시 관행 사이의 연결 고리에 혁명을 일으 킵니다. 같은 그룹 국제 로봇 암 제어위원회 (ICRAC) 최근 구글에 대한 반대 입장을 표명 프로젝트 메이븐, 사기성 살인을 위해 사용될 수있는 무인 항공기 감시 영상을 분석하기 위해 기계 학습을 사용하는 군사 프로그램. ICRAC 호소 Google이 사용자에게 수집 한 데이터가 결코 군사 목적으로 사용되지 않도록하여 Google 직원이 회사의 프로젝트 참여에 대한 항의에 참여하도록합니다. Google은 최근에 갱신하지 않을 것이다. 그것의 계약.

2013에서는 감시 관행의 범위가 Edward Snowden에 의해 강조되었습니다. 요한 계시록. 이는 정보 보호, 정부 기관 및 민간 기업 간의 개인 정보 보호 및 데이터 공유에 대한 위협에 대해 우리에게 많은 것을 가르쳐주었습니다. 최근의 논쟁 케임브리지 분석가페이스 북과 같은 소셜 미디어 플랫폼의 사용을 통한 개인 데이터 수집은 표현의 자유에 대한 권리를 손상시키는 민주적 인 선거에 대한 조작과 간섭에 대한 심각한 우려를 계속 일으키고 있습니다.

한편, 중요한 데이터 분석가의 도전 차별 관행 AI의 "백인 녀석 문제"라고 부르는 것과 관련이 있습니다. 이것은 기존 데이터에 대해 훈련 된 인공 지능 시스템이 치안, 사법 결정 또는 고용과 같은 영역에서 차별 관행을 영속시키는 기존의 인종 및 성별 고정 관념을 그대로 재현한다는 우려입니다.

인공 지능은 스테레오 타입을 복제하고 보장 할 수 있습니다.
인공 지능은 스테레오 타입을 복제하고 보장 할 수 있습니다.
Ollyy / Shutterstock.com

모호한 봇

인권 및 물리적, 정치적 및 디지털 보안에 대한 전산 기술의 잠재적 위협은 최근 발표 된 연구에서 강조되었습니다. 인공 지능의 악의적 인 사용. 이 케임브리지 대학 보고서에 나타난 우려는 진지하게 받아 들여 져야합니다. 그러나 우리는 어떻게 이러한 위협에 대처해야합니까? 인권은 로봇 공학과 인공 지능의 시대를 준비하고 있습니까?

이 시대의 기존 인권 원칙을 지속적으로 업데이트하려는 노력이 계속되고 있습니다. 여기에는 사업 및 인권에 관한 UN 체제 및 지침, 쓰기 시도 디지털 시대의 마그나 카르타 미래의 생명 연구소 Asilomar 인공 지능 원리윤리 연구, 가치 준수 및 AI의 장기적인 선진 개발에 대한 헌신에 대한 지침을 식별합니다.

이러한 노력은 칭찬 할만하지만 충분하지 않습니다. 정부 및 정부 기관, 정당 및 민간 기업, 특히 선도적 인 기술 기업은 AI의 윤리적 인 사용에 전념해야합니다. 또한 효과적이고 시행 가능한 입법 통제가 필요합니다.

우리가 도입 한 새로운 측정 방법이 무엇이든, 우리의 삶은 점점 더 자율 기계와 지능 시스템에 얽혀 있음을 인정하는 것이 중요합니다. 이러한 얽힘은 의료 연구 및 치료, 운송 시스템, 사회 케어 환경 및 환경 보호 노력과 같은 분야에서의 인간 복지를 향상시킵니다.

그러나 다른 영역에서 이러한 얽힘은 걱정스러운 전망을 던졌습니다. 전산 기술은 우리의 행동과 행동을보고 추적하고, 단계, 위치, 건강, 취향 및 우정을 추적하는 데 사용됩니다. 이러한 시스템은 인간의 행동을 형성하고 우리의 자유를 축소하고 인권의 이상과 아이디어를 훼손하는 자기 감시 관행을 향해 우리를 움직입니다.

대화그리고 여기에는 핵심이 있습니다. 계산 기술의 이중 사용 능력은 수익성있는 행위와 악의적 인 행위 사이의 경계를 모호하게 만듭니다. 또한 계산 기술은 개별 시민, 주정부 및 정부 기관, 민간 기업 간의 불평등 한 권력 관계에 깊이 관여합니다. 효과적인 국내 및 국제 체킹 및 균형 시스템으로부터 벗어난다면, 그들은 우리의 인권에 대한 실질적이고 우려할만한 위협을 제기합니다.

저자에 관하여

Birgit Schippers, 방문 연구원, 상원 의원 George J Mitchell 세계 평화, 안보 및 정의 연구소, 퀸즈 대학교 벨파스트

이 기사는 원래에 게시되었습니다. 대화. 읽기 원래 기사.

관련 서적

{amazonWS : searchindex = Books, Birgit Schippers = 내부, maxresults = 3}

enafar에서 zh-CNzh-TWnltlfifrdehiiditjakomsnofaptruessvtrvi

InnerSelf을 (를) 팔로우하세요.

페이스 북-아이콘지저귀다 아이콘rss 아이콘

이메일로 최신 정보 얻기

{emailcloak = 오프}