새로운 디지털 격차는 알고리즘을 선택하지 않는 사람들과 그렇지 않은 사람들 사이에서 존재합니다.

새로운 디지털 격차는 알고리즘을 선택하지 않는 사람들과 그렇지 않은 사람들 사이에서 존재합니다. 데이터를 공유 할 때 어떤 일이 발생하는지 알고 있습니까? mtkang / shutterstock.com

삶의 모든면은 아침 통근을위한 경로 선택, 날짜를 정할 사람 결정, 예측 정책 작성과 같은 복잡한 법률 및 사 법적 문제에 이르기까지 인공 지능 알고리즘에 의해 안내 될 수 있습니다.

Google 및 Facebook과 같은 거물급 기술 회사는 거대한 고객 데이터에 대한 통찰력을 얻기 위해 AI를 사용합니다. 이를 통해 광고주는 특정 타겟팅을 좁히기 위해 마이크로 타겟팅과 같은 방법을 통해 사용자의 집단적 선호도를 통해 수익을 창출 할 수 있습니다.

이와 동시에 많은 사람들은 이제 자신의 정부와 시민 사회보다 플랫폼과 알고리즘을 신뢰합니다. 10 월 2018 연구에 따르면 사람들은 "알고리즘 감사, "그들이 인간보다 알고리즘에서 왔다고 생각할 때 충고에 더 의존하는 정도로.

과거에는 기술 전문가들이 "정보 격차" 컴퓨터와 인터넷에 접속할 수있는 사람들과 그렇지 못한 사람들 사이. 디지털 기술에 대한 접근성이 낮은 가계는 자신의 능력에있어 불리하다. 돈을 벌고 기술을 축적하다.

그러나 디지털 장치가 확산됨에 따라 더 이상 액세스 할 수 없습니다. 사람들은 정보 과부하와 삶의 모든면에 스며드는 알고리즘 결정의 과다한 문제를 어떻게 처리합니까?

보다 능숙한 사용자는 기기에서 벗어나 알고리즘이 자신의 삶에 미치는 영향을 인식하고 있습니다. 한편, 정보가 적은 소비자는 의사 결정에 도움이되는 알고리즘에 더 의존하고 있습니다.

불평등 연결 상태를 유지해야합니까 - 아니면 연결을 끊어야합니까? pryzmat / shutterstock.com

인공 지능 뒤에 숨겨진 비밀의 소스

새로운 정보 격차의 주된 이유는 정보 시스템을 연구하는 사람으로 생각합니다. 소수의 사람들 만 알고리즘 작동 방식을 이해합니다.. 대다수의 사용자는 알고리즘을 블랙 박스로 간주합니다.

인공 지능 알고리즘은 데이터를 가져 와서 수학적 모델에 맞추고 예측 범위를 어떤 노래를 즐기 느냐누군가 몇 년 동안 감옥에 보내야하는지. 이 모델은 과거 데이터와 이전 모델의 성공을 바탕으로 개발되고 조정됩니다. 대부분의 사람들은 (때로는 알고리즘 디자이너들조차도) 실제로 모델 내부에 무엇이 들어 있는지 모릅니다.

연구원 오랫동안 염려 해왔다. 알고리즘 적 공평성. 예를 들어, 아마존의 AI 기반 채용 도구는 여자 후보들을 해산시키다.. Amazon의 시스템이 선택적으로 추출되었습니다. 암묵적으로 성별 된 단어들 - 남자는 "실행 된"및 "캡처 된"과 같은 일상 언어에서 사용하기 쉬운 단어.

기타 연구 사법 알고리즘이 인종적으로 편향되어 가난한 흑인 피고인을 다른 이들보다 오래 선고한다는 것을 보여 주었다.

유럽 ​​연합에서 최근 승인 된 일반 데이터 보호 규정의 일환으로 사람들은 "설명 할 권리" 알고리즘이 의사 결정에 사용하는 기준 중 이 법안은 조리법 책과 같은 알고리즘 의사 결정 프로세스를 처리합니다. 사고 방식은 조리법을 이해하면 알고리듬이 어떻게 당신의 삶에 영향을 미치는지 이해할 수 있습니다.

한편, 일부 AI 연구원들은 공정하고 책임감 있고 투명하다., 만큼 잘 해석 가능한인간이 이해하고 신뢰할 수있는 프로세스를 통해 의사 결정에 도달해야 함을 의미합니다.

투명성에는 어떤 영향이 있습니까? 에서 한 연구, 학생들은 알고리즘에 의해 등급을 매겼으며 동료들의 점수가 최종 점수에 이르기까지 어떻게 조정되었는지에 대해 다양한 수준의 설명을 제공했습니다. 더 투명한 설명을 가진 학생들은 실제로 알고리즘을 덜 신뢰했습니다. 이것은 다시 디지털 격차를 제시합니다. 알고리즘 인식은 시스템에 대한 더 많은 신뢰를 이끌어 내지 못합니다.

그러나 투명성은 만병 통치약이 아닙니다. 알고리즘의 전체 프로세스가 스케치 될 때조차도, 세부 사항은 여전히 ​​너무 복잡 할 수있다. 사용자가 이해할 수 있도록 투명성은 알고리즘의 복잡성을 파악할 정도로 정교한 사용자에게만 도움이됩니다.

예를 들어, 2014에서 연방 준비 은행의 전 위원장이었던 벤 버냉키 (Ben Bernanke)는 처음에는 자동화 된 시스템으로 모기지 재 융자를 거부했다.. 이러한 모기지 재 융자를 신청하는 대부분의 사람들은 알고리즘이 어떻게 신용도를 결정할지 이해하지 못합니다.

불평등 알고리즘이 오늘 무엇을 말합니까? 마리아 사 벤코 / shutterstock.com

새로운 정보 생태계 탈퇴

알고리즘은 사람들의 삶에 많은 영향을 미치지 만 참가자의 극히 일부만이 완전히 참여할만큼 정교합니다 알고리즘이 어떻게 삶에 영향을 주는지.

알고리즘을 인식하는 사람의 수에 대한 통계는 많지 않습니다. 연구 결과에 따르면 알고리즘 불안알고리즘을 배포하는 플랫폼 간의 강력한 불균형의 불균형을 초래하고 그들에게 의존하는 사용자.

Facebook 사용에 대한 연구 참여자가 뉴스 피드 큐레이팅을위한 페이스 북의 알고리즘을 알게되었을 때 참가자의 83 %가 자신의 행동을 수정하여 10 %가 페이스 북 사용을 줄이는 동안 알고리즘을 이용하려고 시도한다는 사실을 발견했습니다.

퓨 리서치 센터 (Pew Research Center)의 11 월 2018 보고서 대중의 대다수가 특정 용도의 알고리즘 사용에 대해 상당한 우려를 갖고 있음을 발견했습니다. 66 %는 알고리즘이 개인 금융 점수를 계산하는 것이 적절하지 않다고 생각했으며 57 %는 자동 이력 심사에 대해 동일하게 말했습니다.

개인의 일부분 만 알고리즘이 개인 데이터를 사용하는 방법을 제어합니다. 예를 들어, Hu-Manity 플랫폼을 사용하면 데이터의 양을 수집하는 방법을 제어하는 ​​옵션. 온라인 백과 사전 에버리피어 사용자가 큐 레이션 프로세스에서 이해 관계자가 될 수있는 기능을 제공하므로 사용자가 정보를 집계하여 제공하는 방법을 제어 할 수도 있습니다.

그러나 대다수의 플랫폼은 최종 사용자에게 이러한 유연성을 제공하지 않으며 알고리즘이 뉴스 피드를 관리하거나 콘텐츠를 추천하는 데 자신의 기본 설정을 사용하는 방법을 선택할 권리가 없습니다. 옵션이있는 경우 사용자는 옵션에 대해 알지 못할 수 있습니다. 페이스 북의 사용자 중 74 %는 설문 조사에서 플랫폼이 개인적인 이익을 특징 짓는 방식을 알지 못함.

필자의 견해로 볼 때, 새로운 디지털 문맹 퇴치는 컴퓨터를 사용하거나 인터넷에 접속하는 것이 아니라 항상 연결되어있는 라이프 스타일의 결과를 이해하고 평가하는 것입니다.

이 라이프 스타일은 다음에 의미있는 영향을 미칩니다. 사람들이 다른 사람들과 어떻게 상호 작용하는지; 능력에 새로운 정보에주의를 기울이십시오.; ~에 의사 결정 과정의 복잡성.

증가하는 알고리즘 불안은 또한 경제의 평행 교대로 반영 될 수 있습니다. 개인의 작은 그룹은 자동화로 얻은 이익 획득, 많은 근로자들이 불안정한 위치.

알고리즘 큐레이터에서 옵트 아웃하는 것은 사치입니다. 언젠가는 소수만을 선택할 수있는 풍요의 상징이 될 수 있습니다. 문제는 디지털 격차의 잘못된 측면에있는 사람들에게 측정 가능한 피해가 존재한다는 것입니다.

저자에 관하여

Anjana Susarla, 정보 시스템 부교수, 미시간 주립 대학

이 기사는에서 다시 게시됩니다. 대화 크리에이티브 커먼즈 라이센스하에 읽기 원래 기사.

관련 서적

{amazonWS : searchindex = 도서, keywords = 디지털 격차; maxresults = 3}

enafar에서 zh-CNzh-TWnltlfifrdehiiditjakomsnofaptruessvtrvi

InnerSelf을 (를) 팔로우하세요.

페이스 북-아이콘지저귀다 아이콘rss 아이콘

이메일로 최신 정보 얻기

{emailcloak = 오프}