4 방법 귀하의 Google 검색 및 소셜 미디어는 인생의 기회에 영향을 미칩니다

4 방법 귀하의 Google 검색 및 소셜 미디어는 인생의 기회에 영향을 미칩니다
Shutterstock를.

당신이 그것에 대해 깨닫거나 동의하는지 여부에 상관없이 큰 데이터는 당신과 당신의 삶에 어떤 영향을 미칠 수 있습니다. 소셜 미디어를 사용할 때 생성되는 데이터, 인터넷 검색 입고있는 피트니스 트래커는 모두 수집, 분류 및 사용됩니다. 기업 별 그리고, 상태 우리의 프로필을 만들 수 있습니다. 이러한 프로파일은 제품 및 서비스에 대한 광고를 구매할 가능성이 가장 높은 사람들에게 타겟팅하거나 정부의 결정을 알리는 데 사용됩니다.

큰 데이터는 주와 회사가 정보를 액세스, 결합 및 분석하고 공개를 가능하게합니다. 불완전한 잠재적으로 부정확 한 - 우리 삶의 단면. 그들은 우리와 우리와 비슷한 프로필을 가진 사람들에 대한 데이터에서 상관 관계와 패턴을 확인하여 우리가 할 수있는 일에 대한 예측을합니다.

그러나 빅 데이터 분석은 알고리즘 및 통계를 기반으로하기 때문에 그것이 정확하고 중립적이거나 본질적으로 객관적인. 큰 데이터는 그룹 행동에 대한 통찰력을 제공 할 수 있지만, 반드시 개인 행동을 결정할 수있는 신뢰할만한 방법은 아닙니다. 실제로 이러한 방법은 차별의 문을 열다. 그리고, 사람들의 인권을 위협하다 - 그들은 당신에게 불리하게 작용할 수도 있습니다. 다음은 큰 데이터 분석이 불의로 이어질 수있는 네 가지 예입니다.

1. 신용 점수 계산

빅 데이터를 사용하여 신용 자격, 귀하가 모기지를 부여 받았는지 또는 귀하의 자동차 보험 보험료가 있어야합니다. 이러한 결정은 귀하의 소셜 미디어 게시물 위험 또는 신뢰도를 나타내는 다른 앱의 데이터 등이 포함됩니다.

그러나 교육 배경이나 거주지와 같은 데이터는 그러한 평가에 적합하지 않거나 신뢰할 수 없습니다. 이러한 종류의 데이터는 인종 또는 사회 경제적 지위의 프록시 역할을 할 수 있으며이를 사용하여 신용 위험에 대한 결정을 내리면 차별을 초래할 수 있습니다.

2. 직업 검색

큰 데이터를 사용하여 취업 광고를 보거나 인터뷰를 위해 후보작을 본 사람. 구인 광고는 특정 연령 그룹, 25에서 36 살까지이는 젊은 근로자와 고령 근로자가 특정 직업 게시를 보지 못하도록하고 나이 차별의 위험이 있음을 나타냅니다.

자동화는 또한 필터링, 정렬 및 후보자 순위를보다 효율적으로 만드는 데 사용됩니다. 그러나이 선별 과정은 다음과 같은 지표를 기반으로 사람들을 제외시킬 수 있습니다. 통근 거리. 고용주는 통근 거리가 긴 사람들은 장기간 일자리를 유지할 가능성이 적으나 저렴한 주택 위치 때문에 도심에 거주하는 사람들을 차별 할 수 있다고 생각할 수 있습니다.

3. 가석방 및 보석금 결정

미국과 영국에서는 큰 데이터 위험 평가 모델을 사용하여 공무원이 사람들의 수령 여부를 결정할 수 있습니다. 가석방되거나 보석금, 또는 참조 재활 프로그램. 그들은 또한 가해자가 사회에 얼마나 많은 위험을 드러내는 지 평가하는 데 사용할 수 있습니다. 이는 판사가 문장의 길이를 결정할 때 고려할 수있는 요소 중 하나입니다.

이러한 평가를 돕기 위해 어떤 데이터가 사용되었는지는 명확하지 않지만 디지털 폴리싱 이러한 프로그램이 다음과 같은 오픈 소스 정보를 통합 할 가능성이 점점 커지고 있습니다. 사회적 내면 활동 - 그들이 아직하지 않았다면.

이러한 평가는 사람의 프로필을 보는 것뿐만 아니라 다른 사람들과 비교하는 방법도 있습니다. 일부 경찰은 역사적으로 과도한 정책 특정 소수 민족 공동체로 인해 불공정 한 수의 범죄 사건이 발생합니다. 이 데이터가 알고리즘에 입력되면 위험 평가 모델을 왜곡시키고 차별로 귀결됩니다 자유에 대한 권리.

4. VET 비자 신청

작년에 미국의 이민 세관 집행 기관 (ICE)은 자동화 된 "극단적 인 비자 검사"프로그램. 신청자가 미국에 "긍정적 인 기여"를할지 여부와 국가 안보 문제가 발생할 수 있는지 여부를 평가하기 위해 소셜 미디어 계정을 자동으로 지속적으로 스캔합니다.

사고, 의견, 표현 및 결사의 자유에 대한 위험을 제시하는 것뿐만 아니라이 프로그램이 특정 국적 또는 종교의 사람들을 차별 할 수있는 상당한 위험이있었습니다. 주석 "알고리즘에 의한 무슬림 금지"라고 묘사했다.

프로그램 최근에 철회되었다.보도에 따르면 "원하는 기관을 모니터링 할 수있는 품질을 제공 할 수있는 '즉시 사용할 수있는'소프트웨어는 없었습니다. 그러나 이러한 목표를 조달 문서에 포함 시키면 기술 산업계가 차별적 인 프로그램을 개발할 수있는 나쁜 인센티브를 창출 할 수 있습니다.

대화큰 데이터 분석이 개인의 삶의 기회에 영향을 줄 수있는 방식으로 작동한다는 것은 의심의 여지가 없습니다. 하지만 투명성의 부족 얼마나 큰 데이터를 수집, 사용 및 공유하는지에 대해 사람들은 어떤 정보가 어떻게, 언제, 그리고 언제 사용되는지를 알기가 어렵습니다. 대용량 데이터 분석은 개인이 부적절한 사용으로부터 데이터를 보호 할 수 없도록 너무 복잡합니다. 대신, 국가와 기업은 큰 데이터를 사용하여 차별을 초래하지 않도록 규정을 만들고 준수해야합니다.

저자 정보

Lorna McGregor, 인권 센터 이사, PI 및 공동 책임자, ESRC 인권, 대형 데이터 및 기술 대형 허가, 에 섹스 대학; Daragh Murray,에 섹스 로스쿨 국제 인권법 강사, 에 섹스 대학, Vivian Ng, 인권 수석 연구원, 에 섹스 대학

이 기사는 원래에 게시되었습니다. 대화. 읽기 원래 기사.

이 저자들의 책 :

{amazonWS : searchindex = Books, keywords = Lorna McGregor, maxresults = 1}

{amazonWS : searchindex = 도서, keywords = Daragh Murray, maxresults = 2}

enafar에서 zh-CNzh-TWnltlfifrdehiiditjakomsnofaptruessvtrvi

InnerSelf을 (를) 팔로우하세요.

페이스 북-아이콘지저귀다 아이콘rss 아이콘

이메일로 최신 정보 얻기

{emailcloak = 오프}