AI는 파트너와의 대화를 바탕으로 관계가 지속되는지 예측할 수 있습니다.

AI는 파트너와의 대화를 바탕으로 관계가 지속되는지 예측할 수 있습니다.

외치는 소리 나 비꼬는 소리와 같이 목소리로 꾸짖은 어린이 (또는 배우자)는 방법 당신은 누군가와 이야기하는 것만 큼 중요 할 수 있습니다. 당신이 사용하는. 보이스 아티스트와 배우는이를 잘 활용합니다. 말하기 방식으로 의미를 부여하는 데 숙련되어 있으며 때로는 혼자만의 단어보다 훨씬 의미가 있습니다.

그러나 우리의 목소리와 대화 패턴에 얼마나 많은 정보가 담겨 있으며, 다른 사람들과의 관계에 어떤 영향을 미칩니 까? 전산 시스템은 이미 확립 가능 사람들이 목소리에서 나온 사람, 그래서 그들은 또한 우리에게 사랑의 삶에 관해 우리에게 말할 수 있습니까? 놀랍게도, 그 것처럼 보입니다.

새로운 연구, PLOS-ONE 저널에 그냥 게시 됨, 134 커플의 치료를받는 성대 특성을 분석했습니다. University of Southern California의 연구원은 컴퓨터를 사용하여 2 년 동안 치료 세션 참가자의 녹음에서 표준 음성 분석 기능을 추출했습니다. 특징 - 포함 피치, 피치 및 인토네이션의 변화 - 모두 음색 및 강도와 같은 음성 측면과 관련됩니다.

그런 다음 기계 학습 알고리즘을 훈련하여 해당 음성 기능과 최종 치료 결과 간의 관계를 학습했습니다. 소리를 지르거나 들리는 것을 감지하는 것만 큼 간단하지 않았습니다. 대화의 상호 작용, 언제 그리고 얼마나 오랫동안 목소리를 들려 주는지 이야기했습니다. 말한 것을 무시하고 이러한 말의 패턴 만 고려하면 부부가 함께있을 것인지 아닌지 예측할 수 있습니다. 이것은 순전히 데이터 기반 이었기 때문에 결과를 특정 음성 속성과 관련시키지 않았습니다.

어떻게 소리의 음색이 몇 마디의 의미를 바꿀 수 있습니다.

흥미롭게도, 치료 세션의 전체 비디오 녹음을 전문가에게 제공하여 분류했습니다. 인공 지능과 달리, 그들은 음성 및 신체 언어를 포함한 음성 (및 기타) 속성을 기반으로 한 심리적 평가를 사용하여 예측을했습니다. 놀랍게도, 최종 결과에 대한 그들의 예측 (사례의 75.6 %에서 정확함)은 음성 특성 (79.3 %)만을 기반으로 한 AI에 의한 예측보다 열등했다. 분명히 전문가가 인식하지 못하는 방식으로 인코딩 된 요소가 있습니다. 그러나 가장 좋은 결과는 자동화 된 평가와 전문가의 평가 (79.6 % correct)를 결합한 것입니다.


InnerSelf에서 최신 정보 받기


이것의 중요성은 AI를 결혼 상담에 참여 시키거나 부부가 서로에게 친절하게 말하게하는 것에 그다지 공모하지 않습니다. 중요성은 우리의 기본 감정에 대한 정보가 우리가 말하는 방식으로 인코딩되어 있는지를 보여줍니다. 일부는 우리에게 전혀 알려지지 않았습니다.

페이지 또는 화면에 쓰여진 단어는 사전 정의에서 파생 된 어휘 의미를가집니다. 이들은 주변 단어의 컨텍스트에 의해 수정됩니다. 서면 작성이 매우 복잡 할 수 있습니다. 그러나 단어를 큰 소리로 읽으면 단어 스트레스, 음량, 말하기 속도 및 목소리에 의해 전달되는 추가 의미를 취하는 것이 사실입니다. 일반적인 대화에서 각 화자가 말하는 시간과 한 명 또는 다른 사람이 얼마나 빨리 개입 할 수 있는지에 대한 의미도 있습니다.

"당신은 누구입니까?"라는 간단한 질문을 생각해보십시오. 여러 단어에 대한 스트레스로 이것을 말하십시오. "누가 당신? ","Who 아르 당신과 "누구 너니? ". 이 말을 들어라. - 의미가 의미는 단어가 동일하게 유지되는 경우에도 우리가 읽는 방법에 따라 바뀔 수 있습니다.

'새는 감각'을 읽는 컴퓨터?

그들이 말한 방식에 따라 단어가 다른 의미를 전달한다는 것은 놀랄 일이 아닙니다. 컴퓨터가 우리가 말하기를 선택한 방식의 뒤에있는 의미의 일부를 해석 할 수 있다는 것도 놀랄 일이 아닙니다. (언젠가는 아이러니를 이해하다).

그러나이 연구는 단지 문장에 의해 전달 된 의미를 보는 것보다 더 중요한 사안을 취합니다. 그것은 문장 뒤에 숨어있는 기본 태도와 생각을 드러내는 것처럼 보입니다. 이것은 훨씬 깊은 이해 수준입니다.

치료 참가자는 배우와 같은 단어를 읽지 않았습니다. 그들은 자연스럽게 말하고 있었거나 치료사의 사무실에서 자연스럽게 말하고있었습니다. 그러나 분석 결과 실수로 자신의 연설로 "새어 나갔다"는 상호간의 감정에 대한 정보가 공개되었습니다. 이것은 컴퓨터를 사용하여 우리가 실제로 생각하고 느끼는 것을 결정하는 첫 번째 단계 중 하나 일 수 있습니다. 미래의 스마트 폰과 대화하는 순간을 상상해보십시오. 정보를 누설 할 수 있습니까? 그들은 어떻게 대응할 것인가?

함께 이야기하는 것을 듣고 잠재적 인 파트너에 관해 조언 할 수 있습니까? 반사회적 행동, 폭력, 우울증 또는 다른 상태에 대한 경향을 감지 할 수 있습니까? 그것은 상상의 도약이 아닐 것이다. 미래 치료사로서의 장치 자체 - 다양한 방식으로 우리와 상호 작용하여 그들이 제공하는 중재의 효과를 추적합니다.

우리가 그런 미래로부터 멀어지기 때문에 아직 걱정하지 마라. 개인 정보 보호 문제특히 컴퓨터와 더 깊은 상호 작용을하면서 동시에 주변 세계를 분석하는 데 더욱 강력 해지고 있습니다.

대화우리가 다른 인간의 감각을 소리 (음성)와 별개로 생각하기 위해 잠시 멈추었을 때; 아마도 우리는 시력 (신체 언어, 얼굴 붉어짐), 접촉 (온도 및 움직임) 또는 심지어 냄새 (페로몬)를 통해 정보를 유출했을 수도 있습니다. 똑똑한 장치가 우리가 말하는 방법을 경청해서 순전히 배우는 경우에, 사람은 경탄한다 다른 감각에서 얼마나 더 많이 모을 수 있을까?.

저자에 관하여

Ian McLoughlin, 교수 (Computway, Medway) 켄트 대학교

이 기사는 원래에 게시되었습니다. 대화. 읽기 원래 기사.

관련 도서 :

{amazonWS : searchindex = Books, keywords = 성공한 관계, maxresults = 3}

enafar에서 zh-CNzh-TWnltlfifrdehiiditjakomsnofaptruessvtrvi

InnerSelf을 (를) 팔로우하세요.

페이스 북-아이콘지저귀다 아이콘rss 아이콘

이메일로 최신 정보 얻기

{emailcloak = 오프}