오하이오 주립 대학의 새로운 연구에 따르면, 소셜 미디어에서 널리 사용되는 개인화된 알고리즘은 사용자의 관심 범위를 좁혀 학습을 감소시키고 잘못된 정보에 대한 과신을 증가시킬 수 있다고 합니다.
오하이오 주립 대학의 새로운 연구에 따르면, YouTube와 같은 플랫폼에서 사용자가 이전에 선택한 내용을 기반으로 온라인 콘텐츠를 큐레이션하는 개인화된 알고리즘은 학습을 방해하고 현실에 대한 왜곡된 인식을 만들어낼 수 있습니다.
게재 실험 심리학 저널(Journal of Experimental Psychology: General)에 게재된 이 연구에 따르면, 알고리즘이 새로운 주제에 대해 배우는 참가자들에게 표시되는 정보를 제어했을 때, 참가자들의 관심은 제한된 정보의 하위 집합으로 좁혀졌습니다. 결과적으로, 이 참가자들은 종종 질문에 부정확하게 답했지만, 자신의 오답에 대해 높은 자신감을 보였습니다.
심리학 박사학위 논문의 일환으로 연구를 주도한 기본 바그에 따르면, 이러한 연구 결과는 우려스럽습니다.
개인화된 알고리즘에 대한 많은 연구에서는 친숙한 정치적 또는 사회적 문제에 대한 의견을 형성하는 데 미치는 영향을 탐구합니다.
"하지만 저희 연구에 따르면, 어떤 주제에 대해 아무것도 모르더라도 이러한 알고리즘은 즉시 편견을 형성하기 시작할 수 있으며 현실에 대한 왜곡된 관점으로 이어질 수 있습니다." 현재 펜실베이니아 주립 대학에서 박사후 연구원으로 재직 중인 바그는 보도자료를 통해 이렇게 밝혔습니다.
공동 저자이자 오하이오 주립대 심리학 교수인 브랜든 터너에 따르면, 연구 결과에 따르면 많은 사람이 개인화된 알고리즘이 제공하는 제한된 정보를 쉽게 사용하여 광범위하고 포괄적인 결론을 내릴 수 있다고 합니다.
터너는 보도자료에서 "사람들은 알고리즘을 따르면 정보를 놓치게 되지만, 자신이 알고 있는 정보가 자신이 경험해 본 적이 없는 환경의 다른 특징과 다른 부분에도 일반화될 수 있다고 생각합니다."라고 말했습니다.
예를 들어, 이 연구는 가상의 시나리오를 제시했습니다. 특정 국가의 영화에 익숙하지 않은 사람이 스트리밍 서비스의 알고리즘 추천을 이용합니다. 처음에는 액션 스릴러 영화를 선택하지만, 이후 알고리즘은 같은 장르의 영화를 더 많이 추천하여 시청자가 해당 국가의 영화 산업과 더 넓은 문화에 대해 제한적이고 편향된 이해를 갖게 합니다.
연구자들은 346명의 참가자를 대상으로 가상의 실험 설정을 사용하여 이러한 효과를 테스트했습니다. 참가자들은 다양한 특징을 샘플링하여 수정과 같은 외계인의 범주에 대해 알아보도록 요청받았습니다.
참가자들은 두 가지 조건을 충족했습니다. 하나는 모든 기능을 무작위로 샘플링하는 조건이고, 다른 하나는 개인화 알고리즘이 우선순위를 지정할 기능을 선택하는 조건이었습니다.
결과에 따르면, 알고리즘에 의존한 참가자들은 더 적은 수의 선택적인 특징을 샘플링했으며, 제한적이고 종종 잘못된 분류에 지나치게 자신감을 보였습니다.
바그는 "그들은 자신의 선택이 옳았을 때보다 실제로 틀렸을 때 더 자신감을 갖는 경향이 있었는데, 이는 그들이 지식이 부족했기 때문에 우려스러운 일입니다."라고 덧붙였다.
터너는 특히 젊은 학습자들에게 미칠 수 있는 잠재적인 사회적 결과를 지적했습니다.
"세상에 대해 진심으로 배우려는 어린아이가 온라인에서 사용자들이 더 많은 콘텐츠를 소비하도록 유도하는 알고리즘과 상호작용한다면, 어떻게 될까요?" 터너는 덧붙였다. "비슷한 콘텐츠를 소비하는 것은 종종 학습과 일치하지 않습니다. 이는 사용자뿐 아니라 궁극적으로 사회에도 문제를 일으킬 수 있습니다."
출처: 오하이오 주립 대학

