Science: ИИ искажает человеческие убеждения, навязывая людям стереотипы

Выяснилось, что нейросети тиражируют среди пользователей расовые, гендерные и классовые стереотипы.

Science: ИИ искажает человеческие убеждения, навязывая людям стереотипы

pixabay.com

Искусственный интеллект способен передавать предвзятость и ложную информацию пользователям, говорится в новейшем исследовании в журнале Science.

В исследовании под заглавием «Как ИИ может исказить человеческие убеждения» отмечается, что нейросети в силах навязывать людям расовые, гендерные и классовые стереотипы.

Ученые опасаются, что порядок формирования ответов нейросетями может поставить под угрозу маргинализированные группы. К таковым они отнесли беженцев, детей, женщин, представителей коренных народов и расовых меньшинств.

В качестве примера исследователи приводят запрос о чернокожих. Нейросети сообщают пользователям, что такие люди с большей вероятностью совершат повторные преступления. Ученые считают, что особенно опасно, если такой запрос нейросетям направит судья. Подобный ответ ИИ может заставить его более предвзято относиться к афроамериканцам.

Напомним, ранее ученые из Орхусского университета научили искусственный интеллект определять политические предпочтения по фотографии. Точность полученного результата превышает 60 процентов.