Выяснилось, что нейросети тиражируют среди пользователей расовые, гендерные и классовые стереотипы.
pixabay.com
Искусственный интеллект способен передавать предвзятость и ложную информацию пользователям, говорится в новейшем исследовании в журнале Science.
В исследовании под заглавием «Как ИИ может исказить человеческие убеждения» отмечается, что нейросети в силах навязывать людям расовые, гендерные и классовые стереотипы.
Ученые опасаются, что порядок формирования ответов нейросетями может поставить под угрозу маргинализированные группы. К таковым они отнесли беженцев, детей, женщин, представителей коренных народов и расовых меньшинств.
В качестве примера исследователи приводят запрос о чернокожих. Нейросети сообщают пользователям, что такие люди с большей вероятностью совершат повторные преступления. Ученые считают, что особенно опасно, если такой запрос нейросетям направит судья. Подобный ответ ИИ может заставить его более предвзято относиться к афроамериканцам.
Напомним, ранее ученые из Орхусского университета научили искусственный интеллект определять политические предпочтения по фотографии. Точность полученного результата превышает 60 процентов.