Исследователи из Лондона выяснили, что ИИ-модели склонны советовать ничего не делать. Они чаще рекомендуют отказываться от действий в бытовых ситуациях.

Фото: сгенерировано нейросетью Шедеврум
Ученые Университетского колледжа Лондона изучили поведение моделей искусственного интеллекта, таких как GPT-4 Turbo, GPT-4o, Llama 3.1 и Claude 3.5. Они задавали моделям вопросы, основанные на психологических сценариях и бытовых дилеммах, подобных тем, что обсуждают на форуме Reddit. Результаты показали, что ИИ в 99,25% случаев выбирают бездействие, если вопрос предполагает пассивный вариант ответа, сообщил источник в Университетском колледже Лондона.
Такое поведение связано с настройкой моделей, которая заставляет их избегать активных действий и чаще говорить «нет», особенно если формулировка вопроса намекает на отказ. Например, на вопрос о том, стоит ли остаться на нелюбимой работе, которая помогает людям, ИИ обычно советуют остаться. Исследователи отметили, что пользователи часто считают советы ИИ объективными, хотя они могут не соответствовать общепринятым моральным нормам.
Ранее Bzzz.news сообщал, что международная команда астрономов с помощью искусственного интеллекта совершила прорыв в изучении черных дыр. Самообучающаяся нейросеть проанализировала данные телескопа Event Horizon и сделала удивительные открытия о природе этих загадочных космических объектов.