ИИ-компания пересматривает подход к безопасности своих пользователей. OpenAI может начать автоматически оповещать службы спасения о пользователях, осуждающих с ботом кризисные ситуации.

Фото: сгенерировано нейросетью Шедеврум
Генеральный директор OpenAI Самуэль Альтман заявил о возможном внедрении системы превентивных мер для пользователей ChatGPT, находящихся в группе риска. Как пишет The Guardian, в интервью Такеру Карлсону глава компании отметил, что ежедневно около 1,5 тыс. человек могут обсуждать с ботом кризисные ситуации перед тем, как принять роковое решение.
Компания рассматривает возможность обучения системы для автоматического оповещения компетентных органов в случаях, когда несовершеннолетние пользователи серьезно обсуждают тему самоповреждения, а связаться с родителями невозможно. Альтман подчеркнул, что это станет значительным изменением политики конфиденциальности, но необходимой мерой для спасения жизней.
В Open AI уже анонсировали планы по внедрению усиленных защитных механизмов для несовершеннолетних пользователей и родительского контроля.
Ранее Bzz.news сообщал, что ChatGPT научился распознавать тревогу. Теперь, при обсуждении чувствительных тем, бот может посоветовать сделать паузу или обратиться к специалистам.