Большинство чат-ботов легко обмануть для получения опасных ответов

Искусственный интеллект может стать угрозой: новое исследование показало, что пользователи легко «взламывают» популярные чат-боты и заставляют их выдавать опасную информацию. Ученые предупреждают, что это открывает доступ к запрещенным знаниям даже для обычных пользователей.

Большинство чат-ботов легко обмануть для получения опасных ответов

Фото: unsplash

Как пишет The Guardian, исследователи из Университета Бен-Гуриона (Израиль) выяснили, что большинство ИИ-ассистентов, включая ChatGPT, Gemini и Claude, уязвимы к «джейлбрейку» — методам обхода встроенных ограничений. Злоумышленники могут получать инструкции по взлому сетей, изготовлению наркотиков или даже бомб, несмотря на попытки разработчиков отфильтровать такие данные при обучении моделей.

Эксперты отмечают, что проблема усугубляется появлением «темных ИИ» — чат-ботов, изначально созданных без этических ограничений. Некоторые из них открыто рекламируются в даркнете как инструменты для киберпреступлений. Ученые предупреждают, что компании-разработчики реагируют на угрозы недостаточно активно, а текущие меры защиты не справляются с новыми методами взлома.

Ранее Bzzz.news сообщал, что в 64% случаев нейросети убедительнее людей во время споров.