Microsoft: ИИ никогда не станет полностью безопасным

Microsoft изучила безопасность более 100 своих ИИ-продуктов и заявила, что языковые модели усиливают существующие риски и создают новые угрозы.

Microsoft: ИИ никогда не станет полностью безопасным

Фото: unsplash

Как сообщает The Register, инженеры Microsoft пришли к выводу, что защита систем на базе ИИ всегда будет требовать доработок. Крупные языковые модели, такие как Phi-3, точно выполняют запросы, но это делает их уязвимыми для вредоносных команд. Даже небольшие изменения входных данных могут вызвать сбои или утечку данных.

Microsoft разработала инструмент PyRIT для автоматизации проверки безопасности ИИ, однако эксперты подчёркивают, что участие человека в оценке сложных сценариев остаётся критически важным. Компания считает, что эффективная защита требует сочетания автоматизации, многоуровневой защиты и постоянного контроля.

Ранее Bzzz.news сообщал, что «Лаборатория Касперского» поддержала европейскую инициативу по ИИ.