Специалист «Лаборатории Касперского» рассказал о применении мошенниками нейросетей и дипфейков

Люди стали гораздо меньше доверять изображениям, так как их легко сфабриковать. Но мошенники пошли дальше и уже пробуют применять в своих схемах фейковые видео.

Специалист «Лаборатории Касперского» рассказал о применении мошенниками нейросетей и дипфейков

Фото: pxhere.com

Интернет-злоумышленники пытаются использоваться для обмана все возможности нейросетей. Они генерируют фейковые картинки, видео и даже голоса, приводит РИА «Новости» слова ведущего исследователя данных в «Лаборатории Касперского» Владислава Тушканова.

Эксперт отметил, что в пользу мошенников, например, играет тот факт, что ChatGPT работает не во всех странах. Следовательно, получить к нему доступ сложнее. Не все россияне знают о принципах его работы, чем и пользуются злоумышленники.

«Было много случаев, когда мошенники создавали дипфейки, чтобы писать посты в социальных сетях со ссылкой на мошенническую страницу», — отметил Тушканов и добавил, что громким примером была ситуация с фейком Илона Маска.

Тушканов отметил, что запрещать нейросети не стоит. Однако необходимо озаботиться правильным урегулированием этой сферы. Например, вводить правила с обязательным предупреждением, что человек общается с роботом.