Более 90% специалистов не уверены в защите ИИ-систем в их компаниях

Фото Franz26/pixabay.com
42% спецалистов полностью и 53% частично не уверены в уровне информационной безопасности систем на основе искусственного интеллекта, которые интегрированы в их информационную систему. Специалисты «Информзащиты» считают это следствием стремительного развития ИИ и появления новых угроз для него.

Согласно статистике, 42% экспертов указывают, что их организации уже используют языковые модели в своей работе, 45% утверждают, что исследуют возможность интеграции генеративного искусственного интеллекта. По мнению экспертов «Информзащиты», активное распространение ИИ создает новые специфичные угрозы для ИБ.

«Распространение искусственного интеллекта породило и новые угрозы. Во-первых, это Prompt Injection — ситуация, когда злоумышленники без ведома пользователя взламывают ИИ-системы и подают дополнительные инструкции, которые изменят ответы языковой модели, в которых будет дезинформация или вредоносные ссылки. Во-вторых, мы имеем дело с группой вредоносных программ, которые атакуют именно системы, в которые интегрирован генеративный ИИ», - говорит руководитель проектов в области искусственного интеллекта и информационной безопасности «Информзащиты» Наталья Абрамова.

Злоумышленники также активно используют искусственный интеллект в своей деятельности. Например, с помощью генеративного ИИ преступники создают фишинговые письма и осуществляют массовые рассылки. В некоторых случаях злоумышленники использовали технологии распознавания голоса и чат-ботов для обмана людей, представляясь сотрудниками банков или других организаций и вымогая у них деньги или личные данные. Продвинутые языковые модели также могут создать вредоносную программу, что значительно снижает порог входа в киберпреступность. 38% специалистов серьезно обеспокоенными этими рисками.


«Искусственный интеллект сегодня используют и преступники, и специалисты по ИБ. Конечно, технология имеет свои риски и во многом упрощает жизнь хакеров. Однако те решения ИБ, которые сегодня используются и разрабатываются, также могут принести значительную пользу. Например, продвинутые модели ИИ значительно помогают обнаруживать фишинговые письма, которые выглядят как официальные сообщения от банков и других финансовых учреждений. Эти письма содержат ссылки на фальшивые сайты, где жертвы могли вводить свои личные данные», — подчеркивает Абрамова.