В 2025 году ожидается кратный рост преступности из-за развития ИИ. Читайте на Cossa.ru

Вчера в 11:01

В 2025 году ожидается кратный рост преступности из-за развития ИИ

В этом году количество преступлений, при подготовке которых используется искусственный интеллект (ИИ), может увеличиться в разы. Так, в 2025 году в своей работе использовать нейросети могут до 90% кибергруппировок, пишут «Известия».

В 2025 году количество противоправных действий, совершенных с использованием искусственного интеллекта, увеличится в несколько раз, считают эксперты в сфере инфобеза. Отмечается, что преступные методы будут развиваться вместе с прогрессом ИИ, а использовать технологию в незаконных целях уже с этого года могут до 90% кибергруппировок. При этом атаки могут совершаться не только в ИТ-сегменте, но и в других сферах жизни. Так, например, в начале января 2025 года в Лас-Вегасе был взорван автомобиль, для подрыва которого использовался чат-бот ChatGPT.

«Ежегодный прирост преступлений, совершаемых с помощью ИИ, не фиксируется официальными органами. Он определяется примерно по числу ботов и генерируемого ими контента. В 2025-м прирост таких преступлений может увеличиться до восьми раз или даже десятикратно по сравнению с прошлым годом», — отметил руководитель департамента расследований T.Hunter Игорь Бедеров.

Ещё один риск развития ИИ — утечки конфиденциальных данных. Так, более трети опрошенных сотрудников признают, что используют чат-боты в своей работе без ведома работодателя. Все это создает существенный риск утечки важной корпоративной информации.

По мнению депутата Госдумы, члена комитета по информполитике Антона Немкина, нивелирование рисков, связанных с динамичным развитием искусственного интеллекта, напрямую зависит от создания доверенных ИИ-систем

«Доверенный искусственный интеллект, прежде всего, основывается на разделяемых в обществе нормах морали и этики, а также соблюдает положения законодательных актов. То есть, с помощью доверенной системы в принципе невозможно получить доступ к противоправному контенту или использовать ИИ в незаконных целях. Система не пропустит такой запрос и попросту заблокирует его. Схожие технологии уже внедряются в отечественные генеративные ИИ. Например, активно блокируются запросы, связанные с использованием нейросетей в мошеннических целях. Но, конечно, тренд на создание доверенных систем должен быть глобальным — в противном случае злоумышленники просто начнут использовать другой ИИ-продукт. Кроме того, вопрос обеспечения информационной безопасности систем также как никогда важен. Уже сейчас на теневых форумах можно встретить взломанные версии чат-ботов, которые открывают преступникам доступ к запрещенному контенту».

По мнению Немкина, в 2025 году скорее стоит ожидать роста ИТ-преступлений, связанных с использованием ИИ. 

«Тренд на это наметился ещё раньше. Помимо этого, растет число мошеннических атак, связанных с использованием ИИ. Прежде всего, в части создания фишинговых почтовых рассылок и поддельных лендинговых страниц», — отметил депутат. 

Использование ИИ в преступных целях — один из ключевых вызовов всей отрасли инфобеза. 

«Поэтому разработка новых принципов защиты систем сегодня как никогда важна», — отметил Немкин.

Присылайте свои комментарии к ситуации на digital-рынке (короткие или развёрнутые, во втором случае сделаем вам полноценную колонку в статейной ленте Коссы):

Email: 42@cossa.ru
Телеграм: @cossawer
VK: vk.com/cossa


Телеграм Коссы — здесь самый быстрый диджитал и самые честные обсуждения: @cossaru

📬 Письма Коссы — рассылка о маркетинге и бизнесе в интернете. Раз в неделю, без инфошума: cossa.pulse.is

✉️✨
Письма Коссы — лаконичная рассылка для тех, кто ценит своё время: cossa.pulse.is

Вход на cossa.ru

Уже есть аккаунт?
Авторизуйся через VK:
Vkontakte
Не забудьте написать email на странице своего профиля для управления рассылкой