Мероприятия и новости

ИИ-ассистенты под ударом: ошибка в настройке может раскрыть личные данные хакерам

2025-06-11 22:51 Новости
ИИ-ассистенты, призванные облегчать повседневные задачи, становятся новой лазейкой для киберпреступников. Об этом CNews рассказали в компании AppSec Solutions.

Как выяснил директор по продукту «Стингрей» Юрий Шабалин, ИИ-агенты, созданные по популярным видеоинструкциям, могут быть уязвимы — из-за критической ошибки в базовой настройке Telegram-узла в платформе n8n.

«В роликах, которые суммарно посмотрели более 600 тысяч раз, не упоминается об обязательной настройке параметров безопасности. Если их не заполнить, бот начинает отвечать любому, кто ему напишет. Это значит, что злоумышленник может выманить данные у ИИ-ассистента, даже если изначально он создавался для одного пользователя», — пояснил Шабалин.

По словам эксперта, проверить уязвимость несложно: достаточно найти в Telegram открытых агентов по ключевым словам (вроде AIAssistant, PersonalBot) и попробовать отправить им сообщение.

Речь идёт о том, что Telegram Trigger, основной модуль, через который бот взаимодействует с пользователем, требует ручного ограничения доступа: через поля Restrict to Chat IDs и Restrict to User IDs. Без этих ограничений ассистент становится общедоступным.

«Мы сталкиваемся с ситуацией, где пользователи делегируют своим ИИ-ботам доступ к почте, календарям, задачам, а иногда и к конфиденциальным данным. Если бот отвечает кому угодно — это фактически открытая дверь в цифровую жизнь человека», — добавили в AppSec Solutions.

Особую опасность представляют сценарии, где через взлом ассистента злоумышленники получают доступ к электронной почте — а это путь к сбросу паролей и угону аккаунтов в других сервисах.

AppSec Solutions рекомендует тщательно проверять все настройки при создании ИИ-ботов, особенно если используются готовые туториалы из открытых источников. А также — ограничивать доступ по ID, не публиковать ссылку на ассистента в открытых источниках и подключать двухфакторную аутентификацию.

Источник: CNEWS