
Помимо динамической генерации кода, Google фиксирует массовые попытки «клонирования» своих моделей. Хакеры атакуют ИИ с помощью техники дистилляции: они отправляют Gemini тысячи структурированных запросов, чтобы понять внутреннюю логику и шаблоны ответов. Собрав достаточно данных, злоумышленники могут обучить свою собственную модель, которая будет вести себя как разработка Google, но без гигантских затрат на вычислительные мощности и исследования. В компании заявили, что пресекли несколько таких кампаний, направленных на кражу «ноу-хау» у Gemini.
Особое беспокойство вызывает интерес к агентному ИИ. Эксперты предупреждают, что киберпреступники присматриваются к системам, способным выполнять многоступенчатые задачи без участия человека. Теоретически это позволит создать угрозу, которая будет самостоятельно принимать решения: выбирать цели, подбирать инструменты взлома и заметать следы.

Наблюдаемая тенденция заставляет задуматься о том, что уже в обозримом будущем мы столкнёмся с совершенно иным ландшафтом угроз. Вслед за простыми вызовами кода придут по-настоящему автономные агенты: заразив систему, вирус сможет самостоятельно оценивать окружение, выбирать цели и тактику, обращаясь к ИИ за советом на каждом этапе.
Как вам кажется, в ближайшем будущем нам стоит опасаться «думающих» вирусов или это очередной виток хайпа вокруг ИИ в кибербезопасности? Поделитесь мнением в комментариях.
👀 Разрабы Clair Obscur: Expedition 33 стали рыцарями
-1
Поделиться:
НовостиЖелезо и технологиихакерыВзломы и мошенничествоGoogleискусственный интеллект
Об авторе

Хакеры взломали Instagram*: в сеть попала информация о 17,5 млн аккаунтов

Данные, украденные сегодня, взломают «завтра». Google предупреждает об «отложенном» квантовом апокалипсисе

Хакеры полгода взламывали организации через обновления Notepad++

Не только взломы: исследователи нашли новую уязвимость в поведении ИИ

Слух: хакеры похитили из Ubisoft до 900 ГБ внутренних данных и шантажируют компанию
По материалам: vgtimes.ru











