У нас вы можете посмотреть бесплатно Как искусственный интеллект предоставляет хакерам универсальный ключ или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
Искусственный интеллект достиг такого уровня развития, что начинает использоваться государствами в кибератаках. Фактически, Google сообщает, что генеративный ИИ используется государственными хакерами в Китае, России и Иране на всех этапах атаки. Это ещё больше смещает баланс между атакой и защитой в пользу злоумышленников, делая широкомасштабные кибератаки более вероятными. Как ни парадоксально, ИИ также создаёт уязвимости, ускоряя при этом рабочие процессы разработчиков. Он особенно расширяет поверхность атаки, когда разработчики используют агентные фреймворки, такие как OpenClaw. Хотя может показаться, что ИИ способен находить уязвимости, всё ещё требуется время для развертывания исправленного кода в реальных условиях. Существуют также дополнительные серьёзные векторы угроз, такие как попытки государств украсть веса моделей друг у друга. Даже модель, пытающаяся избежать человеческого контроля, может в будущем использовать кибербезопасность в качестве фактора атаки. #кибер #ИИ #государства Пресечение первой зарегистрированной кампании кибершпионажа, организованной с помощью ИИ https://www.anthropic.com/news/disrup... Оценка и смягчение растущего риска обнаружения уязвимостей нулевого дня с помощью LLM https://red.anthropic.com/2026/zero-d... Google сообщает об использовании поддерживаемых государством хакеров Gemini AI для разведки и поддержки атак https://thehackernews.com/2026/02/goo... GTIG AI Threat Tracker: Достижения в использовании инструментов ИИ злоумышленниками https://cloud.google.com/blog/topics/... GTIG AI Threat Tracker: Дистилляция, экспериментирование и (продолжение) интеграция ИИ для противодействия угрозам https://cloud.google.com/blog/topics/... Ошибка Oracle оставила DeFi-кредитору Moonwell с безнадежным долгом в 1,8 миллиона долларов https://finance.yahoo.com/news/oracle... OpenAI нанимает создателя OpenClaw Питера Штайнбергера и создает фонд https://www.forbes.com/sites/ronschme... 0:00 Вступление 0:31 Содержание 0:41 Часть 1: Как ИИ автоматизирует кибератаки 0:52 Атака кибершпионажа Anthropic 1:48 Как Anthropic обнаружил эту атаку 2:17 Сообщество кибербезопасности было удивлено 2:40 Google описывает использование ИИ государством 3:23 Модели все еще можно взломать 3:56 ИИ нарушает баланс нападения/защиты 4:22 Без ИИ: атаковать проще, но дорого 5:16 С ИИ: у злоумышленника еще большее преимущество 6:10 Последствия увеличения возможностей атаки 6:59 Часть 2: Как ИИ создает уязвимости 7:10 В коде Vibe есть недостатки безопасности 7:40 Пример: криптокомпания потеряла 1,8 миллиона долларов 8:32 Почему безопасность кода Клода не всегда помогает 8:57 Как ИИ расширяет поверхности атаки (OpenClaw) 9:12 Как работает OpenClaw 9:56 Проблемы безопасности с OpenClaw 10:41 OpenClaw вредоносный плагины 11:40 ИИ — ненадежная граница безопасности 12:28 Часть 3: Эксплуатация небезопасного мира 12:47 Злоумышленник всегда будет нацеливаться на самое слабое место 13:21 Не все ошибки являются уязвимостями 13:48 Для чего злоумышленник будет использовать ИИ 14:31 Разве мы не могли бы использовать ИИ для поиска всех ошибок? 15:31 Государства хотят совершать кибератаки 15:53 Пример: Colonial Pipeline и т. д. 16:28 Государства будут пытаться украсть веса моделей 17:10 Кража весов моделей — это как кража криптовалюты 17:34 Потеря контроля из-за кибербезопасности 18:02 Пример: потеря контроля из-за подцели 18:54 Заключение 19:27 ИИ даже создает новые уязвимости 19:54 Опасно для критической инфраструктуры 20:29 Заключение