Авторские курсы Михаила Тарасова

0
0 отзывов

Электронная книга: «Хакинг с помощью искусственного интеллекта»: Полностью переработанное издание

В 2024 году вы читали первую версию. В 2025 году правила игры изменились полностью. Что произошло за год? Пока вы изучали базовый ... Показать больше
Преподаватель
Mikhail Tarasov
70 Студенты Зачислен
  • Описание
  • Учебная программа
  • Отзывы

В 2024 году вы читали первую версию. В 2025 году правила игры изменились полностью.
Что произошло за год?
Пока вы изучали базовый deepfake и adversarial attacks, мир ушёл вперёд:
 • Автономные AI-агенты теперь самостоятельно ищут уязвимости
 • Prompt injection стала новой SQL Injection — только опаснее
 • Real-time voice cloning используется для кражи миллионов (реальные кейсы 2024)
 • RAG-системы и multimodal AI открыли attack surface, о которых раньше никто не думал

 
Старое издание устарело через 6 месяцев. Новое — это полная перезагрузка.
Edition 2.0 — это не обновление, это другая книга
742 страницы практического контента:
 • 30 глав вместо 16
 • Реальные PoC и код для каждой атаки
 • Кейсы 2024-2025: от взлома через GPT-4 до $25M deepfake-мошенничества
 • Cheat sheet с 50 prompt injection payload’ами

 
Чему вы научитесь?
Атаковать:
 • Ломать GPT-4, Claude, Gemini через jailbreak’и нового поколения
 • Создавать autonomous pentesting agents (GPT + BurpSuite)
 • Красть ML-модели через API за $200
 • Обходить все корпоративные AI-боты и выливать внутренние данные
 • Использовать AI для генерации эксплойтов в реальном времени
Защищать:
 • Строить AI Red Team процессы по методологии 2025
 • Внедрять guardrails и защиту от prompt injection
 • Проводить adversarial training правильно
 • Мониторить аномальные запросы к LLM
Зарабатывать:
 • Bug bounty для AI-систем: что платят OpenAI, Google, Anthropic
 • Как репортить уязвимости в LLM ($10k+ за prompt injection)
 • Легальные способы монетизации AI security навыков

 
Почему это важно именно сейчас?
EU AI Act вступил в силу. GPT-5 на подходе. Автономные агенты уже в production у крупных компаний. Через год эти знания будут стоить в 5 раз дороже — или станут обязательными для выживания в индустрии.

 
Что внутри, чего не было раньше?
 • Часть про autonomous AI agents — как они атакуют и защищаются
 • RAG и multimodal атаки — новый фронт войны
 • Edge AI и IoT — взлом умных домов через on-device ML
 • Supply chain атаки на Hugging Face и MLOps
 • Законы и grey zones — что легально, а за что сядешь
 • AI vs AI warfare — когда нейросеть атакует нейросеть
Кому это нужно?
 • Этичным хакерам, которые хотят быть на передовой
 • Bug bounty охотникам, ищущим новые векторы
 • Pentester’ам, готовым к AI-эре
 • Security инженерам, защищающим корпоративные LLM
 • Всем, кто понимает: AI security — это не будущее, это настоящее

Содержание книги:

 

Введение: Новая эра атак
• Почему всё изменилось: от ChatGPT до автономных агентов
• LLM-безопасность — новый фронт войны (OWASP Top 10 для LLM, prompt injection как main attack vector)
• Цели книги: научить атаковать и защищать AI-системы в реальном мире
• Этика хакинга ИИ: где грань между red team’ингом и criminal activity
• Roadmap: что будет в книге и как её использовать

 

Часть 1: Архитектура современного ИИ — где искать дыры

 

1. Трансформеры, LLM и генеративные модели
• Как работают GPT-4, Claude, Gemini изнутри (токенизация, attention mechanism, temperature)
• Multimodal AI: Vision-Language модели, их уязвимости (adversarial images, prompt leaking через картинки)
• Агенты и RAG-системы: новые attack surface’ы

 

2. Инфраструктура обучения и инференса
• Cloud ML платформы (AWS SageMaker, GCP Vertex AI, Azure ML) — где хранятся модели и данные
• API-шлюзы для моделей: rate limiting, authentication bypass
• Fine-tuning и LoRA: как злоумышленники подгружают свои веса

 

3. Инструментарий атакующего в 2025
• Adversarial ML фреймворки: CleverHans, Foolbox, ART (IBM)
• LLM-эксплойты: Garak, LLM-Fuzzer, PromptInject
• Data poisoning tools: как заразить training dataset
• Model extraction: stealing ML models через API

 

Часть 2: Prompt Hacking — новая SQL Injection

 

4. Анатомия Prompt Injection
• Direct vs Indirect injection (через документы, email, web-страницы)
• System prompt leaking: техники извлечения скрытых инструкций
• Jailbreak’и: DAN, APOPHIS, token smuggling, Unicode spoofing
• Практика: обход фильтров OpenAI, Claude, Gemini в реальном времени

 

5. Multi-turn атаки и context poisoning
• Манипуляция memory в conversational AI
• Session hijacking через инъекции в историю чата
• Атаки на RAG: как подсунуть модели ложные данные через retrieval

 

6. Автоматизация prompt fuzzing
• Генерация тысяч payload’ов через LLM (GPT против GPT)
• Bypassing модераторов контента
• Эксфильтрация данных через скрытые каналы (steganography в ответах)

 

Часть 3: Adversarial Machine Learning

 

7. Атаки на Computer Vision
• Adversarial patches: как обмануть распознавание лиц и объектов
• Backdoor attacks в детекторах (YOLO, ResNet)
• Real-world кейсы: обход систем безопасности на камерах

 

8. Отравление данных (Data Poisoning)
• Manipulation training datasets для создания backdoor’ов
• Label flipping в публичных наборах данных (ImageNet, COCO)
• Federated Learning атаки: как один участник может сломать всю модель

 

9. Model Inversion и Membership Inference
• Извлечение чувствительных данных из обученных моделей
• Определение, был ли конкретный человек в training set
• Практика: атаки на facial recognition системы

 

Часть 4: Социальная инженерия на стероидах

 

10. Deepfake 2.0: голос, видео, текст
• Real-time voice cloning (ElevenLabs, играй-голосом)
• Video deepfake’и в Zoom/Teams: имперсонация в реальном времени
• Кейс: как украсть $25M через deepfake CEO (реальный случай 2024)

 

11. Автоматизированный spear-phishing
• LLM-генерация персонализированных писем по LinkedIn/Facebook
• Создание фейковых профилей и ботов для social engineering
• Атаки на helpdesk через AI voice agents

 

12. Манипуляция через AI-чатботы
• Компрометация корпоративных ботов (поддержка, HR-боты)
• Извлечение внутренней информации через prompt injection
• Пример: как слить базу клиентов через чат-поддержку

 

Часть 5: Атаки на ИИ-инфраструктуру

 

13. API Abuse и Rate Limit Bypass
• Brute-force атаки на OpenAI API keys
• Создание бесплатных аккаунтов через automation
• Эксплойты в billing системах (free credits, referral abuse)

 

14. Model Extraction через API
• Stealing models через query-based attacks
• Обратная разработка логики модели (температура, токенизация)
• Практика: как украсть GPT-like модель за $200

 

15. Supply Chain атаки на ML
• Backdoor’ы в Hugging Face моделях
• Зловредные Python пакеты (pip install malware)
• Компрометация через MLOps pipeline (Jenkins, Airflow)

 

Часть 6: IoT и Edge AI — новый playground

 

16. Атаки на Edge AI устройства
• Взлом умных камер с on-device ML (Ring, Nest)
• Reverse engineering моделей из firmware
• Side-channel атаки для извлечения моделей из чипов

 

17. Автономные системы и дроны
• Adversarial атаки на self-driving cars (Tesla Autopilot bypass)
• Spoofing сенсоров LiDAR/камер через adversarial projections
• Дроны с AI: как их перехватить или обмануть

 

18. Smart Home экосистемы
• Атаки на Alexa/Google Home через voice injection
• Эксплуатация уязвимостей в локальных LLM (Home Assistant, Apple Intelligence)
• Сценарий: полный захват умного дома через один вектор

 

Часть 7: Защита — Red Team для ИИ


19. AI Red Teaming Methodology
• Как строить процесс тестирования AI-систем
• Автоматизация adversarial testing (Garak, PyRIT от Microsoft)
• Continuous monitoring: детекция аномальных запросов

 

20. Hardening LLM Applications
• Защита от prompt injection: input validation, output sanitization
• Использование guardrails (NeMo Guardrails, Llama Guard)
• Sandboxing и изоляция AI-агентов

 

21. Adversarial Training и Defensive Distillation
• Обучение моделей на adversarial примерах
• Certified defenses: гарантии робастности
• Практика: как улучшить robustness своей модели

 

Часть 8: Offensive AI Tooling


22. Создание AI-ботов для автоматизации атак

 

• Autonomous pentesting agents (GPT-4 + BurpSuite integration)
• AI для анализа сетевого трафика и поиска 0-day
• Код: PoC автономного бота для web app pentesting

 

23. AI для password cracking
• PassGAN и другие GAN-based генераторы паролей
• Предсказание паролей через ML на утекших базах
• Оптимизация brute-force через reinforcement learning

 

24. Автогенерация эксплойтов
• LLM для написания shellcode и payloads
• Fuzzing с AI (LibFuzzer + ML mutators)
• Кейс: как GPT-4 может найти RCE в 5 минут

 

Часть 9: Законы, этика и grey zones

 

25. Правовые рамки AI security
• EU AI Act, GDPR и их влияние на хакинг
• Ответственность за AI-генерированный контент
• Что легально, а что — уголовка (границы ethical hacking)

 

26. Bug Bounty для AI систем
• Программы от OpenAI, Google, Anthropic
• Как репортить уязвимости в LLM
• Деньги: сколько платят за prompt injection (спойлер: $10k+)

 

27. Будущее регулирования
• Licensing для powerful models (GPT-5+)
• Международные стандарты (ISO для AI security)
• Как государства используют AI для наступательных операций

 

Часть 10: Тренды 2025+ и что дальше

 

28. Autonomous AI agents в wild
• AutoGPT, BabyAGI: когда ИИ сам ищет уязвимости
• AI-driven APT: новый уровень targeted attacks
• Сценарий: AI vs AI warfare в кибербезопасности

 

29. Квантовые вычисления и AI
• Как квант изменит ML security (взлом шифрования, новые атаки)
• Post-quantum ML: защита моделей в квантовой эре
30. Мета-атаки: AI для обхода AI-защит

 

• Reinforcement learning для автоматического поиска jailbreak’ов
• GAN’ы для генерации adversarial examples в реальном времени
• Финальный PoC: полностью автономная AI red team система

 

Заключение: Mantra хакера ИИ


• Что изменилось: от статичных моделей к живым агентам
• Главный вывод: каждая AI-система — это новая attack surface
• Призыв: учись, ломай, защищай, но не переходи на dark side
• Hacker mindset: curiosity + responsibility = будущее безопасности
• Что дальше: roadmap для обучения (ресурсы, сообщества, CTF для AI)

 

Приложения


• A. Список инструментов (Garak, ART, CleverHans, PyRIT, LLM-Fuzzer)
• B. Cheat sheet по prompt injection (топ-50 payload’ов)
• C. Ресурсы для обучения (курсы, CTF, bug bounty платформы)
• D. Глоссарий терминов (от Adversarial Example до Zero-shot Jailbreak)