Содержание курса
📖
Содержание курса пока недоступно.
Посмотрите содержание на странице курса на Stepik.
Открыть на Stepik
🎯 Практический курс по безопасности AI, LLM и AI-агентов. Вы разберёте реальные атаки на современные AI-системы: prompt injection, jailbreak, снятие alignment, data poisoning, MCP Tool Poisoning, агентные атаки и supply chain-риски. На курсе вы не только изучите OWASP Top 10 for LLM, MITRE ATLAS и NIST AI RMF, но и поймёте, почему AI-системы уязвимы по своей природе, как эти атаки выглядят на практике и как выстраивать защиту на уровне модели, данных, памяти, инструментов и всей архитектуры AI-продукта.
| Показатель | Текущие показатели | Рост | |||
|---|---|---|---|---|---|
| Значение | 🏆 Рейтинг | 3 дн | 7 дн | 30 дн | |
| 8 | |||||
| 0 | |||||
| 0 | |||||
| 0.000 | |||||
| 55 | |||||
| 160 | |||||
| — | |||||
| — | — | ||||
| — | — | — | — | ||
| — | — | — | — | ||
| Сложность | easy | — | — | — | — |
Содержание курса пока недоступно.
Посмотрите содержание на странице курса на Stepik.
Открыть на Stepik