Голосов: 0
#1
Описание [udemy] [Start-Tech Academy] Тестирование на проникновение моделей GenAI LLM: защита больших языковых моделей (2025):
Чему вы научитесь:
- Осознавать специфические уязвимости больших языковых моделей (LLM) в реальных условиях.
- Ознакомиться с основными принципами тестирования на проникновение и их применением в системах генеративного искусственного интеллекта.
- Освоить процесс Red Teaming для LLM, применяя практические методы и моделирование реальных атак.
- Оценить, почему традиционные тесты не обеспечивают достаточный уровень безопасности для GenAI, и изучить более эффективные подходы к оценке.
- Изучить ключевые уязвимости, такие как инъекция кода, галлюцинации, предвзятость в ответах и другие.
- Использовать фреймворк MITRE ATT&CK для создания тактики противодействия угрозам, направленным против LLM.
- Выявлять и устранять угрозы, характерные для определённых моделей, включая чрезмерное автономию, кражу моделей и небезопасную обработку данных.
- Проводить и оформлять отчёты по результатам эксплуатации приложений на основе LLM.
9 разделов • 53 лекции • Общая продолжительность 3 часа 21 минута
- Введение
- Основы безопасности и тестирования на проникновение для LLM
- Обзор уязвимостей в LLM
- Принципы тестирования на проникновение и Red Teaming
- Применение Red Teaming для LLM
- Стратегии отчётности и смягчения последствий
- Применение фреймворка MITRE ATT&CK в обучении
- Анализ уязвимостей приложений LLM
- Заключение
Курс Red Teaming & Penetration Testing for LLMs представляет собой тщательно разработанную программу для специалистов по кибербезопасности, разработчиков ИИ и этических хакеров, заинтересованных в защите генеративных приложений искусственного интеллекта. От базовых принципов безопасности LLM до передовых методов Red Teaming, курс предоставляет необходимые знания и практические навыки для обеспечения безопасности систем LLM.
В ходе обучения вы будете выполнять практические задания и моделировать атаки, включая демонстрацию быстрого внедрения, утечки конфиденциальной информации, обработки галлюцинаций, отказа в обслуживании модели и небезопасного поведения плагинов. Вы также освоите использование инструментов, процессов и фреймворков, таких как MITRE ATT&CK, для структурированной оценки рисков приложений ИИ.
По завершении курса вы сможете выявлять уязвимости в программах LLM и разрабатывать стратегии смягчения последствий и отчётности, соответствующие отраслевым стандартам.
Подробнее:
Для просмотра содержимого вам необходимо авторизоваться
Скачать курс [udemy] [Start-Tech Academy] Тестирование на проникновение моделей GenAI LLM: защита больших языковых моделей (2025):
Для просмотра содержимого вам необходимо авторизоваться
Последнее редактирование модератором: