Udemy [udemy] [Start-Tech Academy] Тестирование на проникновение моделей GenAI LLM: защита больших языковых моделей (2025)

Moderator
Команда форума
29 Мар 2020
309,454
1,766,523
113
Голосов: 0
#1
[udemy] [Start-Tech Academy] Тестирование на проникновение моделей GenAI LLM: защита больших языковых моделей (2025)


Описание [udemy] [Start-Tech Academy] Тестирование на проникновение моделей GenAI LLM: защита больших языковых моделей (2025):



Чему вы научитесь:

  • Осознавать специфические уязвимости больших языковых моделей (LLM) в реальных условиях.
  • Ознакомиться с основными принципами тестирования на проникновение и их применением в системах генеративного искусственного интеллекта.
  • Освоить процесс Red Teaming для LLM, применяя практические методы и моделирование реальных атак.
  • Оценить, почему традиционные тесты не обеспечивают достаточный уровень безопасности для GenAI, и изучить более эффективные подходы к оценке.
  • Изучить ключевые уязвимости, такие как инъекция кода, галлюцинации, предвзятость в ответах и другие.
  • Использовать фреймворк MITRE ATT&CK для создания тактики противодействия угрозам, направленным против LLM.
  • Выявлять и устранять угрозы, характерные для определённых моделей, включая чрезмерное автономию, кражу моделей и небезопасную обработку данных.
  • Проводить и оформлять отчёты по результатам эксплуатации приложений на основе LLM.
Учебная программа курса

9 разделов • 53 лекции • Общая продолжительность 3 часа 21 минута

  1. Введение
  2. Основы безопасности и тестирования на проникновение для LLM
  3. Обзор уязвимостей в LLM
  4. Принципы тестирования на проникновение и Red Teaming
  5. Применение Red Teaming для LLM
  6. Стратегии отчётности и смягчения последствий
  7. Применение фреймворка MITRE ATT&CK в обучении
  8. Анализ уязвимостей приложений LLM
  9. Заключение
Описание:

Курс Red Teaming & Penetration Testing for LLMs представляет собой тщательно разработанную программу для специалистов по кибербезопасности, разработчиков ИИ и этических хакеров, заинтересованных в защите генеративных приложений искусственного интеллекта. От базовых принципов безопасности LLM до передовых методов Red Teaming, курс предоставляет необходимые знания и практические навыки для обеспечения безопасности систем LLM.

В ходе обучения вы будете выполнять практические задания и моделировать атаки, включая демонстрацию быстрого внедрения, утечки конфиденциальной информации, обработки галлюцинаций, отказа в обслуживании модели и небезопасного поведения плагинов. Вы также освоите использование инструментов, процессов и фреймворков, таких как MITRE ATT&CK, для структурированной оценки рисков приложений ИИ.

По завершении курса вы сможете выявлять уязвимости в программах LLM и разрабатывать стратегии смягчения последствий и отчётности, соответствующие отраслевым стандартам.

Подробнее:


Для просмотра содержимого вам необходимо авторизоваться

Скачать курс [udemy] [Start-Tech Academy] Тестирование на проникновение моделей GenAI LLM: защита больших языковых моделей (2025):


Для просмотра содержимого вам необходимо авторизоваться
 
Последнее редактирование модератором: