Вы используете мобильную версию

перейти на Полную версию сайта

Запись

[Stepik] LLM Security PRO: Prompt Injection, утечки, tool-abuse (Алексей Малышкин)

Складчина [Stepik] LLM Security PRO: Prompt Injection, утечки, tool-abuse (Алексей Малышкин). Совместные покупки курсов, тренингов, обучения. Присоединяйтесь! Важен каждый вкладчик.

Тема найдена по тегам:
Цена:
12990 руб
Взнос:
566 руб
Организатор:
Евражкa

Список участников складчины:

1. Евражкa
open
2
Записаться
  1. Евражкa
    Евражкa Организатор складчин

    [Stepik] LLM Security PRO: Prompt Injection, утечки, tool-abuse (Алексей Малышкин)

    [​IMG]


    Практический курс по LLM Security. Запустите локальный RAG/агента на реальном LLM (OpenAI API) и укрепите прод: защита от prompt/indirect injection, утечек и tool-abuse, строгий JSON-вывод (Schema/Pydantic), redaction и лимиты стоимости/циклов. Плюс профессиональные блоки: OWASP LLM Top-10, threat modeling, red-team suite и security-gates в CI/CD.
    О курсе
    LLM Security PRO — практический курс о том, как защищать RAG-сервисы и AI-агентов в продакшне. Мы не ограничимся “правильными промптами”: вы построите инженерные контуры, которые удерживают систему в рамках безопасности даже тогда, когда модель внушаема, ошибается или сталкивается с “вредными” документами и запросами.
    Курс построен вокруг локального учебного приложения (RAG + tools + API + UI), которое вы запускаете у себя на компьютере и подключаете к реальному LLM через OpenAI API. Сначала вы увидите типовые провалы (injection, утечки, опасные tool-действия, cost-DoS), затем внедрите контроли: policy-layer, защита RAG-контекста, allowlist/scopes/approvals для инструментов, строгая валидация вывода, redaction и лимиты стоимости. Финал — red-team test suite и security-gates, чтобы регрессы не уезжали в прод.
    Формат: код и шаблоны на GitHub, сервисы поднимать не нужно. API-ключ хранится только локально. В учебных заданиях используются синтетические данные (без ПДн/секретов).
    Для кого курс: Python-разработчики, ML/DE инженеры, тимлиды/архитекторы и специалисты AppSec/DevSecOps, которые внедряют LLM в продукт и хотят делать это безопасно и предсказуемо.
    В курс входят
    • 28 уроков
    • 88 тестов
    • 24 интерактивные задачи

     
    Евражкa, 11 апр 2026 в 11:33
  2. Похожие складчины
    Загрузка...
Наверх