Новая статья о том, как защищать LLM от атак

Привет, друзья!

Сегодня снова поговорим о безопасности больших языковых моделей (LLM). В первой части мы разобрали ключевые угрозы, а теперь настало время поговорить о защите.

Вместе с Евгением Кокуйкиным узнаем, как атакующие манипулируют нейросетями, заставляя их выдавать запрещённую информацию и какие риски несут мультимодальные атаки. Посмотрим на изменения второй версии списка OWASP LLM Top 10. Поговорим и о стратегиях защиты: фильтрация промптов, управление доступом и механизмы предотвращения нежелательного контента.

Читать статью


Подача докладов на Industrial++ 2025 открыта!

Ищем специалистов, разрабатывающих IT-решения для реального сектора: архитектура, данные, AI, DevOps, безопасность и IoT. Расскажите о своих кейсах, историях успеха и провала.

Industrial++ 2025

В этом году особое внимание уделяем проектированию масштабируемых и отказоустойчивых систем, управлению данными, внедрению AI и ML в промышленности, кибербезопасности и инженерной культуре. Все подробности — на сайте.

Заявки принимаем до 30 апреля.

Каждому спикеру мы помогаем подготовиться: предоставляем куратора, организуем прогоны, компенсируем проезд и проживание. 

Industrial++ 2025 состоится 25 сентября в Москве.

Подать доклад