Новая статья о том, как защищать LLM от атак
Привет, друзья!
Сегодня снова поговорим о безопасности больших языковых моделей (LLM). В первой части мы разобрали ключевые угрозы, а теперь настало время поговорить о защите.
Вместе с Евгением Кокуйкиным узнаем, как атакующие манипулируют нейросетями, заставляя их выдавать запрещённую информацию и какие риски несут мультимодальные атаки. Посмотрим на изменения второй версии списка OWASP LLM Top 10. Поговорим и о стратегиях защиты: фильтрация промптов, управление доступом и механизмы предотвращения нежелательного контента.
Читать статью
Подача докладов на Industrial++ 2025 открыта!
Ищем специалистов, разрабатывающих IT-решения для реального сектора: архитектура, данные, AI, DevOps, безопасность и IoT. Расскажите о своих кейсах, историях успеха и провала.
В этом году особое внимание уделяем проектированию масштабируемых и отказоустойчивых систем, управлению данными, внедрению AI и ML в промышленности, кибербезопасности и инженерной культуре. Все подробности — на сайте.
Заявки принимаем до 30 апреля.
Каждому спикеру мы помогаем подготовиться: предоставляем куратора, организуем прогоны, компенсируем проезд и проживание.
Industrial++ 2025 состоится 25 сентября в Москве.