AbavaNet technical corner
технические проблемы и идеи, родившиеся в бурных водах реки Abava (а равно как и на ее берегах, далеких и близких), выставленные на всеобщее обсуждение
Wednesday, April 24, 2024
ИИ агенты
Open Source AI агент для машинного обучения. Половину участников Kaggle сгенеренные им программы (модели) обгоняют.
А есть вообще агенты для GigaChat или Яндексовской LLM?
Tuesday, April 23, 2024
Monday, April 22, 2024
Sunday, April 21, 2024
Атаки на транспортные модели
Интересный материал - атаки отравления на транспортные модели оценки трафика
См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению
Saturday, April 20, 2024
Friday, April 19, 2024
Thursday, April 18, 2024
Wednesday, April 17, 2024
Tuesday, April 16, 2024
Data Drift - Frouros
Open Source Python библиотека для определения data drift
Код и документация - здесь
Улучшение робастности
Формальная модель и реализация состязвтельных тренировок для NLP моделей
См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению
Monday, April 15, 2024
Sunday, April 14, 2024
Saturday, April 13, 2024
Friday, April 12, 2024
Атаки социальной инженерии
Атаки социальной инженерии (SE) в Интернете являются серьезной киберугрозой. Эти атаки часто служат первым шагом в сложной последовательности атак, которые нацелены, среди прочего, на учетные данные жертв и могут привести к финансовым потерям. В последние годы этой проблеме уделяется все больше внимания: во многих публикациях предлагается защита от атак SE. Несмотря на это, ситуация не улучшилась. В этой статье мы стремимся понять и объяснить это явление, исследуя основную причину проблемы. С этой целью мы рассматриваем атаки и защиту SE через Интернет через уникальную призму, основанную на психологических факторах (PF) и психологических методах (PT). Мы обнаружили, что существует ключевое несоответствие между атаками и защитой: атаки SE намеренно использовали в общей сложности 46 PF и 16 PT, но существующие средства защиты использовали в общей сложности только 16 PF и семь PT. Это несоответствие может объяснить, почему существующие средства защиты добились ограниченного успеха, и побудить нас предложить систематическую дорожную карту для будущих исследований. - интересный обзор
Сетевой атлас
Книга в открытом доступе: Сети в анализе сложных систем. Хороший прикладной материал по теории графов.
Thursday, April 11, 2024
Базовые модели
Термин «базовая модель» введен для описания моделей ML, обученных на широком спектре обобщенных и немаркированных данных и способных выполнять широкий спектр общих задач, таких как понимание языка, генерирование текста и изображений и общение на естественном языке.
Интересный курс от Университета Ватерлоо - CS 886: Recent Advances on Foundation Models
LLM и фишинг
Создание и детектирование фишингового контента с помощью LLM. Хороший обзор.
См. также другие публикации, посвященные LLM
Wednesday, April 10, 2024
Анализ состязательных атак
Souri, Hossein, et al. "Identifying Attack-Specific Signatures in Adversarial Examples." ICASSP 2024-2024 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP). IEEE, 2024. - определение сигнатуры состязательных атак.
См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению
Subscribe to:
Posts (Atom)