Интересный инструмент, который взял за основу встроенный, но слабо документированный фильтр безопасности из Stable Diffusion. Его разработчик доработал алгоритм, чтобы тот мог анализировать не только сгенерированные изображения, но и любые другие — загруженные пользователем. По сути, это попытка приспособить внутренний «цензор» нейросети для более широкого применения. Загружаешь картинку, и система пытается определить, является ли её содержание откровенным или неприемлемым для публичной среды. Работает с обычными форматами вроде PNG или JPG. Любопытный пример того, как побочный компонент сложной AI-системы обретает самостоятельную практическую пользу в руках энтузиастов.
Основные возможности:
- Проверка любых картинок на NSFW — работает не только с AI-генерацией, но и с обычными фото или скриншотами.
- Анализ контента для рабочей среды — быстро определяет, можно ли смотреть изображение в офисе или при всех.
- Загрузка файлов прямо в интерфейсе — просто перетащи или выбери файл с компа.
- Поддержка основных форматов — грузи PNG или JPG, главное, чтобы вес был до 50 мегабайт.
- Локальная обработка данных — картинка анализируется у тебя в браузере, не улетая на сервер.
- Простая интеграция для разработчиков — можно встроить в свой проект, если разбираешься в коде.








