NSFW JS — это любопытный пример того, как можно применить машинное обучение прямо в браузере, без отправки данных на сервер. Проект использует предобученную модель TensorFlow.js, которая анализирует изображения и пытается определить наличие неприемлемого для работы (Not Safe For Work) контента. Всё работает локально на твоём устройстве, что с точки зрения приватности — большое преимущество. Точность, конечно, не абсолютная, модель иногда ошибается, путая, скажем, песчаные дюны с чем-то откровенным, но для базовой фильтрации технология выглядит многообещающе. По сути, это демонстрация растущих возможностей веб-технологий, когда сложные нейросетевые вычисления становятся доступными прямо в JavaScript. Проект наглядно показывает, как можно создавать инструменты для модерации, которые уважают приватность пользователей, обрабатывая данные на их стороне.
Основные возможности:
- Определяет небезопасный контент прямо в браузере — всё обрабатывается локально, картинки никуда не уходят, это важно для приватности.
- Распознаёт пять категорий контента — от рисунков и безобидных фото до откровенных и откровенно непристойных материалов.
- Работает на предобученной модели TensorFlow.js — не нужно быть гуру машинного обучения, чтобы встроить это в свой сайт.
- Можно использовать просто как скрипт — подключил библиотеку, и уже можешь проверять изображения через веб-камеру или загрузку файлов.
- Легко интегрируется с популярными фреймворками — типа React или Vue, для тех, кто делает современные веб-приложения.
- Позволяет кастомизировать порог чувствительности — сам решаешь, какой результат считать «опасным», подстраиваешь под свои нужды.
- Берёт модель MobileNet за основу — она хоть и точная, но достаточно лёгкая, чтобы не тормозить в браузере пользователя.








