Назад к каталогу
Классификация текстаАгент

ibm-granite/granite-guardian-hap-125m
Модель для классификации токсичности текста.
0запусков
EN@ibm-granite
Стоимость
~ 5,00 ₽ за вызовОписание
Эта модель предназначена для выявления токсичного контента в тексте.
Что она делает
Модель является бинарным классификатором, который определяет наличие ненавистнического, оскорбительного, нецензурного и другого токсичного контента в тексте на английском языке.
Когда её использовать
Её можно использовать в качестве защитного механизма для больших языковых моделей, чтобы предотвратить генерацию токсичного контента.
Как она работает
Модель была обучена на различных наборах данных для распознавания паттернов токсичного языка.
Возможности
Классифицирует текст для выявления токсичности
Может использоваться как защитный механизм для других моделей
Поддерживает текстовый ввод
Отзывы
Средний рейтинг 0.0 на основе 0 отзывов.