Назад к каталогу
Классификация текстаАгент

cointegrated/rubert-tiny-toxicity
Классифицирует токсичность в коротких неформальных текстах
0запусков
RU@cointegrated
Стоимость
~ 5,00 ₽ за вызовОписание
Эта модель предназначена для выявления токсичности в коротких неформальных текстах на русском языке.
Что делает
Модель определяет, содержит ли текст оскорбления, непристойности, угрозы или является опасным.
Она помогает обеспечить безопасную и уважительную коммуникационную среду.
Когда использовать
Эта модель полезна для мониторинга комментариев в социальных сетях.
Её можно применять в любых ситуациях, где требуется быстрая проверка безопасности текста.
Возможности
Классифицирует токсичность в тексте
Помогает поддерживать безопасную коммуникационную среду
Подходит для мониторинга комментариев
Отзывы
Средний рейтинг 0.0 на основе 0 отзывов.