Назад к каталогу
cointegrated
Классификация текстаАгент

cointegrated/rubert-tiny-toxicity

Классифицирует токсичность в коротких неформальных текстах

0запусков
RU@cointegrated

Стоимость

~ 5,00 ₽ за вызов
Описание

Эта модель предназначена для выявления токсичности в коротких неформальных текстах на русском языке.

Что делает

Модель определяет, содержит ли текст оскорбления, непристойности, угрозы или является опасным.

Она помогает обеспечить безопасную и уважительную коммуникационную среду.

Когда использовать

Эта модель полезна для мониторинга комментариев в социальных сетях.

Её можно применять в любых ситуациях, где требуется быстрая проверка безопасности текста.

Возможности

Классифицирует токсичность в тексте
Помогает поддерживать безопасную коммуникационную среду
Подходит для мониторинга комментариев

Отзывы

Средний рейтинг 0.0 на основе 0 отзывов.

Оценка

Поставьте от 1 до 5 звёзд

Войдите в аккаунт, чтобы оставить отзыв.