La API de Recuperación de Contenido Ofensivo está diseñada para identificar, analizar y censurar el lenguaje ofensivo o inapropiado dentro de los textos. Su principal propósito es garantizar entornos digitales más seguros, respetuosos y apropiados para todos los tipos de audiencias, especialmente en plataformas donde los usuarios generan contenido, como redes sociales, foros, chats, videojuegos o aplicaciones educativas
Esta API funciona realizando un análisis semántico y contextual del texto. Cuando se envía una cadena de contenido, el sistema la examina palabra por palabra, detectando coincidencias con una base de datos actualizada de expresiones ofensivas en diferentes idiomas y variaciones ortográficas. El resultado incluye información detallada, como el número total de palabras inapropiadas encontradas, su posición exacta dentro del texto, cualquier desviación ortográfica y el nivel de gravedad de cada término
Además del análisis, la API ofrece una funcionalidad de censura automática al generar un campo llamado censored_content, que reemplaza las palabras detectadas con símbolos (por ejemplo, "****"). Esto permite a los desarrolladores integrar fácilmente la versión filtrada del texto sin interrumpir el flujo de comunicación o exponer contenido sensible
Otra ventaja es la personalización: es posible adaptar el nivel de sensibilidad de acuerdo con el contexto o la audiencia objetivo, ampliando o reduciendo la lista de palabras censuradas. También puede integrarse con sistemas de moderación automática, paneles de administración o inteligencia artificial para el aprendizaje seguro del lenguaje
En resumen, esta API no solo actúa como un filtro de groserías, sino como un sistema completo de moderación lingüística. Su implementación contribuye a mejorar la convivencia digital, reducir el acoso en línea y proteger la reputación de las plataformas que la utilizan, ofreciendo un equilibrio entre la libertad de expresión y la comunicación respetuosa
{"content": "shit", "bad_words_total": 1, "bad_words_list": [{"original": "shit", "word": "shit", "deviations": 0, "info": 2, "start": 0, "end": 4, "replacedLen": 4}], "censored_content": "****"}
curl --location --request POST 'https://zylalabs.com/api/11023/retrieve+offensive+content+api/20768/censure' --header 'Authorization: Bearer YOUR_API_KEY'
--data-raw 'shit'
| Encabezado | Descripción |
|---|---|
Autorización
|
[Requerido] Debería ser Bearer access_key. Consulta "Tu Clave de Acceso a la API" arriba cuando estés suscrito. |
Sin compromiso a largo plazo. Mejora, reduce o cancela en cualquier momento. La Prueba Gratuita incluye hasta 50 solicitudes.
The Censure endpoint returns a JSON object containing the original content, the total number of offensive words detected, a list of those words with their details, and a censored version of the content. This allows developers to understand the extent of inappropriate language and provide a filtered output.
Los campos clave en la respuesta incluyen `content` (texto original) `bad_words_total` (conteo de palabras ofensivas) `bad_words_list` (detalles de cada palabra detectada) y `censored_content` (texto con palabras ofensivas reemplazadas) Estos campos proporcionan información completa para la moderación
Los datos de respuesta están estructurados como un objeto JSON Incluye un objeto principal con campos para el contenido original el total de palabras inapropiadas una lista de palabras detectadas con detalles y la versión censurada Esta organización facilita un fácil análisis e integración en aplicaciones
El endpoint de Censura acepta parámetros como el texto a analizar y configuraciones opcionales para los niveles de sensibilidad Los usuarios pueden personalizar sus solicitudes especificando el contexto o la audiencia para ajustar los criterios de filtrado según sus necesidades
Los usuarios pueden utilizar los datos devueltos al analizar la `bad_words_list` para entender qué términos fueron marcados y su gravedad. El `censored_content` se puede utilizar directamente para mostrar texto filtrado asegurando una comunicación respetuosa mientras se mantiene el contexto
Los casos de uso típicos incluyen moderar contenido generado por usuarios en redes sociales, foros y aplicaciones de chat, así como garantizar un lenguaje apropiado en herramientas educativas y videojuegos. Ayuda a mantener un ambiente respetuoso en diversas plataformas
La precisión de los datos se mantiene a través de actualizaciones continuas a la base de datos de palabras ofensivas, que incluye varios idiomas y variaciones de ortografía. Las revisiones regulares y la retroalimentación de la comunidad ayudan a garantizar que la lista siga siendo relevante y efectiva en la detección de lenguaje inapropiado
Los patrones de datos estándar incluyen una clara identificación de palabras ofensivas, sus posiciones dentro del texto y los niveles de severidad asignados a cada término Los usuarios pueden esperar un formato consistente en la respuesta, lo que facilita la integración y el análisis de los resultados
Nivel de Servicio:
100%
Tiempo de Respuesta:
267ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
179ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
348ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
472ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
168ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
367ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
461ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
253ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
67ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
52ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
477ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
689ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
349ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
519ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
2.147ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
127ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
388ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
250ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
778ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
393ms