La API de Detección de Manos introduce un avance notable en el análisis de imágenes. Diseñada para descifrar las sutilezas de las manos humanas, esta API es capaz de transformar una imagen de entrada en un lienzo de gestos y movimiento. Aprovechando técnicas avanzadas de procesamiento de imágenes, detecta con precisión las manos dentro de la imagen, independientemente de su orientación o posición.
Tras el análisis, la API proporciona una salida integral que incluye tanto el marco de coordenadas como detalles intrincados de la estructura esquelética de la mano. Con una precisión notable, extrae 21 coordenadas de nodos óseos para cada mano, mapeando intrincadamente la articulación y las posiciones de cada articulación del dedo. Esta información detallada desbloquea una riqueza de posibilidades, desde el reconocimiento de gestos hasta interacciones virtuales inmersivas.
La API de Detección de Manos encuentra diversas aplicaciones en diferentes industrias. En la realidad aumentada y virtual, puede habilitar interacciones cautivadoras, donde los movimientos de las manos de los usuarios se traducen en experiencias digitales dinámicas. En robótica, la API puede facilitar la colaboración humano-robot al comprender gestos y comandos. Además, la API puede integrarse en aplicaciones destinadas a mejorar la interpretación de lenguaje de señas, diagnósticos de salud e incluso experiencias de juego.
Los desarrolladores pueden integrar fácilmente la API de Detección de Manos siguiendo la documentación completa. La API ofrece puntos finales, formatos de solicitud y respuesta, y ejemplos de código en varios lenguajes de programación, lo que hace que el proceso de integración sea intuitivo y eficiente.
A medida que la tecnología continúa cerrando la brecha entre los mundos digital y físico, la API de Detección de Manos se erige como un testimonio de esta evolución. Al decodificar el lenguaje de las manos, allana el camino hacia nuevas dimensiones de interactividad y comunicación, donde las imágenes y el movimiento se entrelazan para crear una experiencia más inmersiva y envolvente.
Pasa la imagen y recibe un análisis de la mano.
Interacción Basada en Gestos en AR/VR:
La API de Detección de Manos puede potenciar interacciones basadas en gestos en entornos de realidad aumentada y virtual. Los usuarios pueden controlar elementos digitales, navegar por interfaces y manipular objetos a través de gestos naturales de las manos, mejorando la experiencia inmersiva.
Colaboración Humano-Robot:
Las aplicaciones de robótica pueden utilizar la API para habilitar la colaboración humano-robot. Los robots equipados con cámaras pueden interpretar gestos manuales humanos, lo que permite una comunicación y control intuitivos en industrias como la fabricación, la salud y la logística.
Interpretación de Lenguaje de Señas:
La API puede ser empleada para desarrollar aplicaciones que faciliten la interpretación en tiempo real del lenguaje de señas. Al detectar con precisión los movimientos de las manos y las posiciones de los dedos, la API mejora la comunicación para la comunidad con discapacidad auditiva.
Juegos y Entretenimiento Interactivo:
Las experiencias de juego pueden enriquecerse integrando la API. Los jugadores pueden controlar acciones en el juego, personajes y elementos utilizando sus gestos, creando un entorno de juego más dinámico e inmersivo.
Rehabilitación y Diagnósticos en Salud:
En el ámbito de la salud, la API puede ayudar en la rehabilitación y diagnósticos. Las aplicaciones de terapia física pueden usar los datos de gestos de las manos para evaluar el progreso de los pacientes y adaptar ejercicios. Además, la API podría ayudar a evaluar condiciones que afectan la movilidad y destreza de las manos.
Aparte del número de llamadas a la API permitidas por plan, no hay otras limitaciones.
{"message":"success","data":{"hand_info":[{"hand_parts":{"4":{"y":204,"x":486,"score":0.81871610879898},"10":{"y":321,"x":454,"score":0.8176451921463},"5":{"y":242,"x":422,"score":0.63888543844223},"11":{"y":359,"x":491,"score":0.79886507987976},"12":{"y":390,"x":523,"score":0.81205052137375},"7":{"y":321,"x":497,"score":0.83726966381073},"18":{"y":343,"x":391,"score":0.81639087200165},"13":{"y":305,"x":380,"score":0.67881566286087},"0":{"y":226,"x":263,"score":0.59736984968185},"8":{"y":353,"x":529,"score":0.8176703453064},"19":{"y":364,"x":422,"score":0.78116250038147},"9":{"y":274,"x":406,"score":0.72501480579376},"15":{"y":369,"x":465,"score":0.86385977268219},"16":{"y":396,"x":497,"score":0.85061377286911},"6":{"y":289,"x":470,"score":0.82305908203125},"3":{"y":194,"x":433,"score":0.7212952375412},"17":{"y":321,"x":353,"score":0.74342161417007},"2":{"y":167,"x":385,"score":0.66624814271927},"14":{"y":343,"x":428,"score":0.8819363117218},"1":{"y":173,"x":327,"score":0.49955746531487},"20":{"y":390,"x":454,"score":0.85869860649109}},"location":{"top":167,"height":229,"score":16.048545837402,"left":263,"width":266}}],"hand_num":1},"code":0}
curl --location --request POST 'https://zylalabs.com/api/2504/hand+detection+api/2485/analyze?imageUrl=https://uploads-ssl.webflow.com/577065f4e06b550b0c190c5c/583bb3ca5b8693a10835b1f3_Sophie%27s%20hand_BEN7244.jpg' --header 'Authorization: Bearer YOUR_API_KEY'
| Encabezado | Descripción |
|---|---|
Autorización
|
[Requerido] Debería ser Bearer access_key. Consulta "Tu Clave de Acceso a la API" arriba cuando estés suscrito. |
Sin compromiso a largo plazo. Mejora, reduce o cancela en cualquier momento. La Prueba Gratuita incluye hasta 50 solicitudes.
La API de Detección de Manos es una herramienta avanzada que utiliza técnicas de análisis de imágenes para identificar y analizar manos humanas dentro de una imagen de entrada. Salida las coordenadas precisas de los nodos óseos de la mano, lo que permite a los desarrolladores capturar y comprender gestos y posiciones de manos intrincados.
La API emplea algoritmos complejos de procesamiento de imágenes para reconocer y aislar las manos dentro de la imagen de entrada. Luego, utiliza técnicas de seguimiento esquelético para determinar con precisión las posiciones de los 21 nodos óseos de la mano, incluidos las articulaciones de los dedos y las articulaciones de la mano.
La API está diseñada para trabajar con imágenes que contienen manos humanas. Es importante que las imágenes de entrada tengan relaciones de aspecto apropiadas y una clara visibilidad de las manos. También se pueden acomodar imágenes con diversas condiciones de iluminación, orientaciones y fondos, pero los resultados pueden variar.
La salida de la API incluye tanto el marco de coordenadas de la mano detectada como información detallada sobre las posiciones de 21 nodos óseos dentro de cada mano. Estos datos permiten a los desarrolladores recrear y analizar los gestos y las posiciones de las manos.
Sí, la API es capaz de detectar múltiples manos dentro de una sola imagen. Puede proporcionar información completa sobre los nodos óseos de cada mano detectada, lo que permite un análisis preciso del gesto de cada mano.
La API de Detección de Manos devuelve información detallada sobre las manos detectadas, incluidas las coordenadas de 21 nodos óseos para cada mano. Estos datos permiten a los desarrolladores analizar con precisión los gestos y movimientos de las manos.
Los campos clave en los datos de respuesta incluyen "hand_info", que contiene un arreglo de manos detectadas, y "hand_parts", que detalla las coordenadas (x, y) y los puntajes de confianza para cada nodo óseo de la mano.
Los datos de respuesta están estructurados en formato JSON, con un "mensaje" de nivel superior que indica éxito y un objeto "data" que contiene "hand_info". Los detalles de cada mano están anidados dentro de este objeto, proporcionando una jerarquía clara para acceder a información específica.
El endpoint Analyze acepta principalmente un archivo de imagen como entrada. Los usuarios pueden personalizar sus solicitudes ajustando la calidad de la imagen, la resolución y el formato para optimizar los resultados de detección.
Los usuarios pueden utilizar los datos devueltos mapeando las coordenadas de los nodos óseos para visualizar gestos de la mano o integrarlos en aplicaciones para el reconocimiento de gestos, juegos o interacciones virtuales.
Los casos de uso típicos incluyen controles basados en gestos en aplicaciones de AR/VR, interpretación de lenguaje de señas y mejora de interacciones de usuario en juegos, donde el seguimiento preciso del movimiento de las manos es esencial.
La precisión de los datos se mantiene a través de algoritmos avanzados de procesamiento de imágenes y técnicas de aprendizaje automático que mejoran continuamente las capacidades de detección de manos en función de conjuntos de datos de entrenamiento diversos.
Si la API devuelve resultados parciales o vacíos, los usuarios deben verificar la calidad de la imagen de entrada y asegurarse de que las manos sean claramente visibles. Implementar el manejo de errores en la aplicación puede ayudar a gestionar tales escenarios de manera adecuada.
Nivel de Servicio:
100%
Tiempo de Respuesta:
259ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
123ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
423ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
238ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
179ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
233ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
114ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
78ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
85ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
151ms