Científicos de la Universidad Tecnológica de Nanyang, Singapur NTU Singapur han desarrollado un sistema de Inteligencia Artificial AI que reconoce los gestos de las manos al combinar la electrónica similar a la piel con la visión por computadora.
El reconocimiento de los gestos de las manos humanas por los sistemas de inteligencia artificial ha sido un desarrollo valioso durante la última década y se ha adoptado en robots quirúrgicos de alta precisión, equipos de control de la salud y en sistemas de juegos.
Los sistemas de reconocimiento de gestos de IA que inicialmente eran solo visuales se han mejorado al integrar entradas de sensores portátiles, un enfoque conocido como 'fusión de datos'. Los sensores portátiles recrean la capacidad de detección de la piel, una de las cuales se conoce como 'somatosensorial'.
Sin embargo, la precisión del reconocimiento de gestos aún se ve obstaculizada por la baja calidad de los datos que llegan de los sensores portátiles, generalmente debido a su volumen y al mal contacto con el usuario, y a los efectos de los objetos visualmente bloqueados y la falta de iluminación. Otros desafíos surgen de la integraciónde datos visuales y sensoriales, ya que representan conjuntos de datos no coincidentes que deben procesarse por separado y luego fusionarse al final, lo que es ineficiente y conduce a tiempos de respuesta más lentos.
Para abordar estos desafíos, el equipo de NTU creó un sistema de fusión de datos 'bioinspirado' que utiliza sensores de tensión estirables similares a la piel hechos de nanotubos de carbono de pared simple, y un enfoque de inteligencia artificial que se asemeja a la forma en que se manejan los sentidos y la visión de la pieljuntos en el cerebro.
Los científicos de NTU desarrollaron su sistema de IA bioinspirado combinando tres enfoques de redes neuronales en un sistema: utilizaron una 'red neuronal convolucional', que es un método de aprendizaje automático para el procesamiento visual temprano, una red neuronal multicapa para la información somatosensorial tempranaprocesamiento y una 'red neuronal dispersa' para 'fusionar' la información visual y somatosensorial.
El resultado es un sistema que puede reconocer los gestos humanos con mayor precisión y eficiencia que los métodos existentes.
El autor principal del estudio, el profesor Chen Xiaodong, de la Escuela de Ciencia e Ingeniería de Materiales en NTU, dijo: "Nuestra arquitectura de fusión de datos tiene sus propias características bioinspiradas únicas que incluyen un sistema creado por humanos que se asemeja a la jerarquía de fusión somatosensorial-visualen el cerebro. Creemos que estas características hacen que nuestra arquitectura sea única para los enfoques existentes ".
"En comparación con los sensores portátiles rígidos que no forman un contacto lo suficientemente íntimo con el usuario para una recopilación de datos precisa, nuestra innovación utiliza sensores de tensión extensibles que se adhieren cómodamente a la piel humana. Esto permite la adquisición de señales de alta calidad, lo cual es vitala tareas de reconocimiento de alta precisión ", agregó el profesor Chen, quien también es director del Centro Innovador para Dispositivos Flexibles iFLEX en NTU.
El equipo compuesto por científicos de NTU Singapur y la Universidad de Tecnología de Sydney UTS publicó sus hallazgos en la revista científica Electrónica de la naturaleza en junio.
Alta precisión de reconocimiento incluso en malas condiciones ambientales
Para capturar datos sensoriales confiables de los gestos con las manos, el equipo de investigación fabricó un sensor de deformación transparente y estirable que se adhiere a la piel pero no se puede ver en las imágenes de la cámara.
Como prueba de concepto, el equipo probó su sistema de IA de inspiración biológica utilizando un robot controlado mediante gestos con las manos y lo guió a través de un laberinto.
Los resultados mostraron que el reconocimiento de gestos con las manos impulsado por el sistema de inteligencia artificial bioinspirado pudo guiar al robot a través del laberinto sin errores, en comparación con los seis errores de reconocimiento cometidos por un sistema de reconocimiento visual.
También se mantuvo una alta precisión cuando el nuevo sistema de inteligencia artificial se probó en condiciones deficientes, incluido el ruido y la iluminación desfavorable. El sistema de inteligencia artificial funcionó de manera efectiva en la oscuridad, logrando una precisión de reconocimiento de más del 96,7 por ciento.
El primer autor del estudio, el Dr. Wang Ming de la Escuela de Ciencia e Ingeniería de Materiales en NTU Singapur, dijo: "El secreto detrás de la alta precisión en nuestra arquitectura radica en el hecho de que la información visual y somatosensorial puede interactuar y complementar cadaotros en una etapa temprana antes de llevar a cabo una interpretación compleja. Como resultado, el sistema puede recopilar de manera racional información coherente con menos datos redundantes y menos ambigüedad de percepción, lo que resulta en una mayor precisión ".
Brindando una visión independiente, el profesor Markus Antonietti, Director del Instituto Max Planck de Coloides e Interfaces en Alemania dijo: "Los hallazgos de este documento nos brindan un paso más hacia un mundo más inteligente y más apoyado por máquinas. Al igual que la invención deel teléfono inteligente que ha revolucionado la sociedad, este trabajo nos da la esperanza de que algún día podamos controlar físicamente todo el mundo que nos rodea con gran fiabilidad y precisión a través de un gesto ".
"Simplemente existen infinitas aplicaciones para dicha tecnología en el mercado para respaldar este futuro. Por ejemplo, desde un control de robot remoto sobre lugares de trabajo inteligentes hasta exoesqueletos para personas mayores".
El equipo de investigación de NTU ahora está buscando construir un sistema de realidad virtual y realidad aumentada basado en el sistema de inteligencia artificial desarrollado, para usar en áreas donde se desea un reconocimiento y control de alta precisión, como tecnologías de entretenimiento y rehabilitación en el hogar.
Fuente de la historia :
Materiales proporcionado por Universidad Tecnológica de Nanyang . Nota: el contenido se puede editar por estilo y longitud.
Referencia de la revista :
cite esta página :