Puede llevar años de experiencia en observación de aves distinguir una especie de la siguiente. Pero utilizando una técnica de inteligencia artificial llamada aprendizaje profundo, los investigadores de la Universidad de Duke han entrenado una computadora para identificar hasta 200 especies de aves a partir de una sola foto.
La verdadera innovación, sin embargo, es que la herramienta de IA también muestra su pensamiento, de manera que incluso alguien que no conoce un pingüino de un frailecillo puede entender.
El equipo entrenó su red neuronal profunda, algoritmos basados en la forma en que funciona el cerebro, al alimentarlo con 11,788 fotos de 200 especies de aves para aprender, desde patos nadadores hasta colibríes flotando.
Los investigadores nunca le dijeron a la red "esto es un pico" o "estas son las plumas de las alas". Dada una foto de un pájaro misterioso, la red puede distinguir patrones importantes en la imagen y hacer una suposición al comparar esos patronesa rasgos de especies típicas que ha visto antes.
En el camino escupe una serie de mapas de calor que esencialmente dicen: "Esta no es una curruca cualquiera. Es una curruca encapuchada, y aquí están las características, como su cabeza enmascarada y su vientre amarillo, que le danlejos."
Chaofan Chen, estudiante de doctorado en ciencias de la computación de Duke, y Oscar Li, estudiante de licenciatura, lideraron la investigación, junto con otros miembros del equipo del Laboratorio de Análisis de Predicciones dirigido por la profesora de Duke, Cynthia Rudin.
Descubrieron que su red neuronal es capaz de identificar las especies correctas hasta el 84% del tiempo, a la par de algunas de sus contrapartes con mejor desempeño, que no revelan cómo son capaces de decir, digamos, un gorriónde la siguiente
Rudin dice que su proyecto se trata de algo más que nombrar pájaros. Se trata de visualizar lo que realmente están viendo las redes neuronales profundas cuando miran una imagen.
Se utiliza tecnología similar para etiquetar a las personas en los sitios de redes sociales, detectar presuntos delincuentes en las cámaras de vigilancia y entrenar automóviles autónomos para detectar cosas como semáforos y peatones.
El problema, dice Rudin, es que la mayoría de los enfoques de aprendizaje profundo para la visión por computadora son notoriamente opacos. A diferencia del software tradicional, el software de aprendizaje profundo aprende de los datos sin ser programado explícitamente. Como resultado, exactamente cómo 'piensan' estos algoritmos cuandoclasificar una imagen no siempre es clara.
Rudin y sus colegas están tratando de demostrar que la IA no tiene que ser así. Ella y su laboratorio están diseñando modelos de aprendizaje profundo que explican el razonamiento detrás de sus predicciones, dejando en claro exactamente por qué y cómo se les ocurrió surespuestas. Cuando tal modelo comete un error, su transparencia integrada permite ver por qué.
Para su próximo proyecto, Rudin y su equipo están usando su algoritmo para clasificar áreas sospechosas en imágenes médicas como mamografías. Si funciona, su sistema no solo ayudará a los médicos a detectar bultos, calcificaciones y otros síntomas que podrían ser signos de mamacáncer. También mostrará en qué partes de la mamografía se dirige, revelando qué características específicas se parecen más a las lesiones cancerosas que ha visto antes en otros pacientes.
De esa manera, dice Rudin, su red está diseñada para imitar la forma en que los médicos hacen un diagnóstico. "Es un razonamiento basado en casos", dijo Rudin. "Esperamos poder explicar mejor a los médicos o pacientes por qué su imagen eraclasificado por la red como maligno o benigno "
El equipo presentará un documento sobre sus hallazgos en la trigésima tercera conferencia sobre sistemas de procesamiento de información neuronal NeurIPS 2019 en Vancouver el 12 de diciembre.
Otros autores de este estudio incluyen a Daniel Tao y Alina Barnett de Duke y Jonathan Su en el MIT Lincoln Laboratory.
CITA: "Esto es así: aprendizaje profundo para el reconocimiento de imágenes interpretables", Chaofan Chen, Oscar Li, Daniel Tao, Alina Barnett, Jonathan Su y Cynthia Rudin. Actas electrónicas de la Conferencia de Sistemas de Procesamiento de Información Neural. 12 de diciembre de 2019.
Fuente de la historia :
Materiales proporcionado por Universidad de Duke . Nota: El contenido puede ser editado por estilo y longitud.
Cita esta página :