Los avances en inteligencia artificial han creado nuevas amenazas a la privacidad de los datos de salud de las personas, según muestra un nuevo estudio de la Universidad de California, Berkeley.
Dirigido por el ingeniero de UC Berkeley, Anil Aswani, el estudio sugiere que las leyes y regulaciones actuales no son lo suficientemente cercanas como para mantener privado el estado de salud de una persona frente al desarrollo de IA. La investigación fue publicada el 21 de diciembre en el Red JAMA abierta diario
Los resultados muestran que mediante el uso de inteligencia artificial, es posible identificar a las personas mediante el aprendizaje de patrones diarios en datos de pasos, como los recopilados por rastreadores de actividad, relojes inteligentes y teléfonos inteligentes, y correlacionarlos con datos demográficos.
La extracción de datos de dos años para más de 15,000 estadounidenses llevó a la conclusión de que los estándares de privacidad asociados con la legislación HIPAA Ley de Portabilidad y Responsabilidad de Seguros de Salud de 1996 deben revisarse y reelaborarse.
"Queríamos usar NHANES la Encuesta Nacional de Examen de Salud y Nutrición para analizar las preguntas de privacidad porque estos datos son representativos de la población diversa en los Estados Unidos", dijo Aswani. "Los resultados señalan un problema importante. Si ustedelimine toda la información de identificación, no lo protege tanto como podría pensar. Alguien más puede regresar y volver a armar todo si tienen la información correcta ".
"En principio, podría imaginarse que Facebook recopila datos de pasos de la aplicación en su teléfono inteligente, luego compra datos de atención médica de otra compañía y los combina", agregó. "Ahora tendrían datos de atención médica que coinciden con los nombres,y podrían comenzar a vender publicidad basada en eso o podrían vender los datos a otros ".
Según Aswani, el problema no está en los dispositivos, sino en cómo la información que capturan los dispositivos puede ser mal utilizada y potencialmente vendida en el mercado abierto.
"No estoy diciendo que debamos abandonar estos dispositivos", dijo. "Pero debemos ser muy cuidadosos acerca de cómo estamos usando estos datos. Necesitamos proteger la información. Si podemos hacer eso, es una redpositivo."
Aunque el estudio analizó específicamente los datos escalonados, los resultados sugieren una amenaza más amplia para la privacidad de los datos de salud.
"Las regulaciones de HIPAA hacen que su atención médica sea privada, pero no cubren tanto como usted piensa", dijo Aswani. "Muchos grupos, como las empresas de tecnología, no están cubiertos por HIPAA, y solo no se incluyen datos muy específicos.las reglas actuales de HIPAA pueden compartirla. Hay compañías que compran datos de salud. Se supone que son datos anónimos, pero todo su modelo de negocio es encontrar una forma de adjuntar nombres a estos datos y venderlos ".
Aswani dijo que los avances en IA hacen que sea más fácil para las compañías obtener acceso a los datos de salud, aumentará la tentación de las compañías de usarlos de manera ilegal o poco ética. Los empleadores, los prestamistas hipotecarios, las compañías de tarjetas de crédito y otros podrían usar la IA para discriminarsegún el estado de embarazo o discapacidad, por ejemplo.
"Idealmente, lo que me gustaría ver de esto son nuevas regulaciones o reglas que protejan los datos de salud", dijo. "Pero en realidad hay un gran impulso para incluso debilitar las regulaciones en este momento. Por ejemplo, la regla-hacer un grupo para HIPAA ha solicitado comentarios sobre el aumento del intercambio de datos. El riesgo es que si las personas no son conscientes de lo que está sucediendo, las reglas que tenemos se debilitarán. Y el hecho es el riesgo de que perdamos el control de nuestra privacidad cuando se trata deel cuidado de la salud en realidad aumenta y no disminuye "
Fuente de la historia :
Materiales proporcionado por Universidad de California - Berkeley . Nota: El contenido puede ser editado por estilo y longitud.
Referencia del diario :
Cita esta página :