Las elecciones que hacemos en entornos de grupos grandes, como en foros en línea y redes sociales, pueden parecer bastante automáticas para nosotros. Pero nuestro proceso de toma de decisiones es más complicado de lo que sabemos. Por lo tanto, los investigadores han estado trabajando para entenderqué hay detrás de ese proceso aparentemente intuitivo.
Ahora, una nueva investigación de la Universidad de Washington descubrió que en grandes grupos de miembros esencialmente anónimos, las personas toman decisiones basadas en un modelo de la "mente del grupo" y una simulación en evolución de cómo una elección afectará esa mente teorizada.
Utilizando un marco matemático con raíces en la inteligencia artificial y la robótica, los investigadores de UW pudieron descubrir el proceso de cómo una persona toma decisiones en grupos. Y también descubrieron que podían predecir la elección de una persona con más frecuencia que los descriptivos más tradicionalesmétodos. Los resultados se publicaron el miércoles 27 de noviembre en Avances científicos .
"Nuestros resultados son particularmente interesantes a la luz del creciente papel de las redes sociales en dictar cómo se comportan los humanos como miembros de grupos particulares", dijo el autor principal Rajesh Rao, profesor de CJ y Elizabeth Hwang en la Escuela Paul G. Allen de la Universidad de Washington.Informática e Ingeniería y codirector del Centro de Neurotecnología.
"En los foros en línea y los grupos de redes sociales, las acciones combinadas de los miembros anónimos del grupo pueden influir en su próxima acción y, por el contrario, su propia acción puede cambiar el comportamiento futuro de todo el grupo", dijo Rao.
Los investigadores querían averiguar qué mecanismos están en juego en entornos como estos.
En el documento, explican que el comportamiento humano se basa en predicciones de estados futuros del entorno, una mejor suposición de lo que podría suceder, y el grado de incertidumbre sobre ese entorno aumenta "drásticamente" en los entornos sociales. Para predecir quépuede ocurrir cuando otro humano está involucrado, una persona crea un modelo de la mente del otro, llamada teoría de la mente, y luego usa ese modelo para simular cómo las propias acciones afectarán a esa otra "mente".
Si bien este acto funciona bien para las interacciones uno a uno, la capacidad de modelar mentes individuales en un grupo grande es mucho más difícil. La nueva investigación sugiere que los humanos crean un modelo promedio de un representante "mental" del grupo, incluso cuandoSe desconocen las identidades de los demás.
Para investigar las complejidades que surgen en la toma de decisiones grupales, los investigadores se centraron en la "tarea del dilema del voluntario", en la que algunas personas soportan algunos costos para beneficiar a todo el grupo. Los ejemplos de la tarea incluyen la vigilancia, la donación de sangre y la intervenciónadelante para detener un acto de violencia en un lugar público, explican en el documento.
Para imitar esta situación y estudiar las respuestas conductuales y cerebrales, los investigadores colocaron a los sujetos en una resonancia magnética, uno por uno, y los hicieron jugar un juego. En el juego, llamado juego de bienes públicos, la contribución del sujeto a una olla comunitariade dinero influye en los demás y determina lo que todos en el grupo obtienen. Un sujeto puede decidir contribuir con un dólar o decidir "viajar gratis", es decir, no contribuir para obtener la recompensa con la esperanza de que otros contribuyan almaceta.
Si las contribuciones totales exceden una cantidad predeterminada, todos reciben dos dólares de regreso. Los sujetos jugaron docenas de rondas con otros que nunca conocieron. Sin el conocimiento del tema, los otros fueron realmente simulados por una computadora que imita a jugadores humanos anteriores.
"Casi podemos echar un vistazo a la mente humana y analizar su mecanismo computacional subyacente para tomar decisiones colectivas", dijo la autora principal Koosha Khalvati, estudiante de doctorado en la Escuela Allen. "Al interactuar con un gran número de personas, nosotrosdescubrieron que los humanos intentan predecir las interacciones grupales futuras basadas en un modelo de la intención de un miembro promedio del grupo. Es importante destacar que también saben que sus propias acciones pueden influir en el grupo. Por ejemplo, son conscientes de que, aunque son anónimos para los demás, susel comportamiento egoísta disminuiría la colaboración en el grupo en futuras interacciones y posiblemente generaría resultados no deseados "
En su estudio, los investigadores pudieron asignar variables matemáticas a estas acciones y crear sus propios modelos de computadora para predecir qué decisiones tomaría la persona durante el juego. Descubrieron que su modelo predice el comportamiento humano significativamente mejor que los modelos de aprendizaje por refuerzoes decir, cuando un jugador aprende a contribuir en función de cómo la ronda anterior pagó o no, independientemente de otros jugadores, y enfoques descriptivos más tradicionales.
Dado que el modelo proporciona una explicación cuantitativa del comportamiento humano, Rao se preguntó si podría ser útil al construir máquinas que interactúen con humanos.
"En escenarios donde una máquina o software está interactuando con grandes grupos de personas, nuestros resultados pueden tener algunas lecciones para la IA", dijo. "Una máquina que simula la 'mente de un grupo' y simula cómo sus acciones afectan elel grupo puede conducir a una IA más amigable para los humanos cuyo comportamiento esté mejor alineado con los valores de los humanos "
Fuente de la historia :
Materiales proporcionado por Universidad de Washington . Original escrito por Jake Ellison. Nota: El contenido puede ser editado por estilo y longitud.
Referencia del diario :
Cita esta página :