Polarización, teorías de conspiración, noticias falsas: lo que la gente ve en Internet está determinado en gran medida por los algoritmos opacos de unas pocas corporaciones. Es un desarrollo preocupante para las sociedades democráticas. Pero los entornos en línea podrían diseñarse de manera que promuevan la autonomía y la transparencia, fomentando así el potencial positivo de Internet. Un equipo de investigadores del Instituto Max Planck para el Desarrollo Humano en Berlín, la Universidad de Bristol y la Facultad de Derecho de Harvard ha abordado este debate desde la perspectiva de la ciencia del comportamiento y ha propuesto intervenciones capaces de promover unInternet más democrático. Sus hallazgos han sido publicados en Comportamiento humano de la naturaleza .
Se desplaza por su feed de YouTube, Facebook o Twitter cuando aparece un video: un informe sobre acuerdos políticos secretos, conspiraciones de los medios o estudios científicos falsos. Todo parece estar respaldado por hechos. El video tiene cientos de milesde clics y parece estar ganando terreno en todo el mundo. Y muchos espectadores parecen estar de acuerdo con eso, habiéndole dado un "visto bueno". Pero, ¿qué significa exactamente todo esto? ¿Hace que el video sea creíble? ¿Cuántos espectadores vieron el video?hasta el final, ¿cuántos quedan a mitad de camino? ¿Y por qué apareció el video en su feed en primer lugar? La plataforma en línea conoce muchas de las respuestas, pero no comparte esa información. Y no se proporcionan otras pistas que puedan ayudarevaluar el contenido, la calidad o la credibilidad del video.
Según el Informe de noticias digitales del Instituto Reuters de 2019, más de la mitad 55% de los usuarios de Internet del mundo ahora usan las redes sociales o los motores de búsqueda para mantenerse al día con las noticias. En otras palabras, la opinión pública está determinada en gran medida por el contenido en línea, que a su vez está comisariada por algoritmos. "El objetivo es mantener a los usuarios contentos durante el mayor tiempo posible para que permanezcan en la plataforma. Esto se logra al proporcionar entretenimiento y establecer una sensación de bienestar, lo que probablemente explica por qué muchoslas plataformas no tienen botones de "no me gusta" que les permitan a los usuarios votar por el contenido. La sensación que se transmite es: Tienes razón. Eso puede ser inofensivo cuando compartimos contenido privado como fotos de vacaciones, pero distorsiona la imagen cuandose están difundiendo opiniones radicales y falsedades ", dice el coautor Stephan Lewandowsky, profesor de psicología cognitiva en la Universidad de Bristol.
Otro problema es que los algoritmos de suministro de noticias solo muestran a los usuarios contenido que, según su comportamiento en línea anterior, es probable que estén de acuerdo. Otros puntos de vista tienden a no mostrarse en absoluto. Esto crea redes de usuarios de ideas afines, quereforzar las opiniones compartidas y crear la ilusión de un amplio apoyo, incluso si una opinión en realidad no es ampliamente difundida. ¿Pero cómo pueden los usuarios distinguir las noticias falsas de los hechos? ¿Y cómo deben diseñarse los entornos en línea para respaldar estos esfuerzos? "Las intervenciones que proponemosSu objetivo es capacitar a los usuarios individuales para que tomen decisiones informadas y autónomas en entornos en línea, idealmente, sin tener que depender de verificadores de hechos independientes. La arquitectura de los entornos en línea influye en el comportamiento de los usuarios. Para cambiar ese entorno para mejor, necesitamos entendercomportamiento humano y tener en cuenta ese comportamiento en las elecciones de diseño ", dice Philipp Lorenz-Spreen, autor principal del estudio e investigador en el Instituto Max Planck para HDesarrollo humano.
El equipo de investigación ha identificado varias formas de ayudar a los usuarios a evaluar la calidad del contenido de Internet y comprender los mecanismos detrás de los algoritmos, sin restringir las libertades centrales de la filosofía original de Internet. Estas posibilidades son tecnológicamente factibles pero hasta ahoraen gran parte sin explotar. El equipo de investigación ha desarrollado recomendaciones específicas para capacitar a las personas en línea, basándose en dos enfoques de las ciencias del comportamiento: empujar y estimular
Empujar tiene como objetivo dirigir el comportamiento de las personas al resaltar información importante sin imponer reglas o prohibiciones. Impulsar los objetivos para mejorar la competencia en la toma de decisiones de las personas, permitiéndoles navegar situaciones de forma autónoma y tomar mejores decisiones. Según los investigadores, es importante tomar unenfoque múltiple para llegar al mayor número posible de personas. El empuje podría usarse, por ejemplo, para indicar si el contenido cumple con ciertos criterios de calidad, como si proviene de fuentes confiables. Esto incitaría a los usuarios a verificar el contenido a fondo y crearuna estructura de incentivos para que los productores de contenido cumplan con los criterios requeridos. Incluir hipervínculos a fuentes verificadas sería otro paso. Wikipedia podría servir de modelo aquí: las referencias y referencias cruzadas que proporciona ayuda para contextualizar la información presentada. Twitter recientemente dio un pasoen esta dirección y comencé a marcar algunos tweets con una advertencia de verificación de hechos, incluido un tweet de Donald Trump sobre el tema de la votación postal.
Nudges también podría comunicar información adicional sobre el comportamiento en línea de otros usuarios, dando más contexto sobre cómo otros evalúan el contenido. Por ejemplo, el número de me gusta podría establecerse en relación con el número total de lectores: "4,287 de cada 1.5 millones de lectoresme gustó este artículo ". La información de que hubo 44,000 clics en un artículo, pero que solo 3,000 usuarios lo leyeron hasta el final podría ser un mejor indicador de calidad que la cantidad de clics y me gusta solo. Se ha demostrado que los formatos numéricos transparentes puedenmejorar las decisiones médicas. ¿Por qué no debería aplicarse lo mismo a Internet? Este enfoque podría evitar la formación de cámaras de eco en las que grupos de personas creen erróneamente que su opinión es generalizada y aceptada.
Otra posibilidad podría ser hacer que sea un poco más difícil para los usuarios compartir información cuando un artículo no puede citar referencias externas. Por ejemplo, los usuarios podrían tener que hacer clic más allá de una ventana emergente que contiene una advertencia de que faltan referencias. OtroEl tipo de empuje podría centrarse en cómo se organiza el contenido en los navegadores, es decir, la forma en que un suministro de noticias clasifica el contenido. Diferenciar claramente entre los tipos de contenido, como opiniones, noticias o publicaciones de amigos, puede hacer que los suministros de noticias sean más transparentes.
Impulso, en cambio, tiene como objetivo mejorar la competencia del usuario a largo plazo. Esto podría, por ejemplo, significa permitir que las personas ajusten cómo se clasifican sus canales de noticias, permitiéndoles cambiar su configuración para reflejar qué factores son más importantes para ellos yqué contenido quieren ver primero. Las redes sociales podrían verse obligadas a indicar por qué un contenido se pondera más y se muestra primero, mientras que otro contenido tiene menor prioridad. Otro ejemplo de un impulso sería presentar la fuente original de un fragmento de contenido.información y la ruta por la cual llegó a un usuario. Los simples árboles de decisión podrían guiar a los usuarios a través de un proceso paso a paso para verificar el origen, el contexto y la calidad del contenido en línea. En otras palabras, los usuarios recibirían las herramientas para convertirseverificadores de hechos ellos mismos. A largo plazo, aprenderían a reconocer patrones, evaluar críticamente el contenido e identificar la manipulación más rápidamente.
"La naturaleza interactiva de las redes sociales podría aprovecharse para promover un diálogo democrático diverso y fomentar la inteligencia colectiva. Nuestro objetivo es encontrar formas de fortalecer el potencial de Internet para informar los procesos de toma de decisiones en las sociedades democráticas, reforzándolos en lugar de socavarlos.Los problemas globales como el cambio climático y la pandemia de coronavirus requieren soluciones coordinadas y colectivas. Y eso hace que un mundo en línea democráticamente interconectado sea crucial ", dice Ralph Hertwig, Director del Centro de Racionalidad Adaptativa del Instituto Max Planck para el Desarrollo Humano.
Fuente de la historia :
Materiales proporcionado por Instituto Max Planck para el Desarrollo Humano . Nota: El contenido puede ser editado por estilo y longitud.
Referencia del diario :
Cita esta página :