Emilio Ferrara, científico informático del USC Information Sciences Institute USC ISI, tiene una nueva investigación que indica que los bots o cuentas falsas habilitadas por la inteligencia artificial en las redes sociales han evolucionado y ahora están en mejores condiciones para copiar los comportamientos humanos para evitar ser detectados.
en el diario primer lunes , investigación realizada por Ferrara y sus colegas Luca Luceri Scuola Universitaria Professionale della Svizzera Italiana, Ashok Deb USC ISI, Silvia Giordano Scuola Universitaria Professionale della Svizzera Italiana, examinan el comportamiento del bot durante las elecciones estadounidenses de 2018 en comparación con el comportamiento del bot durantelas elecciones estadounidenses de 2016.
Los investigadores estudiaron a casi 250,000 usuarios activos de las redes sociales que discutieron las elecciones estadounidenses en 2016 y 2018, y detectaron más de 30,000 bots. Descubrieron que los bots en 2016 se centraron principalmente en retweets y grandes volúmenes de tweets en torno al mismo mensaje., a medida que la actividad social humana en línea ha evolucionado, también lo han hecho los bots. En la temporada electoral de 2018, al igual que los humanos tenían menos probabilidades de retuitear tanto como lo hicieron en 2016, los bots tenían menos probabilidades de compartir los mismos mensajes en gran volumen.
Los investigadores descubrieron que los bots eran más propensos a emplear un enfoque de bots múltiples como para imitar el compromiso humano auténtico en torno a una idea. Además, durante las elecciones de 2018, los humanos tenían muchas más probabilidades de tratar de participar a través de respuestas, botstrató de establecer una voz y agregar diálogo y participar mediante el uso de encuestas, una estrategia típica de agencias de noticias y encuestadores de buena reputación, posiblemente con el objetivo de otorgar legitimidad a estas cuentas.
En un ejemplo, una cuenta de bot publicó una encuesta en línea en Twitter preguntando si las elecciones federales deberían requerir que los votantes muestren su identificación en las urnas. Luego pidió a los usuarios de Twitter que voten y retuiteen.
El autor principal, Emilio Ferrara, señaló: "Nuestro estudio corrobora aún más esta idea de que existe una carrera armamentista entre los robots y los algoritmos de detección. A medida que las empresas de medios sociales hacen más esfuerzos para mitigar el abuso y sofocar las cuentas automatizadas, los robots evolucionan para imitar estrategias humanasLos avances en IA permiten que los bots produzcan más contenido humano. Necesitamos dedicar más esfuerzos para comprender cómo evolucionan los bots y cómo se pueden detectar los más sofisticados. Con las próximas elecciones de 2020 en EE. UU., La integridad del discurso de las redes sociales es de suma importanciapara permitir un proceso democrático libre de influencias externas "
Fuente de la historia :
Materiales proporcionados por Universidad del Sur de California . Nota: El contenido puede ser editado por estilo y longitud.
Referencia del diario :
Cite esta página :