¿Estás charlando con un superrobot pro-israelí impulsado por IA?...cuando defiendas a los palestinos en las redes sociles y ataques a Israel , seras contradecido por miles de usuarios ,,, en realidad es un solo robot. Incluso se demoran en responder para que piensen que están escribiendo los humanos
Mientras el ataque de Israel a Gaza continúa sobre el terreno, se libra una batalla paralela en las redes sociales entre personas y robots.
Los investigadores libaneses Ralph Baydoun y Michel Semaan, de la firma de consultoría de investigación y comunicaciones estratégicas InflueAnswers , decidieron monitorear cómo lo que parecían robots “israelíes” se han comportado en las redes sociales desde el 7 de octubre.
Al principio, dijeron Baydoun y Semaan, las cuentas pro palestinas dominaban el espacio de las redes sociales. Pronto, se dieron cuenta, los comentarios proisraelíes aumentaron enormemente.
“La idea es que si un activista [pro-palestino] publica algo, en cinco... 10... o 20 minutos o un día, una cantidad significativa de [comentarios sobre su publicación] ahora son proisraelíes", dijo Semaan.
"Casi todos los tweets son esencialmente bombardeados y plagados de muchas cuentas, todas las cuales siguen patrones muy similares y todas parecen casi humanas".
Pero no son humanos. Son robots.
Un bot, abreviatura de robot, es un programa de software que realiza tareas repetitivas y automatizadas.
Los bots pueden ser buenos o malos.
Los buenos bots pueden hacer la vida más fácil: notifican a los usuarios sobre eventos, ayudan a descubrir contenido o brindan servicio al cliente en línea.
Los robots malos pueden manipular el número de seguidores de las redes sociales, difundir información errónea, facilitar estafas y acosar a las personas en línea.
A finales de 2023, casi la mitad de todo el tráfico de Internet eran bots, según un estudio de la empresa estadounidense de ciberseguridad Imperva .
Los bots malos alcanzaron los niveles más altos registrados por Imperva, representando el 34 por ciento del tráfico de Internet, mientras que los bots buenos representaron el 15 por ciento restante.
Esto se debió en parte a la creciente popularidad de la inteligencia artificial (IA) para generar texto e imágenes.
Según Baydoun, los robots pro-israelíes que encontraron tienen como objetivo principal sembrar dudas y confusión sobre una narrativa pro-palestina en lugar de hacer que los usuarios de las redes sociales confíen en ellos.
Los ejércitos de bots (de miles a millones de bots maliciosos) se utilizan en campañas de desinformación a gran escala para influir en la opinión pública.
A medida que los bots se vuelven más avanzados, es más difícil distinguir entre el contenido de bots y el contenido humano.
"La capacidad de la IA para crear estas redes de robots más grandes... tiene un efecto enormemente nocivo en la comunicación veraz, pero también en la libertad de expresión porque tienen la capacidad de ahogar las voces humanas", dijo Jillian York, directora para la Libertad de Expresión Internacional en la organización internacional. grupo sin fines de lucro de derechos digitales Electronic Frontier Foundation .
Evolución de los robots
Los primeros bots eran muy simples y operaban de acuerdo con reglas predefinidas en lugar de emplear las sofisticadas técnicas de inteligencia artificial que se utilizan hoy en día.
Desde principios hasta mediados de la década de 2000, a medida que surgieron redes sociales como MySpace y Facebook, los bots de redes sociales se hicieron populares porque podían automatizar tareas como agregar rápidamente "amigos", crear cuentas de usuario y automatizar publicaciones.
Esos primeros robots tenían capacidades limitadas de procesamiento del lenguaje: solo entendían y respondían a una gama estrecha de comandos o palabras clave predefinidas.
“Antes, los robots en línea, especialmente a mediados de la década de 2010... regurgitaban en su mayoría el mismo texto una y otra vez. El texto... obviamente sería escrito por un robot”, dijo Semaan.
En la década de 2010, los rápidos avances en el procesamiento del lenguaje natural (PNL), una rama de la IA que permite a las computadoras comprender y generar el lenguaje humano, significaron que los bots podían hacer más.
En las elecciones presidenciales estadounidenses de 2016 entre Donald Trump y Hillary Clinton, un estudio realizado por investigadores de la Universidad de Pensilvania encontró que un tercio de los tuits a favor de Trump y casi una quinta parte de los tuits a favor de Clinton provinieron de bots durante los dos primeros debates.
Luego, surgió un tipo más avanzado de PNL conocido como modelos de lenguaje grande (LLM, por sus siglas en inglés), que utiliza miles de millones o billones de parámetros para generar texto similar al humano.
Los superbots son robots inteligentes impulsados por IA moderna.
Los LLM como Chat GPT hicieron que los bots fueran más sofisticados. Cualquiera que utilice LLM puede generar indicaciones simples para responder a los comentarios de las redes sociales.
La belleza, o el mal, de los superbots es que son relativamente fáciles de implementar.
Para comprender mejor cómo funciona, Baydoun y Semaan construyeron su propio superbot y describieron cómo funciona:
Paso 1: Encuentra un objetivo
- Los superbots se dirigen a usuarios de alto valor, como cuentas verificadas o aquellos con alto alcance.
- Buscan publicaciones recientes con palabras clave definidas o hashtags como #Gaza, #Genocide o #Ceasefire.
- Un superbot también puede apuntar a publicaciones con una cierta cantidad de reenvíos, me gusta o respuestas.
El enlace y el contenido de la publicación se almacenan y se envían al paso 2.
Paso 2: crear un mensaje
- Se genera una respuesta a la publicación de destino al introducir su contenido en un LLM, como Chat GPT.
- Un mensaje de muestra: “Imagina que eres un usuario de Twitter. Tienes opiniones firmes. Responda a este tweet presentando una narrativa proisraelí de una manera conversacional pero agresiva”.
- Chat GPT generará una respuesta de texto que se puede ajustar y enviar al paso 3.Paso 3: Responder a una publicación
- Los bots pueden generar una respuesta en segundos. Para parecer más humanos, se pueden programar para agregar un pequeño retraso entre respuestas.
- Si el cartel original responde al comentario del robot, la "conversación" comienza y el superrobot puede ser implacable, repitiendo el proceso indefinidamente.
- Luego, se pueden liberar ejércitos de robots contra múltiples objetivos simultáneamente.
Durante años, cualquier persona con dominio de Internet podía distinguir con bastante facilidad un bot de un usuario humano. Pero hoy en día los robots no sólo parecen razonar, sino que también se les puede asignar un tipo de personalidad.
“Se ha llegado a un punto en el que es muy difícil discernir si el texto está escrito por una persona real o por un modelo de lenguaje de gran tamaño. Ya no se puede saber con certeza si se trata de un robot o no”, dijo Semaan.
Pero, dicen Semaan y Baydoun, todavía hay algunas pistas sobre si una cuenta es un bot o no.
Perfil: muchos robots utilizarán una imagen generada por IA que parece humana pero que puede tener defectos menores como rasgos faciales distorsionados, iluminación extraña o estructura facial inconsistente. El nombre de un bot tiende a contener números aleatorios o mayúsculas irregulares, y la biografía del usuario a menudo resultará atractiva para un grupo objetivo y tendrá poca información personal.
Fecha de creación: normalmente es bastante reciente.
Seguidores: los bots suelen seguir a otros bots para generar un gran número de seguidores.
Reposts: Los bots a menudo vuelven a publicar sobre "cosas completamente aleatorias" según Semaan, como un equipo de fútbol o una estrella del pop. Sus respuestas y comentarios, sin embargo, están llenos de temas totalmente diferentes.
Actividad: los bots tienden a responder a las publicaciones rápidamente, a menudo en 10 minutos o menos.
Frecuencia: Los bots no necesitan comer, dormir ni pensar, por lo que se les puede ver publicando mucho, a menudo a cualquier hora del día.
Idioma: los bots pueden publicar texto "extrañamente formal" o tener una estructura de oración extraña.
Objetivos: los bots suelen apuntar a cuentas específicas, como las verificadas o aquellas con muchos seguidores.
Según un informe [ PDF] del grupo policial europeo Europol, para 2026, alrededor del 90 por ciento del contenido en línea será generado por IA.
El contenido generado por IA, incluidas imágenes, audio o vídeos falsos que imitan a personas, se ha utilizado para influir en los votantes en las elecciones indias de este año , y aumentan las preocupaciones sobre el impacto que puedan tener en las próximas elecciones estadounidenses del 5 de noviembre.
Los activistas de los derechos digitales están cada vez más preocupados. "No queremos que los estados censuren las voces de las personas, pero tampoco queremos que estos robots y los humanos que hacen propaganda, así como los estados que hacen propaganda, las ahoguen", dijo York a Al Jazeera.
"Lo veo como una cuestión de libertad de expresión en el sentido de que la gente [no puede] expresarse cuando compite contra estos proveedores de información descaradamente falsa".
Los grupos de derechos digitales están tratando de responsabilizar a las grandes empresas tecnológicas por su negligencia y falta de protección de las elecciones y los derechos de los ciudadanos. Pero York dice que es una “situación de David y Goliat” en la que estos grupos no tienen “la misma capacidad de ser escuchados”.
No hay comentarios:
Publicar un comentario