Empresas como Google y Meta tienen el deber de combatir los efectos persistentes de la desinformación, en especial en un año electoral. Fotógrafo:  Rafael Henrique/SOPA Images/LightRocket /Getty Images
Tiempo de lectura: 5 minutos

Resulta razonable que nos sintamos aturdidos por el poder de convencimiento de la IA. Por lo menos un estudio ha encontrado que las personas eran más proclives a creer la desinformación generada por la inteligencia artificial que los seres humanos.

Los investigadores llegaron a la conclusión de que las personas preferían el uso de textos condensados y estructurados de los sistemas de IA. Sin embargo, una nueva investigación revela que esta tecnología puede usarse para hacer el bien.

Según un reciente estudio efectuado por investigadores del Instituto Tecnológico de Massachusetts (MIT, por sus siglas en inglés), se ha validado algo que muchos analistas de la inteligencia artificial ya sospechaban desde hacía tiempo: la tecnología es sorprendentemente persuasiva cuando se apoya en hechos.

Los investigadores invitaron a más de dos mil personas que defendían diferentes teorías conspirativas a que presentaran sus posturas resumidas a un chatbot (basado en el último modelo de lenguaje de OpenAI disponible al público) y que debatieran con él durante unos instantes.

PUBLICIDAD

Como media, los participantes se describían posteriormente como un 20% menos convencidos de la teoría conspirativa; sus posturas se mantenían más flexibles incluso hasta dos meses después.

Aunque compañías como Google, de Alphabet Inc. (GOOGL), y Meta Platforms Inc. (META) pudieran usar chatbots para convencer con fines publicitarios, teniendo en cuenta que dependen en gran medida de los anuncios para generar ingresos, eso está lejos, como mucho, y es poco probable que suceda, me dice gente del sector de la publicidad.

Los investigadores del MIT consideran que hay una explicación para que los sistemas de IA generativa lo consigan tan bien: son excelentes para combatir el llamado “Gish gallop”, una técnica de retórica que consiste en tratar de apabullar a otra persona en un debate con una cantidad excesiva de observaciones y argumentos, aunque las pruebas no sean numerosas.

PUBLICIDAD

El término debe su nombre a un creacionista de EE.UU., Duane Gish, que utilizaba un estilo de debate veloz en el que siempre cambiaba de tema; lo mismo suelen hacer quienes creen en las teorías conspirativas.

“Si eres un ser humano, es complicado debatir con un experto en teorías conspirativas porque te dicen: ‘¿Qué pasa con esta cosa al azar y esta otra diferente?”, dice David Rand, uno de los responsables del estudio del MIT. “A menudo, los expertos no salen muy favorecidos porque las teorías conspirativas aportan todas estas disparatadas pruebas”.

Los humanos también somos peores de lo que pensamos a la hora de entablar debates en general. ¿Alguna vez un miembro de la familia explicó apasionadamente durante una cena por qué no estaban vacunando a sus hijos? Si es así, sus comentarios probablemente fueron recibidos con serios gestos de asentimiento, silencio o alguien preguntando sobre el postre. Esa renuencia a discutir puede permitir, sin darse cuenta, que amigos y familiares se afiancen en sus puntos de vista. Quizás sea por eso que otras investigaciones muestran que los creyentes en la teoría de la conspiración a menudo sobreestiman en qué medida otras personas están de acuerdo con ellos, dice Rand.

En el estudio del MIT, el GPT-4 Turbo de OpenAI, el modelo de lenguaje grande con el que interactuaron los participantes, fue imperturbable.

PUBLICIDAD

En un ejemplo, una persona que creía que el gobierno de EE.UU. estaba detrás de los ataques del 11 de septiembre de 2001 le contó al chatbot sobre el colapso del edificio 7 World Trade Center y la reacción silenciosa del entonces presidente George W. Bush ante los ataques mientras estaba en un salón de clases. con niños, y también citaron “muchos videos y programas” que respaldaban sus puntos de vista.

El bot respondió a todos sus puntos en una única explicación detallada y racional.

Comenzó con simpatía, señalando que tenía sentido cuestionar lo que realmente sucedió el 11 de septiembre, dada la complejidad de los eventos que se desarrollaron, antes de lanzarse a un repudio clínico, paso a paso, de cada uno de los temas en el mensaje. Después de ir y venir con el chatbot dos veces más, el nivel de confianza del participante en la teoría de la conspiración había disminuido del 100% al 40%.

PUBLICIDAD

Los grandes modelos de lenguaje son buenos para disuadir a los creyentes en la teoría de la conspiración porque están armados con hechos y una apariencia de paciencia que la mayoría de los humanos no poseen.

Por lo tanto, es lógico que plataformas en línea como Alphabet, matriz de YouTube, y Meta, propietaria de Facebook, consideren adoptarlas. Después de todo, los ejecutivos de YouTube durante años permitieron que los videos de conspiración proliferaran en el sitio a instancias de una mayor participación.

Y se ha permitido que la desinformación sobre temas como el aborto y las elecciones presidenciales estadounidenses “amañadas” de 2020 se enconen en Facebook. Meta no respondió a una solicitud de comentarios, pero un portavoz de Google dijo que YouTube recientemente prohibió el contenido de teorías de conspiración que justificaran la violencia y que también recomendaba a los espectadores videos de “fuentes autorizadas”.

El CEO de Meta, Mark Zuckerberg, ha sostenido durante mucho tiempo que sus plataformas no deberían ser árbitros de la verdad de lo que la gente dice en línea. Pero dado el impacto que su sitio ha tenido en el proceso democrático en Estados Unidos y otros lugares, tanto Meta como Google tienen el deber de combatir los efectos persistentes de la desinformación, particularmente durante un gran año electoral.

PUBLICIDAD

Una forma podría ser que ambas compañías proporcionen un cuadro de diálogo para los usuarios de Facebook o Google que busquen palabras clave como QAnon , Flat Earth (tierra plana) o chemtrails (un rastro visible dejado en el cielo por un avión y que algunos creen que consiste en agentes químicos o biológicos liberados como parte de una operación encubierta) , y los inviten a hablar con el modelo de lenguaje Llama 2 de Meta , o Gemini de Google , sobre cualquiera de esos. asuntos.

Una portavoz de Google dijo que cuando la gente buscaba o veía vídeos en YouTube relacionados con temas propensos a teorías de conspiración, como el alunizaje o la Tierra plana, la empresa aparecía “paneles de información” que mostraban contexto adicional de terceros. Ese, quizás, podría ser un buen lugar para agregar un chatbot amigable y racional.

“Existe una sensación generalizada en el campo y en el mundo de que una vez que alguien ha caído en la madriguera del conejo, ya es demasiado tarde”, dice Rand. “Esto demuestra que es demasiado pesimista”.

PUBLICIDAD

Los gigantes de las redes sociales ahora tienen las herramientas para combatir uno de los mayores flagelos de la sociedad moderna. Deberían considerar seriamente su uso.

Esta nota no refleja necesariamente la opinión del consejo editorial o de Bloomberg LP y sus propietarios.

Lea más en Bloomberg.com