La inteligencia artificial contra las teorías conspirativas: “No, la inmigración no aumenta el crimen”
4 min readEn un esfuerzo por combatir la desinformación y las teorías conspirativas que se propagan con gran facilidad, un equipo de investigadores del Instituto de Tecnología de Massachusetts (MIT) y la Universidad de Cornell ha desarrollado un chatbot de inteligencia artificial llamado DebunkBot. Este sistema está diseñado para contrarrestar los mensajes tóxicos y las noticias falsas con datos verificables y evidencia científica. El DebunkBot ya ha sido utilizado en experimentos que han mostrado resultados prometedores en la lucha contra las creencias infundadas, como la relación entre inmigración y criminalidad.
La amenaza de la desinformación
La desinformación y las teorías conspirativas se han convertido en uno de los mayores riesgos globales, según el Foro Económico Mundial. Personalidades como Bill Gates y un panel de expertos que trabajan en Google DeepMind han señalado que la proliferación de noticias falsas, tanto a través de medios convencionales como redes sociales, representa una amenaza directa para la estabilidad social y la democracia. La desinformación tiene el poder de manipular la opinión pública y exacerbar tensiones sociales, como ha quedado demostrado en casos recientes.
Un ejemplo claro es el daño causado por las declaraciones falsas del expresidente de Estados Unidos, Donald Trump, sobre los inmigrantes haitianos en Springfield, quienes, según él, habrían estado involucrados en actos aberrantes como comerse las mascotas de los lugareños. Este tipo de afirmaciones no solo ha desatado una ola de xenofobia, sino que ha provocado más de 30 amenazas de bomba contra las autoridades locales. Frente a este panorama, el desarrollo de herramientas como DebunkBot adquiere una relevancia crucial para desmantelar estas narrativas.
Además, lea: Global Perspectives on Renewable Solvent Market
¿Cómo funciona el DebunkBot?
El chatbot, entrenado específicamente para combatir la desinformación, responde de manera empática a las preguntas de los usuarios y, posteriormente, ofrece datos que contradicen las afirmaciones falsas. Por ejemplo, si se le pregunta al chatbot si la inmigración aumenta el crimen, este responde: “No, al contrario”. A continuación, cita estudios que demuestran que los inmigrantes tienen tasas de criminalidad significativamente más bajas que los ciudadanos nativos. Un estudio del Journal of Ethnicity in Criminal Justice y datos del Instituto Cato respaldan la afirmación de que tanto los inmigrantes legales como indocumentados tienen menores tasas de encarcelamiento que los ciudadanos nacidos en EE.UU.
Además, el DebunkBot señala que los datos del FBI muestran que las áreas con un mayor número de inmigrantes suelen experimentar una disminución o estabilización de los índices de criminalidad. Esta paradoja se explica, según el chatbot, por la contribución de los inmigrantes al crecimiento económico, la creación de nuevos negocios y el fortalecimiento de las comunidades.
Resultados prometedores
Los estudios iniciales han mostrado que el DebunkBot es capaz de reducir la creencia en teorías conspirativas entre los usuarios. En un experimento que involucró a 2,190 personas, se logró una reducción del 20% en la adhesión a teorías conspirativas después de una conversación con el chatbot. Aún más impresionante es que este efecto perduró al menos dos meses después de la interacción. Según los investigadores, esta herramienta no solo disminuyó las creencias erróneas, sino que también aumentó las intenciones de los participantes de ignorar o bloquear a las personas que comparten teorías conspirativas en redes sociales.
David Rand, coautor del estudio y profesor de ciencia cognitiva en MIT, afirmó que las conversaciones con el chatbot hicieron a las personas menos conspirativas en general. “Las personas no solo dejan de creer en teorías conspirativas específicas, sino que también son más propensas a evitar compartir información engañosa y a desvincularse de aquellos que promueven estas ideas”, señaló.
Por su parte, Thomas Costello, profesor de psicología en la American University de Washington y uno de los líderes del proyecto, explicó que los modelos de IA, al tener acceso a una gran cantidad de información, pueden contrarrestar con hechos las creencias falsas de manera más eficiente que los seres humanos. “A diferencia de la visión pesimista que muchos tienen sobre la IA, una conversación relativamente breve con un modelo generativo de IA puede producir una disminución significativa en las creencias erróneas, incluso entre personas con convicciones profundamente arraigadas”, destacó Costello.
Desafíos éticos y riesgos
Si bien la IA se presenta como una herramienta poderosa para combatir la desinformación, también plantea desafíos éticos. En un informe sobre la ética de los asistentes de IA avanzado elaborado por Google DeepMind, los expertos advierten que estas tecnologías también pueden ser utilizadas para propagar desinformación. El principal riesgo es que las personas desarrollen una relación de confianza con estos sistemas, lo que podría hacerlas más vulnerables a recibir información sesgada o parcial.
Para mitigar estos riesgos, los investigadores de Google DeepMind sugieren limitar ciertas funcionalidades de los asistentes de IA y desarrollar mecanismos robustos de detección de desinformación. Además, proponen promover resultados basados en el pensamiento crítico y hechos verificados, así como implementar políticas de transparencia que garanticen un uso ético de la tecnología.
El desarrollo de herramientas como DebunkBot marca un paso importante en la lucha contra la desinformación y las teorías conspirativas. Aunque aún queda trabajo por hacer para entender plenamente cómo la IA puede influir en las creencias humanas, los primeros resultados son alentadores. En un mundo donde la verdad a menudo queda eclipsada por el ruido de las noticias falsas, la IA podría convertirse en un aliado crucial para restaurar la confianza en la información y fomentar un debate más informado y saludable.