La desinformación puede desalentar la participación en las urnas, socavar la confianza en el sistema electoral, gestar conflictos poselectorales y desestabilizar a las democracias, además de generar riesgos contra el patrimonio de las personas
Julio Alejandro Ríos Gutiérrez (*)
La imagen es insólita. La candidata presidencial de México, Claudia Sheinbaum, invitando a las personas a invertir en un esquema financiero fraudulento. La promesa: ganar 120 mil pesos con una mínima inversión de cuatro mil pesos. Totalmente falso. Los defraudadores clonaron la voz de la candidata a la presidencia y la montaron en un video tomado de sus redes sociales. Una vez que esto se viralizó, la aspirante presentó una denuncia penal.
Y ese es solo un caso. En Argentina, circuló un video generado con inteligencia artificial (IA) en el que el futbolista Lionel Messi anunciaba su intención de votar por Javier Milei, el entonces candidato de la coalición “La Libertad Avanza” y hoy presidente de Argentina.
En 2023, se difundieron audios falsos de los candidatos a las alcaldías colombianas de Bogotá (Carlos Fernando Galán) y de Sincelejo (Yahir Acuña).
Las herramientas de la inteligencia artificial generativa han sido útiles para mejorar los procesos de elaboración de productos noticiosos. Sin embargo, también tienen el potencial para la producción de altos volúmenes de contenidos de desinformación.
Para autores como Negrete-Huelga, junto con los discursos de odio o el fraude electrónico, la “desinformación es uno de los grandes riesgos de las libertades informativas en la sociedad abierta”. Y de acuerdo con la periodista Elodie Martínez, encargada del departamento de verificación de hechos de Agence France Presse, la desinformación puede desalentar la participación en las urnas, socavar la confianza en el sistema electoral, gestar conflictos poselectorales y desestabilizar a las democracias, además de generar riesgos contra el patrimonio de las personas o, peor aún, provocar la pérdida de vidas humanas.
Ante tal situación, varios países han iniciado procesos de regulación de estas tecnologías, con atención a la desinformación generada a través de la IA.
¿Es posible regular este fenómeno que crece a velocidad inusitada, sin que esto se convierta en un pretexto para implementar leyes que atenten y limiten la libertad de expresión?
¿Qué y quiénes están regulando?
Entre 2016 y 2023 se han modificado o aprobado 91 leyes en todo el mundo con el objeto de combatir la desinformación. En América, se ha legislado al respecto en siete países: Canadá, Estados Unidos, Bolivia, Brasil, Costa Rica, Cuba y Nicaragua. En África la regulación ha llegado a treinta y ocho países, a otros diecinueve en Asia, a nueve en Europa, a tres en Oceanía y a dos en Eurasia.
Entre los países latinoamericanos que han presentado iniciativas para sumarse a estas naciones que ya regulan la IA están Chile, Brasil y México.
No obstante, las regulaciones no siempre son fáciles. Frente al tortuguismo legislativo que implica la búsqueda de consensos entre fuerzas políticas, las tecnologías evolucionan mucho más rápido y, cuando por fin se da una reforma, la ley queda obsoleta muy pronto.
Weidenslaufer y Roberts identifican tres desafíos que deben tomarse en cuenta para legislar con el objetivo de prevenir y limitar la desinformación (sin importar que sea generada a través de IA o con métodos tradicionales):
Uno, que lo regulado esté correctamente definido. Dos, que no se limite la libertad de expresión y, tres, que existan recursos para monitorear y estudiar de forma eficiente el fenómeno y sus evoluciones.
Alfabetización mediática y multas millonarias
En la regulación de la IA, los estudiosos detectan dos enfoques: el punitivo y el preventivo.
En el primero, Roudik distingue a Malasia o Nicaragua, que contemplan penas de prisión, mientras que China, Egipto, Francia, Alemania, Israel y Rusia apuestan por la aplicación de multas.
En el preventivo están Suecia y Kenia, que han preferido impulsar programas de alfabetización mediática, y Reino Unido, que ha adoptado programas automatizados para desmentir noticias falsas.
En Alemania, la NetzDG (Ley de Aplicación de Redes, en vigor desde enero de 2018) permite a los usuarios presentar quejas cuando detectan discursos de odio, con lo que las empresas están obligadas a eliminar los contenidos en menos de 24 horas, so pena de multas que van de 500 mil a 50 millones de euros. Esta norma ha sido criticada porque el temor a las sanciones provoca que se eliminen publicaciones que no lo ameritaban.
En Francia, la norma que combate las noticias falsas establece plazos de cuarenta y ocho horas para frenar “información falsa o engañosa que pueda adulterar el sentido del voto”.
Una vía posible
Un enfoque intermedio, entre la mano dura y la laxitud, es el que puede surgir del consenso entre autoridades y empresas. Un ejemplo es el Código de buenas prácticas sobre desinformación de la Unión Europea (UE), a través del cual se ha gestionado la firma de compromisos y estrategias de autorregulación.
Este enfoque es descrito por Weidenslaufer y Roberts como un “diálogo constructivo entre las empresas tecnológicas líderes y las autoridades gubernamentales para formular y adoptar medidas regulatorias”. Hasta ahora se han logrado 44 compromisos y 128 medidas específicas.
No podemos ser ingenuos al pensar que las empresas tecnológicas van a cumplir todos los compromisos. Como alguna vez me dijo un buen amigo: “No hay león que de la noche a la mañana se convierta en vegetariano”. Por ello, el modelo se complementa con un sistema de monitoreo y evaluación, para darle seguimiento a los indicadores y metas.
La tecnología puede ser un antídoto
La Relatoría Especial para la Libertad de Expresión de la Comisión Interamericana de Derechos Humanos ha reconocido que la desinformación es un fenómeno que preocupa, pero también recomienda cautela en las respuestas del Estado y desaconseja las medidas inhibitorias, como multas económicas o cárcel.
En términos de prevención y combate a la desinformación se requiere un enfoque activo y hay que utilizar las mismas soluciones tecnológicas como antídoto. Una estrategia clave consiste en aprovechar las habilidades y capacidades de todos los actores, sectores y niveles.
Y que los consensos no queden solo en promesas que se lleva el viento. O, mejor dicho: que no sean tan efímeras como un tuit.
(*) Investigador de la Maestría en Periodismo Digital de la Universidad de Guadalajara, México (Tomado de Rebelión)