
“Efecto dormidina” vs responsabilidad de la información
Para todos aquellos que crecimos en el mundo antes de que existiera Google, la información debía ser veraz como axioma principal y además, debía contrastarse. Hoy día, sabemos que esta verdad inmutable se ha transformado como ocurre con la energía que ni se crea, ni se destruye dando paso a la era de: “Hábleme en imágenes, por favor”, lo verbal, lo vocal y lo visual. Una forma rápida de consumir contenidos sin mucho esfuerzo, pero con un gran riesgo.
La desinformación no es un fenómeno nuevo, pero su impacto se ha amplificado con el auge de internet y las redes sociales. Según un informe de la Universidad de Oxford, las campañas de manipulación digital han sido identificadas en al menos 81 países, utilizando bots, perfiles falsos y redes coordinadas para influir en la opinión pública.
Uno de los casos más emblemáticos es el de las elecciones presidenciales de EE.UU. en 2016, donde Rusia utilizó redes sociales para difundir información falsa con el fin de influir en los votantes. También en Brasil, durante las elecciones de 2018 y 2022, se detectó el uso masivo de WhatsApp para la propagación de noticias falsas. Es por ello que la tecnología no goza de buena prensa pero realmente hay que analizar el “efecto dormidina” que está produciendo el consumo masivo de los contenidos en redes sociales, produciendo un adormecimiento de las neuronas y de la capacidad crítica de las personas.
Y ¿qué papel juega la Inteligencia Artificial en todo ello?
Las plataformas digitales como Facebook, X, antes Twitter y TikTok utilizan algoritmos diseñados para maximizar el tiempo de permanencia de los usuarios en sus aplicaciones. Esto ha provocado que los contenidos más virales, independientemente de su veracidad, se amplifiquen rápidamente. Según un estudio del MIT, las noticias falsas se difunden hasta seis veces más rápido que las verdaderas.
Estos algoritmos han sido criticados por incentivar la polarización y la creación de burbujas informativas donde los usuarios solo reciben contenido que refuerza sus creencias previas, dificultando la discusión informada.
Sin embargo, estos ejemplos no son la práctica común de las empresas que desarrollan soluciones o plataformas basadas en IA pero sí son los que impactan en la reputación de éstas haciéndolas poco “friendly” para el resto de organizaciones y la sociedad, dividiéndola como si se tratara de la hinchada de un equipo de futbol antes de un partido: “amantes y detractores” de la IA.
Estas empresas tecnológicas deben adoptar medidas más proactivas, como mejorar sus algoritmos para priorizar contenido verificado y colaborar con verificadores de hechos independientes. Además, se deben imponer sanciones económicas a las plataformas que permitan la difusión de desinformación a gran escala.
Retos Éticos en la Gobernanza de los Datos
Uno de los mayores desafíos éticos es la recopilación masiva de datos personales sin el consentimiento explícito de los usuarios. El caso de Cambridge Analytica, en el que se accedió a información de millones de usuarios de Facebook sin su permiso para influir en elecciones, puso de manifiesto la falta de controles efectivos sobre el uso de datos.
Las regulaciones como el Reglamento General de Protección de Datos (GDPR) en la Unión Europea han sido un avance significativo, pero aún existen vacíos legales en muchos países que permiten la explotación de datos de manera abusiva sin garantizar la privacidad y seguridad de los datos. Y no es sólo que el exceso de regulación aminore la ventaja competitiva de las empresas que tiene que competir en un mercado global, es que debería ser un principio universal: Privacidad y consentimiento en el uso de los datos.
En 2023, Twitter (ahora X) eliminó gran parte de su equipo de moderación de contenido, lo que propició un aumento de la desinformación y el discurso polarizado en la plataforma. Casos como estos subrayan la necesidad de regulaciones más estrictas, globales y de mayor responsabilidad corporativa.
Las tecnologías de IA han permitido la creación de "deepfakes", videos generados artificialmente que pueden manipular la realidad. En la política, se han utilizado deepfakes para desacreditar a candidatos y funcionarios. Un informe de Deeptrace Labs señala que el 98% de los videos deepfake en internet son de naturaleza pornográfica y, en su mayoría, dirigidos a mujeres, lo que representa un nuevo desafío en la protección de los derechos digitales.
La manipulación informativa ha demostrado ser una herramienta efectiva para influir en procesos democráticos, durante la pandemia con la desinformación sobre vacunas y tratamientos alternativos sin respaldo científico generó confusión y desconfianza en la población. La OMS clasificó este fenómeno como una "infodemia", destacando la necesidad de mecanismos efectivos para combatir la propagación de noticias falsas en temas de salud pública.
La gobernanza de los datos en la era digital es un reto multidimensional que requiere la colaboración de gobiernos, empresas y sociedad civil. Solo estableciendo marcos regulatorios más estrictos y globales podremos garantizar la transparencia en el uso de los datos y mitigar los efectos negativos de la desinformación, proporcionando un ecosistema digital más seguro y transparente.
Artículos relacionados:
-Cómo transformar con IA proyectos de sostenibilidad en éxitos escalables, Sandra Asenjo
- El rol de la inteligencia artificial en la formación de una conciencia global, Sergio Ramírez
- Inteligencia Artificial para la preservación de la biodiversidad, José Ruiz Rojas