
La inteligencia artificial (IA) avanza a un ritmo vertiginoso, pero no sin riesgos. El Alto Comisionado de Naciones Unidas para los Derechos Humanos ha lanzado una advertencia clara: si quienes diseñan estas tecnologías no comprenden a fondo los principios éticos y sociales que deben guiarlas, podrían crear sistemas fuera de control, con consecuencias graves para la sociedad.
Durante su intervención en la Cumbre sobre el Impacto de la IA celebrada en Nueva Delhi, Volker Türk recurrió a una metáfora contundente para ilustrar el momento actual. Comparó el desarrollo irresponsable de la IA con “el monstruo de Frankenstein”, una creación que termina escapando del control de su creador. “Si no eres consciente de los peligros y los riesgos, puedes causar estragos”, advirtió.
Según explicó, uno de los principales desafíos es el riesgo de que la inteligencia artificial reproduzca —e incluso intensifique— las desigualdades existentes. La procedencia de los datos y la diversidad de quienes programan estos sistemas resultan determinantes.
Si los algoritmos se entrenan únicamente con información de determinadas regiones del mundo o si los equipos de desarrollo carecen de diversidad, los sesgos —muchas veces inconscientes— pueden quedar incorporados en la tecnología. Esto afecta especialmente a colectivos vulnerables y minorías que históricamente han quedado fuera de los procesos de innovación tecnológica.
El Alto Comisionado subrayó la importancia de que el desarrollo de estas herramientas no se concentre en unos pocos polos de poder, sino que incorpore perspectivas diversas y garantice una participación más amplia a escala global.
Türk también alertó del peligro de liberar tecnologías sin mecanismos de control adecuados, comparando la situación con “dejar salir el genio de la botella”. Como ejemplo, mencionó el caso de Myanmar, donde las redes sociales amplificaron mensajes de odio contra la población rohinyá, con consecuencias devastadoras.
Además, advirtió del impacto de la desinformación en la calidad democrática y la cohesión social. Los entornos digitales pueden fomentar dinámicas de polarización extrema, donde cada persona queda encerrada en su propia burbuja informativa. A ello se suma, según señaló, un aumento preocupante de la misoginia en internet, hasta el punto de que algunas mujeres se plantean abandonar la política debido a la violencia que sufren en redes sociales.
Para evitar estos escenarios, el responsable de derechos humanos de la ONU defendió la necesidad de establecer reglas claras y exigentes. Comparó la regulación de la IA con el control que existe en la industria farmacéutica: antes de comercializar un medicamento, se exige una evaluación rigurosa de sus posibles efectos.
En esta línea, sostuvo que las empresas tecnológicas deberían realizar evaluaciones de impacto en derechos humanos en todas las fases de diseño, lanzamiento y comercialización de sistemas de inteligencia artificial. Recordó que algunas compañías del sector manejan presupuestos superiores a los de muchos Estados, lo que les otorga un enorme poder de influencia global.
Ese poder, señaló, puede orientarse hacia fines positivos como la salud, la educación o el desarrollo sostenible, pero también puede emplearse para aplicaciones dañinas, desde armas autónomas hasta la propagación de discursos de odio y desinformación.
Mirando hacia el futuro, Türk planteó una visión alternativa: un modelo de inteligencia artificial basado en el desarrollo inclusivo, donde el conocimiento y la innovación no estén concentrados en un pequeño grupo de empresas de América del Norte, sino que reflejen la diversidad cultural y social del planeta.
Sin una hoja de ruta clara hacia un uso responsable y equitativo, advirtió, el mundo podría enfrentarse a mayores niveles de polarización e incluso a conflictos que escapen al control humano.
En un contexto marcado por la crisis climática, la desigualdad y la fragilidad democrática, el debate sobre la gobernanza de la IA ya no es solo tecnológico. Es, sobre todo, una cuestión de derechos humanos, justicia social y sostenibilidad.