Publicado el
Imagina que un algoritmo determina si recibes un préstamo, si consigues un empleo o cuántas horas de cuidado médico necesitas. No es ciencia ficción: ya está sucediendo. En Arkansas, Estados Unidos, un error de codificación en un algoritmo redujo injustificadamente la cobertura de salud para pacientes con parálisis cerebral, asignándoles menos horas de cuidados intensivos de las que realmente necesitaban.
IA inclusiva y sostenible: ¿Quién decide qué salvar y a quién priorizar?

En el otro extremo, sistemas de inteligencia artificial ayudan a diagnosticar enfermedades con una tasa de error de solo 0.5% cuando se combinan con el criterio humano, frente al 3.5% de los médicos trabajando solos.

Esta dualidad define el momento que vivimos: la IA puede ser la herramienta más poderosa para democratizar oportunidades o el instrumento más sofisticado para profundizar desigualdades. Y aquí está la pregunta urgente que debemos responder como sociedad: ¿quién decide qué problemas merece resolver la IA y a quiénes beneficia primero?

La carrera por ganar los juegos de la IA

Los números revelan que se espera que la IA alcance un valor de mercado de 4.8 billones de dólares en 2033, multiplicando por 25 su valor de 2023. Sin embargo, solo 100 empresas —principalmente de Estados Unidos y China— representan el 40% del gasto mundial en investigación y desarrollo. Gigantes como Apple, Nvidia y Microsoft tienen cada uno un valor de mercado de aproximadamente 3 billones de dólares, rivalizando con el PIB de todo el continente africano.

Esta concentración de poder tecnológico plantea una pregunta fundamental: ¿quién programa las prioridades? Cuando un puñado de corporaciones controla la infraestructura, los datos y el talento que alimentan la IA, inevitablemente sus valores, sesgos y objetivos comerciales se codifican en los sistemas que utilizan millones de personas.

La Conferencia de las Naciones Unidas sobre Comercio y Desarrollo (UNCTAD) advirtió en abril de 2025 que "si la IA se distribuye de forma desigual y no se guía por la supervisión ética y la transparencia, su difusión puede exacerbar las desigualdades existentes". No es una posibilidad abstracta: es una tendencia que ya estamos observando.

De sesgos invisibles y destinos

Los algoritmos aprenden de datos históricos, y cuando esos datos reflejan prejuicios sociales, la IA no solo los replica: los amplifica. El informático Joseph Weizenbaum, pionero crítico de la IA en la década de 1960, ya advertía sobre las implicaciones éticas de automatizar decisiones sin cuestionar los sesgos implícitos en nuestros sistemas.

Hoy, esos sesgos tienen consecuencias tangibles:

  • En el empleo: Algoritmos de selección laboral favorecen ciertos perfiles demográficos en detrimento de otros, perpetuando exclusiones históricas.
  • En la salud: Sistemas predictivos pueden negar coberturas o servicios basándose en patrones discriminatorios aprendidos de datos sesgados.
  • En la justicia: Herramientas de reconocimiento facial muestran tasas de error significativamente mayores en personas de piel oscura.
  • En el acceso financiero: Algoritmos bancarios pueden denegar préstamos de manera sistemática a determinados grupos sociales.

Como señala la UNESCO en su análisis sobre dilemas éticos en IA, cuando un vehículo autónomo debe elegir entre salvar a una persona anciana o a un niño en una situación de emergencia, ¿quién programa esa decisión? ¿Con qué criterios éticos? ¿Quién supervisa que esos criterios sean justos? Y no se trata aquí de discutir sobre el dilema del tranvía, en el que se acciona ese cambio de agujas para la toma de decisiones en función de principios o virtudes de la Ética aplicada, se trata de un análisis que debemos explorar con la profundidad que se merece.

El Dilema del desarrollo desigual

Mientras en países industrializados se debate cómo regular la IA, en gran parte del mundo la conversación es más básica: cómo acceder a ella. Con la mitad de la población mundial sin conexión estable a internet, la brecha digital amenaza con convertirse en un gran abismo.

La falta de diversidad en los equipos de desarrollo tecnológico agrava el problema. Una visión limitada desde Silicon Valley o Shenzhen diseña soluciones para contextos específicos que luego se exportan globalmente, ignorando realidades locales, idiomas con pocos recursos digitales y necesidades particulares de comunidades marginadas.

Sin embargo, aquí emerge una posibilidad: la IA también puede ser una herramienta de emancipación si se diseña desde y para la diversidad.

Frente a este panorama complejo, surgen iniciativas que demuestran otro camino posible:

Gobernanza Global Participativa: Este año 2025, los Estados miembros de la ONU adoptaron el Pacto para el Futuro y el Pacto Digital Global, estableciendo compromisos para mejorar la gobernanza internacional de la IA. La Unión Europea lidera con su AI Act, que exige transparencia, trazabilidad y rendición de cuentas. América Latina lanzó la Declaración de Cartagena de Indias (2024), donde 18 países se comprometieron a fortalecer la gobernanza ética de la IA de manera regional, reconociendo que los marcos internacionales deben reflejar las particularidades de cada región.

Aplicaciones con impacto social real

La IA ya está generando transformaciones positivas cuando se orienta correctamente:

En salud: El proyecto Antibiogo, desarrollado por Médicos Sin Fronteras, combate la resistencia a los antibióticos usando IA, con potencial de salvar 10 millones de vidas para 2050. En Brasil, el sistema LAURA utiliza IA para identificar pacientes con riesgo de sepsis y reducir muertes evitables mediante intervención temprana.

En educación: El proyecto TutorIA en España integra chatbots y sistemas de recomendación en aulas de Formación Profesional, permitiendo que estudiantes personalicen su experiencia educativa mientras aprenden sobre las herramientas que están transformando su campo.

En acción climática: Herramientas de IA ayudan a empresas a calcular sus emisiones de carbono y diseñar estrategias para alcanzar emisiones cero, mientras que en agricultura optimizan el uso de recursos y mejoran la productividad de manera sostenible.

La sostenibilidad como imperativo ético

El desarrollo de IA generativa enfrenta un desafío ambiental crítico: su consumo energético podría duplicarse para 2030. Un solo entrenamiento de modelos grandes puede generar emisiones equivalentes a las producidas por varios automóviles durante su vida útil completa.

La respuesta viene de múltiples frentes: modelos de lenguaje más compactos y eficientes (Small Language Models), IA neuromórfica que imita la eficiencia del cerebro humano, y centros de datos alimentados con energías renovables. España, a través de su Estrategia Nacional de Inteligencia Artificial, destina cerca de 1.500 millones de euros a desarrollar una IA sostenible y centrada en la ciudadanía.

Cinco principios para una IA que ponga a las personas en el centro

Basándonos en los marcos éticos desarrollados por la UNESCO, la UE y diversas iniciativas regionales, emergen principios fundamentales:

1. Transparencia y explicabilidad

Los algoritmos deben poder explicar sus decisiones. La "caja negra" es inaceptable cuando afecta a los derechos fundamentales. Como propone el decálogo de la European Association for Quality Assurance in Higher Education (ENQA), necesitamos transparencia algorítmica y supervisión humana obligatoria en decisiones críticas.

2. Equidad y no discriminación

Es imperativo realizar auditorías de algoritmos antes de implementarlos, examinar los conjuntos de datos en busca de sesgos demográficos, culturales o históricos, y fomentar equipos de desarrollo diversos que aporten múltiples perspectivas desde el diseño.

3. Privacidad y dignidad humana

Los datos personales deben protegerse mediante encriptación y anonimización. Las personas deben tener control sobre su información y entender cómo se utiliza. El Reglamento General de Protección de Datos de la UE marca el camino, pero debe complementarse con educación digital ciudadana.

4. Control y responsabilidad

La IA debe amplificar capacidades humanas, no reemplazar el juicio humano en decisiones fundamentales. Debe existir siempre un responsable humano identificable cuando un sistema de IA toma decisiones que afectan a las personas.

5. Accesibilidad universal

Los avances en IA deben beneficiar a toda la humanidad, no solo a países altamente industrializados. Esto requiere inversión en infraestructura digital, desarrollo de capacidades locales y cooperación para compartir conocimientos y recursos.

La pregunta con la que iniciamos este artículo —¿quién decide qué salvar y a quién priorizar?— no tiene una respuesta técnica. Es una pregunta profundamente política, ética y social.

La buena noticia es que aún estamos a tiempo de diseñar el futuro que queremos. La IA no es un destino inevitable hacia la desigualdad ni una panacea automática para todos los problemas. Es una herramienta, y como toda herramienta, su impacto depende de quiénes la diseñan, con qué valores y para qué fines.

¡Comparte este contenido en redes!

Este sitio utiliza cookies de terceros para medir y mejorar su experiencia.
Tu decides si las aceptas o rechazas:
Más información sobre Cookies