Publicado el
La inteligencia artificial no es ciencia ficción. Creo que este axioma lo tenemos claro. Hemos vivido ya diferentes olas digitales y evoluciones tecnológicas que nos han hecho darnos cuenta de que no se trata de futuro sino de presente.
Gobernanza algorítmica: ¿quién regula la IA cuando toma decisiones y qué impacto tiene?

Mientras leemos estas líneas, algoritmos están decidiendo qué contenido vemos en redes sociales, si nos aprueban un crédito bancario, cuánto pagamos por un seguro de auto...Pero cuando estos sistemas comienzan a tomar decisiones que afectan al futuro de nuestro planeta, surge una pregunta urgente: ¿quién está al volante?

La revolución de las máquinas

Hoy en día, cualquier sistema, sector e industria es un candidato potencial de contar con diferentes técnicas de IA: en la gestión de redes eléctricas nacionales (seamos buenos y no pensemos en el día D- el “apagón”), optimización de rutas, análisis de patrones para el estudio del comportamiento, de modelos de negocio y acciones climáticos entre otros. En Wall Street, los algoritmos ejecutan el 70% de las transacciones bursátiles, sí, estáis leyendo bien, moviendo billones de dólares en microsegundos y potencialmente desestabilizando mercados enteros si hay una decisión errónea. Pero no estamos aquí para que cunda el pánico, ni mucho menos. Se habla de la revolución de las máquinas, rescatando el concepto de la revolución industrial cuando el trabajo manual fue sustituido a gran escala por las máquinas para entender el contexto de la importancia de la tecnología en la celeridad actual de procesos, industrias y mercados.

La tecnología avanza a velocidad exponencial, pero nuestros marcos regulatorios lo hacen a paso de tortuga. La mayoría de las leyes que rigen la toma de decisiones automatizada fueron escritas en una era anterior a la IA generativa, cuando los algoritmos eran herramientas predecibles y lineales. Lo que hace pensar en un vacío regulatorio que favorezca acciones poco éticas.

El Reglamento de IA de la Unión Europea, que entró en vigor en 2024, clasifica los sistemas según su nivel de riesgo e impone obligaciones específicas para aplicaciones de "alto riesgo". Sin embargo, su enfoque es principalmente reactivo y las definiciones técnicas se están quedando obsoletas.

Estados Unidos navega entre la innovación y el control: La administración estadounidense ha optado por un enfoque más fragmentado, con órdenes ejecutivas que establecen principios generales, pero dejan la implementación específica a agencias individuales. El resultado es un mosaico de regulaciones que varía según el sector y el estado.

Los países en desarrollo, donde la IA podría tener el mayor impacto transformador en temas como agricultura y gestión de recursos naturales, carecen tanto de la capacidad técnica para entender estos sistemas como del poder político para influir en su desarrollo, con lo que se está dibujando un mapa de diferentes velocidades a nivel digital y tecnológico desde el punto de vista regulatorio, político y económico, dando a lugar a un escenario de sálvese quien pueda y liderando este cambio el que sea más fuerte, el nuevo primo de “Zumosol”.

Los nuevos “guardianes” de la galaxia

En este vacío regulatorio, han emergido actores inesperados que se han erigido como los nuevos "guardianes" de la galaxia o de la gobernanza algorítmica. ¿Quiénes son estos guardianes? En sentido metafórico podríamos definirlos como: “Dícese de aquellos, ya sean organizaciones públicas o privadas, en las que recae (ya sean presentados como protagonistas voluntarios o designados por terceros) la protección y evolución tecnológica como si se tratara del Santo Grial. En esta definición encajan:

  • Las Big Tech u oligarcas tecnológicas: Empresas como Google, Microsoft y OpenAI que no solo desarrollan estos sistemas, sino que también establecen sus propios principios éticos y mecanismos de supervisión. Efectivamente, son corporaciones privadas que están liderando decisiones sobre qué valores deben guiar la IA que afecta a millones de personas.
  • Organismos de certificación privados: Empresas especializadas en auditar algoritmos. Su role es operar como una especie de "inspectores de calidad" para la IA. Hay que tener en cuenta que estos servicios son voluntarios y pagados por empresas que desarrollan los sistemas que luego serán auditados.
  • Instituciones académicas y ONG: Investigadores y organizaciones civiles que intentan llenar el vacío regulatorio con estudios independientes y propuestas de estándares con el objetivo de intentar “dar luz en el mundo de las sombras”. Sin embargo, carecen del poder ejecutivo para hacer cumplir estas recomendaciones.
  • Reguladores sectoriales improvisados: Agencias que tradicionalmente regulaban sectores específicos (energía, transporte, finanzas) que se ven forzadas a improvisar reglas para sistemas de IA sin tener el expertise técnico necesario.

La autorregulación por parte de la industria tecnológica conlleva riesgos significativos ya que los incentivos comerciales no siempre están alineados con el interés público. Además, la complejidad técnica de estos sistemas crea una barrera de conocimiento que permite a los desarrolladores justificar decisiones controvertidas bajo el velo de la "optimización algorítmica" o la "complejidad del machine learning".

Hacia una gobernanza algorítmica

La solución no puede ser puramente nacional. Los sistemas de IA requieren marcos de gobernanza que trasciendan fronteras. Para llegar a ello necesitamos tres pilares fundamentales:

  1. Instituciones híbridas globales: Organismos que combinen expertise técnico, legitimidad democrática y alcance global. Algunas propuestas incluyen un "Consejo Global de Seguridad de IA" bajo Organizaciones Internacionales como Naciones Unidas, o la expansión de organismos existentes como el Panel Intergubernamental sobre Cambio Climático (IPCC) para incluir evaluaciones de impacto algorítmico.
  2. Transparencia algorítmica: Los sistemas que toman decisiones con impacto deben estar sujetos a auditorías independientes y a una transparencia en sus procesos de decisión. Esto no significa revelar secretos comerciales, sino establecer estándares o mecanismos de explicabilidad proporcionales al impacto potencial.
  3. Participación ciudadana informada: La gobernanza de la IA no puede ser solo un asunto técnico. Necesitamos mecanismos que permitan a las comunidades afectadas participar en las decisiones sobre qué valores deben guiar estos sistemas, pero esto requiere de una sociedad con conocimientos marco en tecnología y su impacto. No se trata de abrir este debate a los “opinadores profesionales” que no tienen una opinión formada, pero son los primeros en alzar la voz. Hay que ser conscientes de la magnitud y del impacto, para ello, hay que explicar la IA de manera que todas las personas, independientemente de su formación, lo entiendan. Sólo así podremos hacer una participación inclusiva de la tecnología en la sociedad más allá del “trending topic” del momento. 

Estamos en un momento histórico. Las próximas decisiones sobre cómo gobernamos la IA determinarán si estas tecnologías serán herramientas para construir un futuro más sostenible y equitativo, o si se convertirán en fuerzas incontrolables que amplifiquen las desigualdades existentes.

Artículos relacionados: 

-Cómo transformar con IA proyectos de sostenibilidad en éxitos escalables, Sandra Asenjo

- El rol de la inteligencia artificial en la formación de una conciencia global, Sergio Ramírez

- Ciberseguridad y Sostenibilidad: ¿cómo proteger los datos sin comprometer el planeta?, María Arribas

- Inteligencia Artificial para la preservación de la biodiversidad, José Ruiz Rojas 

- El rol de los datos en la crisis climática: Gobernanza y decisiones basadas en evidencia, María Arribas 

- Cómo las empresas están aprovechando la IA para reducir su huella de carbono y transformar su impacto ambiental, Sandra Asenjo 

- Modelos predictivos para la calidad del aire: herramientas para un futuro sostenible, Jovan Ruiz Rojas 

- El rol de la inteligencia artificial en la lucha contra la deforestación y la restauración de bosques, Sergio Ramírez

- La integración de Inteligencia Artificial en el ciclo de vida del desarrollo de productos, Jovan Ruiz Rojas 

- La IA como herramienta clave para impulsar una producción sostenible sin frenar la innovación, Sandra Asenjo

- Gobernanza de datos en la era digital: retos éticos y sociales, María Arribas

- Inteligencia Artificial responsable: más allá del cumplimiento, hacia un impacto positivo, María Arribas 

- El impacto de la inteligencia artificial en la gestión de residuos y reciclaje, Sergio Ramirez 

- Aprendizaje Continuo: la clave para la sostenibilidad y competitividad empresarial en un mundo en constante cambio, Agustina San Martino 

- Algoritmos Verdes: Hacia una computación eficiente y sostenible, María Arribas 

- Evaluación de proveedores con IA: Construir relaciones éticas y transparentes, María Arribas

- Innovación en el liderazgo profesional: cómo potenciar el desarrollo del talento con IA, María Arribas

¡Comparte este contenido en redes!

Este sitio utiliza cookies de terceros para medir y mejorar su experiencia.
Tu decides si las aceptas o rechazas:
Más información sobre Cookies