Publicado el
Vende Sam Altman, CEO de OpenAI y adalid de la ambición sin límite de las big tech, a potenciales inversores en nada menos que Arabia Saudí, que necesita una inversión de 7 billones de dólares para desarrollar una inteligencia artificial general que sea capaz de no tener las famosas alucinaciones que hacen que su comportamiento a veces sea ciertamente menos inteligente que el mostrado por un niño de 5 años.
Por una IA ética y justa con los colectivos vulnerables

Sin embargo, la estrategia seguirá siendo la misma, añadir más madera y construir un modelo estadístico mayor que seguirá sin ser capaz de entender absolutamente nada, sino que será un procesador de información más grande. Y me pregunto yo: ¿que podríamos hacer como especie humana por la gente más necesitada que nos acompaña en esta aventura de la vida con un presupuesto de nada menos que de 7 billones? Por si le marea la cifra, le recuerdo que el PIB de España actual es de 1,42 billones. Vamos, que Sam quiere invertir casi 5 veces el PIB español en obtener un producto con una arquitectura de base que parece tremendamente mejorable bajo la excusa de que la inteligencia artificial general que va a obtener va a mejorar la vida de todos.

Aquellos que me conocen saben que soy un optimista nato en el desarrollo tecnológico, pero, evidentemente, esta tecnología debe estar en buenas manos y debemos saber en qué invertir: si en una tecnología que realmente va a mejorar la vida de las personas que más lo necesitan y las más vulnerables o si en una tecnología que va a enriquecer a unos pocos para hacer al resto dependiente de su uso. Sin duda, este segundo escenario me produce vértigo. Y es que, realmente, una inteligencia artificial general al servicio público de toda la humanidad por una especie de organización similar al CERN pero dedicada a la inteligencia artificial podría ser una buena idea. Pero es que lo que tenemos ahora no es ni público o internacional, ni está al servicio de los más vulnerables, sino que perpetua sesgos cargados de estereotipos que hacen a estos colectivos aún más vulnerables. Además, para colmo, no es nada, pero nada en absoluto inteligente.

Para que me entiendan por qué digo que pese al comportamiento exhibido por esta “IA generativa” estos sistemas lo son todo menos inteligentes, prueben a preguntar a la versión de pago de ChatGPT que les pinte “una habitación sin ningún elefante, absolutamente sin ningún elefante” o bien pídanle “que les pinte un reloj a las 9:50”. Para el primer caso, les pintará una habitación con un elefante mientras que, para el segundo, les pintará un reloj a las 22:10, tal y como internet está plagado de relojes. Por supuesto, para generación no solo de imágenes con DALLE-3 o de texto con ChatGPT, sino de video con el nuevo modelo SORA que han liberado, encontraremos de nuevo replicados los mismos problemas.

La estadística con esteroides, en palabras del científico Ilya Sutskever de OpenAI, entrenada con datos que nosotros le proporcionamos, jamás será capaz por si sola, y me permito la libertad de decirlo abiertamente, sin rudimentarios sistemas enormes de almacenamiento de información veraz denominados Retrieval Augmented Generation (RAG), de determinar qué información es cierta o tiene sentido en el mundo real. Estos métodos son solo capaces, eso sí con una flexibilidad impresionante, de generar la información más verosímil en base a la información con la que se han entrenado. Pero, no confundamos verosimilitud con veracidad. En este mundo en el que vivimos hoy en día debemos reflexionar sobre qué nos importa más: si la cantidad o la cantidad, si las fake news o el conocimiento científico, si el bulo o la verdad, si la verosimilitud o la veracidad.

Estos son los sesgos con respecto a la realidad de los cuáles pecan, y pecarán, los actuales sistemas de IA generativa, ya que en el fondo son meros modelos estadísticos cuyo texto generado, dado un prompt que introduces, es la información que se estima más verosímil con base en los datos con los que se ha entrenado. Y ya les aseguro que esos datos están llenos de sesgos que perpetúan los estereotipos más comunes de la sociedad e ignoran aquellos que, ya lo habrán adivinado, puedan ser representativos de los colectivos más vulnerables. Estos sesgos muchas veces son muy sibilinos, no siendo tomados en cuenta por la política de contenido de las empresas Big Tech.

Encontramos por ejemplo, en la generación de texto e imágenes, sesgos edadistas que asignan roles específicos a personas en determinados intervalos de edad ignorando generalmente a la tercera edad: ¿quién ha dicho que un culturista debe necesariamente tener entre 20 y 50 años?; sesgos culturales que asignan una mayor probabilidad a la cultura occidental frente a otras culturas: ¿por qué una boda debe necesariamente ser católica y no, por ejemplo, budista?; sesgos hacia la discapacidad: ¿por qué un autista tiene más probabilidades de ser programador que de cualquier otro empleo cuando el autismo en cada persona es diferente?. Si se fijan, no he entrado ni en machismo ni en racismo, y no por no ser importantes, sino para ilustrarles que la discriminación afecta a muchísimos más colectivos vulnerables y que la lista es enorme. Pero si quieren ver reproducidos estos sesgos, pregunten a la versión pública de GPT-2 disponible en la página web Hugging Face (https://huggingface.co/) por un lado “la profesión del hombre blanco es” y por otro lado “la profesión de la mujer negra es”. El resultado, cuanto menos, asusta.

La buena noticia es que los sesgos mencionados en el anterior párrafo pueden ser mitigados mediante lo que se conoce como técnicas de IA justa (AI fairness) o IA y ética. El abanico de técnicas que consiguen mitigar estos sesgos es tan grande como la propia lista de sesgos. Un ejemplo de técnica centrada en IA justa hace que al optimizar los parámetros de los modelos de IA se penalicen los valores que hacen que una variable seleccionada como vulnerable o protegida se vea afectada. Por ejemplo, si los datos hacen que un modelo obtenga que el riesgo de impago de unas personas que viven en un determinado barrio es superior al riesgo de impago de personas que vivan en otro barrio, entonces, un modelo estadístico (me resisto a llamarlo inteligente) usará la variable barrio para predecir mayor riesgo de impago a las personas que residan en el barrio vulnerable. Mediante IA justa, la función a optimizar se vería penalizada si se añade la variable barrio vulnerable, lo que haría que el modelo resultante no se centrase en el barrio vulnerable, sino que su criterio sea más heterogéneo, contemplando un mayor número de variables y no solo usando una variable para su predicción. Con ello, la IA al predecir no cometería potenciales injusticias con la gente del barrio vulnerable o haría que fuera prácticamente imposible obtener un crédito en ese barrio, haciendo del barrio un lugar cada vez peor. Ahora sustituyan barrio por cualquier otra variable que imaginen y piensen en las consecuencias de no pensar un poco en la ética a la hora de entrenar estos modelos.

Sin embargo, las big tech no hacen más que despedir a equipos enteros de IA y ética. ¿Por qué? Porque IA justa e IA que despliega un gran rendimiento, como en el ejemplo que hemos visto previamente, son los dos lados de una balanza. Mejorar la ética de una IA implica que su rendimiento, de acorde a métricas meramente cuantitativas, decrece. Quizá el riesgo de impago estaba bien estimado y la situación actual de ese barrio genera muchos casos de impago, pero si la solución que ofrece la tecnología es, en vez de colaborar a solucionar un problema social, agravarlo, entonces, yo no quiero esa tecnología. La tecnología más allá de sofisticación es un mecanismo para traducir intenciones a actos, y son las intenciones las que entienden de bien o mal, no la tecnología, que de por si es solo una herramienta para hacerlas realidad. Como la realidad de muchas de las Big Tech es la de generar beneficios, parece que esa es la razón por la que las que estas corporaciones no están especialmente interesadas en la ética.

No obstante, os aseguro que el común de los mortales, como yo o usted, cuyo interés no esté ligado al de estas compañías sí que está interesado en preservar su bienestar. Y también le puedo asegurar que se sorprendería comprobar que probablemente pertenezca usted, o un conocido suyo, a uno de los innumerables colectivos vulnerables que la IA está plagando de estereotipos. Al final, la clave es que nuestra sociedad muestre a estas compañías un rechazo social suficiente ante sus acciones como para que reconsideren su misión y valores e incorporen técnicas de justicia en la IA. Porque solo así Sam Altman, Elon Musk y sus amigos realmente llenarán sus equipos de trabajadores encargados de desarrollar no solo una IA de gran rendimiento, sino una IA ética y justa con los colectivos vulnerables.

Artículos relacionados: 

-¿Nuevo humanismo o profunda crisis? -Juan Benavides Delgado

-La esperanza regulatoria en sostenibilidad: más dudas que certezas- Joaquín Fernández Mateo

- ¿Sostenibilidad o Statu Quo? La difícil elección que definirá nuestro futuro- Joaquín Fernández Mateo

-Consejos de administración, diversidad de género y sostenibilidad- Inés Gomis

-ChatGPT y la perpetuación de la desigualdad- José Antonio Vega Vidal

-Jose Antonio Vega Vidal-Sentido y sostenibilidad

- Javier Barraca - Humanismo para una formación fecunda del profesional (I)

- Javier Barraca -Humanismo para una formación fecunda del profesional (II)

-Lo humano ahora carece de significado - Juan Benavides Delgado

-El desafío bioético de la mejora cognitiva: reflexiones filosóficas para un posthumanismo responsable- Joaquín Fernández Mateo 

-Humanismo orgánico en el siglo XXI (I)- José Manuel Vázquez Díez

-Apuntes sobre la familia empresaria y la empresa familiar - Pablo Álvarez de Linera Granda

-Humanismo orgánico en el siglo XXI (II)- José Manuel Vázquez Díez

-Los valores de la familia empresaria en el marco de los stakeholders- Pablo Álvarez de Linera Granda

-Humanismo orgánico en el siglo XXI (III)-José Manuel Vázquez Díez

-Familia empresaria, empresa familiar y valores- Pablo Álvarez de Linera Granda

-Tecnología e Inteligencia Artificial para un nuevo Humanismo- José Luis Fernández Fernández

-El impacto de la IA en la mentalidad de las personas (I) - Juan Benavides Delgado

- Humanismo orgánico en el siglo XXI (IV)- José Manuel Vázquez Díez

-El impacto de la IA en lo que somos como sociedad (II)- Juan Benavides Delgado

-Sobre la influencia de la IA en la vida del sujeto humano concreto: una pregunta en primera persona- Javier Barraca

-IA y la capacidad de sentir- Herán Cortés Soria

-Inteligencia Artificial Generativa, reto y oportunidad para la humanización- José Luis Fernández Fernández

-Transmisión de valores en el seno de la familia empresaria y de la empresa familiar-Pablo Álvarez de Linera Granda 

- Consideraciones antropológicas respecto al Saber: La capacidad humana para formular preguntas y la Inteligencia Artificial Generativa- José Luis Fernández Fernández 

-El impacto de la IA en la comprensión de la persona humana (III)- Juan Benavides Delgado

En este artículo se habla de:
OpiniónsostenilidadInteligencia artificial

¡Comparte este contenido en redes!

Diploma “Digitalización y Sostenibilidad”
 
Este sitio utiliza cookies de terceros para medir y mejorar su experiencia.
Tu decides si las aceptas o rechazas:
Más información sobre Cookies