Publicado el
ChatGPT y la perpetuación de la desigualdad

Hace unos días salía a la luz la noticia de que Bloomberg había creado un modelo de lenguaje similar a ChatGPT que estaba entrenando con la información de su base de datos. Hasta aquí nada distinto de lo que otros muchos pueden estar haciendo con su información y sus bases de datos en estos días alrededor de todo el mundo. Pero al hilo de esta noticia se me planteaba la siguiente cuestión: ¿Qué ocurriría si la información deja de ser pública per se y se convierte en un elemento de entrenamiento para el lenguaje de procesamiento que ya no será público?, es decir, ¿no se daría una ventaja incomparable a quien tenga acceso al nuevo modelo de análisis frente a los demás? ¿estamos ante un nuevo monopolio del conocimiento?

El concepto de ventaja competitiva lleva entre nosotros desde que el Prof. Michael Porter lo formalizase en los años 80 y, su definición nos deja claro que establece una ventaja frente a los competidores. Si lo anterior lo combinamos con una innovación disruptiva, la que causa cambios drásticos y radicales, que describió el Prof. Clayton Christensen a mediados de los 90 y, le sumamos algunos ingredientes de la teoría de los mercados y del monopolio como pueden ser la existencia de barreras de entrada, el panorama puede ser un tanto alarmante. Me viene a la mente algo que nos decía el Prof. Pablo Fernández y que usaba como recurso con sus estudiantes para encaminar el análisis de algún caso práctico. Le parafraseo diciendo que: “el mundo se va a dividir en dos tipos de personas”, aquellos con acceso pleno a ChatGPT (o similares), su desarrollo y evolución; y los que no tengan acceso a ello.

Claro, cuando se piensa en una tecnología que permite reducir en algunos negocios el número de trabajadores a la mínima expresión (e.g. Domestika), que simplifica los procesos de atención (e.g. aseguradoras para siniestros), que no se cansa ni aburre (e.g. análisis de productividad) y que eventualmente podría estar redactando este artículo en menos tiempo que el lector tarde en tomarse un café (no es el caso), la cuestión comienza a tomar tintes peligrosos. Y si además pensamos que quienes dispongan de más medios podrán disponer de mejores soluciones para seguir manteniendo su ventaja, si no aumentándola, la cuestión como decía antes se vuelve preocupante.

Los que hemos encontrado en la ciencia ficción un reducto para explorar los límites del conocimiento y hemos seguido cómo alguna ficción mutaba en realidad, encontramos que esta nueva tecnología abre un interesante proceso de decisión. En la valoración de opciones reales usamos árboles de decisión o sistemas binomiales que ayuden a valorar las opciones. Pues bien, le plateo, amable lector, el siguiente reto. Tome una hoja en blanco y cree un árbol con dos ramas. En la primera ponga si usted tiene acceso a un lenguaje tipo ChatGPT o no. Segundo nivel del árbol, si ese sistema es suyo o no. Tercero, si los datos que lo han entrenado son suyos o no. Cuarto, si puede explotarlo comercialmente o si depende de terceros para ello. Si ha llegado a este punto ya entiende cuál es mi línea de reflexión. Nuevo sistema, del que no tengo control, entrenado con datos de otros e información pública, que puede procesar la información de manera eficiente y precisa (mejorando con cada evolución) y que si se enlazase a entornos de negocio donde existen ineficiencias podrían beneficiarse de ellas de una manera efectiva y sin preocuparse de cuestiones morales o éticas. Una vez conquistado el mercado no habría objeción para que el siguiente paso fuera el ser humano.

Pongamos, por ejemplo, el caso de una inteligencia artificial (IA) conectada a los sistemas y equipos de un grupo de trabajadores viendo qué hacen, cómo lo hacen, siguiendo sus agendas y eventualmente gestionando su día a día. Disponiendo de información suficiente y de un modelo adecuado nada sería óbice para poder identificar “patrones” de éxito y de fracaso. Y cuanto mayor fuera el colectivo a evaluar mayor sería la capacidad de uso y explotación de la información y su puesta en valor premiando o castigando según los ejemplos dados. Antes se miraba al jefe o al profesor con ojos de Pigmalión. Hoy el nuevo Pigmalión no necesita ojos para ver. Imaginemos otro caso: un trabajador de una planta productiva. Quien no sigue al pie de la letra las instrucciones de seguridad puede ser un riesgo para sí, para otros y para la producción de manera que no habría problema en identificar qué trabajadores presentan patrones de mayor riesgo recomendado su reubicación o eventual amortización para asegurar el mantenimiento de la rentabilidad y seguridad de la empresa. No estoy diciendo que uno u otro caso no se estén haciendo ya con herramientas menos sofisticadas y estructuradas, pero el giro que supone poder hacerlo de manera autónoma, sin preocuparnos de ello hasta que no recibamos los resultados ofrece una posibilidad hasta ahora poco conocida.

Retomo mi pregunta inicial y pregunto: ¿quién podrá beneficiarse de ello? Sólo quien disponga de los recursos técnicos y humanos para poder gestionarlo. Y cuanto más grande sea una organización o un colectivo mayor será la disponibilidad de recursos para invertir en gestionar de esta manera. O ¿acaso piensa usted amable lector que será lo mismo un gran despacho de abogados con una IA ayudando en el análisis de casos, legislación, precedentes y alternativas adecuadas a cada perfil de juez o jurado, que un pequeño abogado que se instala en su oficina y que con esfuerzo paga el acceso a la base de datos de legislación más económica? Creo haber dado pistas de mi opinión al respecto por lo que no insistiré sobre ella.

Pero no seamos catastrofistas. Vivimos en un mundo en constante cambio “mutatis mutandi” (cambiando lo que hacía falta ser cambiado), y lo importante es que seamos capaces de encontrar capacidades, valores y oportunidades de hacer mejor las cosas subidos, cuando sea posible, a hombros de gigantes como escribió Juan de Salisbury (Nos sumus sicut nanus positus super humerus gigantis, Metalogicon, 1159). El proceso de conocimiento y desarrollo del ser humano nos llevará a donde sea preciso, pero es fundamental no olvidarnos de la palabra clave: humano.

Artículos relacionados: 

-¿Nuevo humanismo o profunda crisis? -Juan Benavides Delgado

-La esperanza regulatoria en sostenibilidad: más dudas que certezas- Joaquín Fernández Mateo

- ¿Sostenibilidad o Statu Quo? La difícil elección que definirá nuestro futuro- Joaquín Fernández Mateo

-Consejos de administración, diversidad de género y sostenibilidad- Inés Gomis

En este artículo se habla de:
OpiniónInteligencia artificialChatGPT

¡Comparte este contenido en redes!

Diploma “Digitalización y Sostenibilidad”
 
Este sitio utiliza cookies de terceros para medir y mejorar su experiencia.
Tu decides si las aceptas o rechazas:
Más información sobre Cookies