Publicado el
Hay titulares que te hacen parar irremediablemente. En un momento en el que el bombardeo de información nos tiene acostumbradas a minimizar el impacto que cualquier cosa que leemos nos provoca, algunos mensajes consiguen derribar todas las barreras.

Así, leer “Por qué hay que prohibir que nos manipulen el cerebro antes de que sea posible” (El País, 12 de febrero de 2020) nos recuerda que vivimos un cambio de época en el que tenemos que definir claramente algunos límites o, quizás, cuando reaccionemos sea demasiado tarde. “Tenemos una responsabilidad histórica. Estamos en un momento en que podemos decidir qué tipo de humanidad queremos”: son palabras de  Rafael Yuste, neurocientífico español, catedrático de la Universidad de Columbia (EE UU) e impulsor de la mayor iniciativa para conocer el cerebro (la iniciativa Brain).

Yuste reclama a los Gobiernos la creación de nuevas leyes frente a los riesgos de la neurotecnología. Y es cierto que, últimamente, este es un tema presente en la agenda pública de manera constante. El Gobierno de Navarra, por ejemplo, ha sometido a exposición pública el primer borrador del Manifiesto ético del uso del dato (La Vanguardia, 8 de febrero de 2020). También acaba de hacerse público el veto de Países Bajos a un algoritmo acusado de estigmatizar a los más desfavorecidos (El País, 13 de febrero de 2020).

Quizás ya no estemos en el momento de pre-ocuparnos, pero sí de ocuparnos. Este fue un tema de debate y reflexión en la mesa “Responsabilidad social ¿Dónde están los límites de la robotización y automatización?” que tuve el placer de moderar el 14 de febrero en el marco del congreso Pick&Pack 2020.

En el debate, Javier Represas (consejero delegado de Kala Investments) dibujó un cambio de paradigma tecnológico social en el que estamos inmersos. Un nuevo contexto en el que “todo aquello que puede hacer una máquina, debe hacerlo una máquina”.

Sin embargo, ante esta afirmación debemos plantearnos cuestiones de fondo que nos ayuden a dibujar el nuevo marco de relaciones que queremos construir. Hace unos meses saltaba a la luz pública uno de los casos que deben encender las alarmas sobre el cuidado de las personas en las organizaciones. Amazon era acusado de dejar el destino de sus trabajadores en manos de los robots, aplicando algoritmos – sin intervención humana – para el despido de trabajadores. Puede hacerlo una máquina, pero ¿debe hacerlo una máquina? ¿solo una máquina?

Nuestra generación vivirá la transición hacia este nuevo paradigma y en nuestras manos está asumir la responsabilidad que ello conlleva.“Allá donde no llegan las personas llega la Inteligencia Artificial. Pero allí donde no llega la Inteligencia Artificial llegan las personas” afirmó en el mismo debate Iago Rodicio, gerente regional para Europa de Parsec Automation corp, compartiendo, también, que las organizaciones que entiendan la necesidad de integrar visiones humanistas en sus modelos de negocio generarán importantes ventajas competitivas.

Posiblemente, si además de incorporar algoritmos en las decisiones empresariales estos fueran complementados por la intervención de personas encargadas de velar por los valores humanistas el resultado sería diferente. O no, pero al menos habríamos ejercido nuestra responsabilidad de velar por ellos.Nadie tiene las respuestas, pero debemos hacernos preguntas. Porque seguramente es allí donde no llega la Inteligencia Artificial y sí lo hacemos las personas: a cuestionarnos si estamos teniendo en cuenta la perspectiva ética en nuestros procesos de toma de decisiones. Y a obrar en consecuencia.

¡Comparte este contenido en redes!

Este sitio utiliza cookies de terceros para medir y mejorar su experiencia.
Tu decides si las aceptas o rechazas:
Más información sobre Cookies