Publicado el
La Comisión Europea va a presentar unas directrices éticas sobre el desarrollo de la IA para finales de 2018, sobre la base de la Carta de los Derechos Fundamentales de la UE, teniendo en cuenta principios tales como la protección de datos y la transparencia, y apoyándose en los trabajos del Grupo Europeo de Ética de la Ciencia y de las Nuevas Tecnologías. El pasado mes de marzo, la CE ya anunció la creación de un grupo de expertos para debatir sobre los desafíos éticos que plantea el desarrollo de la inteligencia artificial y su impacto en los derechos fundamentales de la Unión Europea.

Según explicó entonces en un comunicado, "esto requiere una discusión amplia, abierta e inclusiva sobre cómo utilizar y desarrollar la inteligencia artificial exitosa y éticamente”. Su misión será redactar unas directrices en base a aspectos como "justicia, seguridad y transparencia, el futuro del empleo, la democracia y, con más amplitud, su impacto en la aplicación de la Carta de los Derechos Fundamentales de la UE.

Posteriormente, a finales de abril, esta institución propuso una serie de medidas para impulsar la IA que incluían la garantía de un marco ético ya que, “como ocurre con cualquier tecnología transformadora, la inteligencia artificial puede suscitar nuevos problemas de carácter ético y jurídico, relativos a la responsabilidad o la toma de decisiones potencialmente sesgadas. Las nuevas tecnologías no deben imponer nuevos valores”. Así, una de las exigencias del Grupo Europeo de Ética es que "los sistemas 'autónomos' no deben interferir con el derecho a la vida privada de las personas, que incluye el derecho a estar libre de tecnologías que influyan en su desarrollo personal y sus y opiniones, el derecho a establecer y desarrollar relaciones con otras personas y el derecho a estar libres de vigilancia. También a este respecto, deberían definirse criterios exactos y establecerse mecanismos que aseguran el desarrollo ético y la aplicación éticamente correcta de estos sistemas 'autónomos'.

La IA tiene muchas ventajas, pero algunos hechos han demostrado que también presenta inconvenientes. Por ejemplo, cuando el sistema de reconocimiento de imágenes de Flickr etiquetó imágenes del campo de concentración de Dachau como "gimnasio de la jungla" y "deporte", mientras que uno de Auschwitz también fue etiquetado como "deporte", según denunció el diario inglés The Guardian. Flickr utiliza un enfoque de aprendizaje automático para identificar imágenes y comparar imágenes nuevas y otras que se han visto en el pasado para tratar de identificar lo que muestran.

“Los modelos basados en datos pueden reflejar los sesgos inherentes a las fuentes con las que fueron entrenados, por lo que pueden replicarlos e incluso amplificarlos”, explica Roberto Maestre, ‘senior data scientist’ en BBVA Data & Analytics en un artículo publicado en la web de BBVA. Entonces, ¿cómo asegurarse de que esto no ocurra? Para el experto de BBVA, principalmente hay dos vías: la transparencia algorítmica y la integración de medidas para controlar sesgos en los propios modelos.

En dicho texto, se señala que uno de los problemas a los que se enfrentan estos científicos a la hora de evaluar la transparencia de los sistemas de IA es el conocido dilema de la ‘caja negra’, por el cual es a menudo virtualmente imposible entender qué camino ha seguido el modelo de IA para llegar a una determinada conclusión o decisión. Maestre explica que esto no debe servir para “escudarse” o librarse de la responsabilidad de las acciones. Frente a ello, es necesario trabajar para identificar en la medida de lo posible las variables que más pesaron en la decisión adoptada y hacer esta información disponible para el público.

Mestre destaca la importancia de la llamada auditoría algorítmica, que implica realizar una revisión sistemática del trabajo que permita documentar todos los procesos y definir mecanismos de revisión que aporten “un sello de garantía de calidad” a los modelos. También “definir e identificar” los sesgos que se pueden producir con los datos que vayan a ser empleados para alimentar los algoritmos. “Una vez hecho esto, es necesario proponer medidas concretas para cuantificar el impacto”, 

BBVA está involucrado en el proyecto TuringBox, una iniciativa también apoyada por el MIT Media Lab, que promueve el estudio sobre el ‘comportamiento’ de los sistemas de IA. El proyecto ofrece un entorno de pruebas que permite analizar las propiedades e implicaciones de diferentes sistemas de IA para examinar cómo se comportan. “Muchas veces identificar sesgos es relativamente sencillo; pero no lo es tanto cómo medirlos de manera correcta; y, dependiendo del problema, cómo definir si un sesgo es positivo o negativo no es trivial, puesto que esto depende del punto de vista desde el que se afronte la cuestión”, explica Maestre.

Ante esto, para Maestre la clave está en la ética, que debe impregnar no sólo las respuestas, sino también las preguntas planteadas a los datos. “Es nuestro deberconocer los sesgos existentes en los datos de entrenamiento, controlarlos y mitigarlos, y no utilizar la inteligencia artificial para ampliar brechas preexistentes”.

¡Comparte este contenido en redes!

Este sitio utiliza cookies de terceros para medir y mejorar su experiencia.
Tu decides si las aceptas o rechazas:
Más información sobre Cookies