La Inteligencia Artificial (IA) es algo cada vez más útil y necesario en nuestra vida cotidiana pero, ¿podemos confiar en ella? Actualmente, el escenario contemporáneo que nos propone la nueva normliadad, y los cuidados que debemos tomar desde hace algunos meses tras la pandemia generada por el coronavirus, ha puesto de manifiesto el papel de la IA para el control de la pandemia y, por consiguiente, las dudas acerca de su confiabilidad han aumentado.
El último informe publicado por el Instituto de Investigación Capgemini, “ IA y el dilema ético: cómo las organizaciones pueden construir sistemas de inteligencia artificial éticamente robustos y ganar confianza ” examina los riesgos a los que se enfrentan las organizaciones en relación con la confianza que comparten con los principales interesados. Desde los clientes a los empleados, abordando la medida en que las organizaciones han puesto en práctica principios éticos, de transparencia, e imparcialidad; y hasta qué punto han evolucionado sus prácticas internas para reflejar la importancia de la ética en la IA.
La investigación, aborda de este modo las cuestiones fundamentales de confianza y ética, a partir de una encuesta realizada a más de 800 organizaciones y 2.900 consumidores. El objetivo principal de la misma fue poder comprender qué pueden hacer las empresas para tener sistemas de IA éticos por diseño, cómo pueden beneficiarse de hacerlo y las consecuencias si no lo hacen.
Una de las principales conclusiones que se desprenden del informe es que, si bien los clientes confían más en las interacciones habilitadas por la IA, el progreso de las organizaciones en las dimensiones éticas es decepcionante. Y esto es peligroso porque una vez perdida, la confianza puede ser difícil de reconstruir. La IA éticamente sólida requiere una base sólida de liderazgo, gobernanza y prácticas internas en torno a las auditorías, la capacitación y la puesta en práctica de la ética.
El estudio afirma que actualmente, cerca de la mitad de los clientes (49%) dicen que confían en las interacciones habilitadas por la IA con las organizaciones, en comparación con el 30% en 2018. Sin embargo, los clientes también esperan que los sistemas de IA les expliquen claramente cualquier resultado y que las organizaciones sean responsables si sus algoritmos de inteligencia artificial fallan.
Con respecto a las organizaciones, el informe muestra que estas están trabajando en la aplicación de una carta ética y su conciencia de los sesgos éticos y las cuestiones de transparencia ha mejorado. Sin embargo, la rendición de cuentas sigue siendo desigual: sólo el 53% de las organizaciones tienen un líder responsable de la ética de los sistemas de IA y sólo la mitad de las organizaciones tienen una línea telefónica confidencial para permitir a los clientes o empleados plantear problemas éticos con los sistemas de IA. Asimismo, se explica que las organizaciones están avanzando en la "explicabilidad" de los algoritmos de IA.
Otro dato relevante fruto de la investigación, es que cerca del 60% de las organizaciones han atraído el escrutinio legal y el 22% se han enfrentado a una reacción de los clientes en los últimos dos o tres años debido a las decisiones tomadas por sus sistemas de IA. La adopción de la IA por parte de los clientes se verá afectada, con costes añadidos para las organizaciones, ya que cerca del 40% de los clientes dicen que pasarán a una la interacción humana si tienen una experiencia de IA negativa. En este sentido, los clientes creen que las organizaciones no están haciendo lo suficiente sobre algunos temas éticos clave: el porcentaje de clientes que creen que las organizaciones están siendo totalmente transparentes en cuanto a la forma en que utilizan sus datos personales ha disminuido del 76% en 2019 a 62% hoy.
Finalmente, basándose en los principales hallazgos de la investigación, el informe destaca siete acciones clave para que las organizaciones construyan una IA éticamente sólida que deben estar respaldados por una base sólida de liderazgo, gobernanza y prácticas internas: