¿Cómo puede beneficiarse la empresa de las oportunidades que ofrece la tecnología al tiempo que salvaguarda el bienestar de empleados, clientes y la sociedad? Es una pregunta que se hacen los líderes en transformación digital actuales, para intenta dar respuesta a estos interrogantes, el informe realizado por KPMG agrupa de manera clara en cinco pilares las políticas a implementar para desarrollar modelos de Inteligencia Artificial con integridad y transparencia de forma que resulten plenamente productivos y no perjudiciales.
Cuando los cambios se producen de manera brusca y rápida, la sociedad queda atrás para dar respuestas. Esto es lo que está sucediendo con la Inteligencia Artificial en muchos planos. El nivel y la velocidad de disrupción y cambio al que se enfrentan los responsables de las empresas y la sociedad por el avance de la IA no tiene precedentes en la historia de la humanidad. Las anteriores tecnologías disruptivas emergieron lentamente, de modo tal que la sociedad tuvo tiempo para adaptarse y establecer ciertos mecanismos de defensa.
Actualmente, estamos viviendo en una época donde podemos llevar la información derivada de la IA a una variedad extraordinaria de casos prácticos, tanto en retos sociales como científicos. A nivel empresarial, la IA impulsa el desarrollo de nuevos productos, hace posibles experiencias extraordinarias de cliente y varía la naturaleza del trabajo en sí. Pero para tener verdadero éxito, debe implantarse de manera responsable y consiente. La responsabilidad corporativa no es un reto nuevo, pero se ha complicado dado que en la actualidad el machine learning tiene un papel más relevante en la ejecución del trabajo. Es urgente y necesario que las empresas reflexionen sobre cómo abordar el inmenso impacto que supone este cambio en la forma de trabajar y de tomar las decisiones. A fin de crear un entorno empresarial ético y sostenible en el futuro, la IA debe regirse y controlarse de manera responsable.
Los cinco pilares centrales para que exista una ética en la Inteligencia artificial son: transformar el lugar de trabajo, establecer supervisión y buen gobierno, alinear la ciberseguridad y la ética en IA, reducir el sesgo, y aumentar la transparencia.
En primer lugar, transformar el lugar de trabajo, el reto más inmediato al que se enfrentan los directivos es la disrupción en el lugar de trabajo, un cambio radical en las funciones y las tareas, combinado con el auge del análisis de datos para la toma de decisiones basadas en la automatización. La plantilla del futuro requiere un nuevo enfoque en la empresa: transparente y completamente centrado en el empleado. Las organizaciones pueden prepararse ya para estos cambios, ayudando a los empleados a adaptarse a la implementación de las máquinas en sus trabajos. Simultáneamente, los responsables han de ser conscientes de que la transformación en el lugar de trabajo constituye un reto de gestión del cambio: comunicar claramente los cambios y ventajas de la adopción, bajando al nivel de las tareas, y fomentar nuevas funciones y roles que añadan valor para el trabajo y la empresa.
En segundo lugar, establecer supervisión y buen gobierno es central. Establecer políticas claras en toda la empresa respecto de la implantación de IA, incluido el uso de datos y reglas de privacidad es un aspecto de suma importancia. Al adoptar esta importante medida se mantiene a la empresa en la delantera y puede ayudar a influir en la dirección de la legislación, dado que los responsables de la elaboración de políticas toman como modelos a las organizaciones de éxito. Crear algoritmos basados en un sólido marco ético. Este es un imperativo básico para los encargados de implantar la IA de manera responsable. Los responsables de las empresas y los Gobiernos deben establecer jerarquías de responsabilidad para la construcción y la implantación de algoritmos complejos.
En tercer lugar, alinear la ciberseguridad y la ética en IA juega un papel muy importante. Los algoritmos autónomos suscitan dudas acerca de riesgos de seguridad a medida que aumenta su influencia en el negocio. Los ataques deliberados que envenenan los algoritmos falsificando datos de formación pueden llegar a poner en peligro la privacidad y generar sesgo, deteriorando la experiencia del usuario y dañando la propiedad intelectual, la reputación de la marca u otros activos clave de la empresa.
En cuarto lugar, reducir el sesgo es vital. Los responsables y los reguladores quieren conocer el funcionamiento de algoritmos sofisticados autónomos, a fin de poder adoptar medidas para eliminar sesgos parciales mientras continúan evolucionando. Por este motivo, ha pasado a ser muy importante conocer qué atributos de los datos de entrenamiento influyen en las predicciones del modelo. Cuando el entrenamiento se interrumpe durante largos periodos de tiempo, el modelo puede perder integridad: el sesgo puede aparecer y problemas como los ataques deliberados pueden poner en peligro la información que incorpora.
Finalmente, no debe perderse de vista la trasparencia. Algunos directivos están proponiendo normas universales de equidad a medida que avanza la IA y el machine learning. El objetivo sería la transparencia, y sobre todo la claridad, para ciudadanos y consumidores que se confunden con los datos y la información que proporcionan en experiencias digitales (y analógicas). Si las empresas pueden establecer firmemente sus propias políticas y prácticas en estos momentos —y mostrar éxito con ellas— se orientarán las normas a nivel nacional o federal.
Los cambios en materia de inteligencia artificial son un hecho, si bien muchas empresas no saben aún cómo gestionarlos están a tiempo de diagramar sus hojas de ruta y modificar el rumbos, alineados con los nuevos tiempos.