Sesgos en el análisis de los datos, violaciones de la privacidad o discriminación contra distintas minorías son algunos de ellos, según un informe que acaba de publicar McKinsey: “Liderar tu organización hacia una IA responsable”, en el que se señala que "incluso los usos aparentemente inocuos de la Inteligencia Artificial pueden tener graves implicaciones, afectando a la reputación de la compañía, sus empleados y a la sociedad en su conjunto".
Los riesgos anti RSE de la Inteligencia Artificial

Si bien la inteligencia artificial (AI) se está convirtiendo rápidamente en una nueva herramienta del CEO para impulsar los ingresos y la rentabilidad, también está claro que su despliegue requiere una gestión cuidadosa para evitar daños no intencionales pero significativos, no solo a la reputación de la marca sino, más importante aún, a los trabajadores, a los individuos y a la sociedad en su conjunto. 

Desde McKinsey explican que los debates éticos están en marcha sobre lo que es correcto e incorrecto cuando se trata de aplicaciones de inteligencia artificial de alto nivel, como las armas autónomas y los sistemas de vigilancia. Y hay un gran interés y escepticismo en cuanto a cómo podemos imbuir a los sistemas de inteligencia artificial con el juicio ético humano, cuando los valores morales varían según la cultura y pueden ser difíciles de codificar en el software.

El rol de los primeros ejecutivos es vital, ya que deben tener un sólido conocimiento práctico de los desarrollos de la IA para poder orientar al conjunto de la empresa en tres áreas clave. En primer lugar, deben clarificar la forma de trasladar los valores de la empresa a las aplicaciones de IA a través de directrices sobre los objetivos marcados, con el fin de seleccionar los procesos candidatos a la automatización. En segundo lugar, los CEO deben guiar a la compañía con definiciones y métricas para evaluar la IA ante posibles sesgos e imparcialidad en el análisis. Por último, es necesario establecer una jerarquía de valores de empresa y destacar el papel de la diversidad en la selección de talento. El desarrollo de la IA siempre implica contrapartidas, especialmente las relacionadas con la precisión de los algoritmos y la transparencia en su toma de decisiones, por lo que el criterio de la dirección es esencial para que los equipos tomen las decisiones más acertadas. Además, un equipo con personas diversas aporta una variedad de experiencias con enfoques innovadores, necesarios para resolver problemas de calado. Los líderes deben considerar todo tipo de diversidad: de género, edad, etnia, disciplina y experiencia.

Pero hay muchos casos en los que no es suficiente la buena voluntad para hacer coincidir los desarrollos de IA con los valores de la empresa, especialmente de cara a la opinión pública. Por ello, el informe destaca cinco áreas que exigen un sólido liderazgo desde la dirección de las compañías para poder hacer frente a los problemas más comunes: 

  1. Una adquisición apropiada de datos: cuantos más datos se recojan, mayor precisión tendrá la aplicación de IA, pero en ocasiones esta puede ser percibida como una invasión de la privacidad. Los directivos deben vigilar de dónde se adquieren esos datos y cómo se utilizan.
  2. Adecuación del conjunto de datos: asegurar que los conjuntos de datos reflejan con precisión todas las poblaciones analizadas, evitando sesgos para no privilegiar a grupos mayoritarios.
  3. Imparcialidad en la aplicación de IA: incluso cuando las series de datos reflejan de forma veraz a las poblaciones reales, los resultados de la IA pueden ser imparciales debido a sesgos históricos, ya que estos análisis no tienen en cuenta el contexto y las implicaciones de estas decisiones.
  4. Cumplimiento normativo y compromiso: con la incipiente oleada regulatoria, los directivos deben asegurarse de que sus organizaciones cumplen con la legislación y, por ejemplo, no compren o vendan datos obtenidos sin consentimiento.
  5. Explicación del modelo de IA: en ocasiones, es necesaria una explicación del modelo que se ha llevado a cabo para llegar a una u otra conclusión, especialmente en los usos de la IA relacionados con la búsqueda de trabajo o con préstamos financieros (en los que los candidatos rechazados querrán entender los motivos).

En definitiva, los directivos que refuerzan sus valores corporativos estableciendo equipos diversos, crean un lenguaje generando puntos de referencia para guiar a la IA, y establecen un compromiso con los equipos de desarrollo de esta tecnología, hacen posible un uso responsable de la IA. Por ello, una IA responsable genera confianza tanto en los empleados como en los consumidores. Los empleados confiarán en la información que la IA les brinde y estarán más dispuestos a aplicarla en su trabajo diario, ayudando a idear nuevas formas de usar esta tecnología para crear valor. En cuanto a los consumidores, una vez que se adquiere su confianza estarán dispuestos a utilizar productos relacionados con la IA, ganando las compañías el derecho a usar sus datos de forma adecuada y ayudando a mejorar continuamente los procesos de IA. Se trata de un círculo virtuoso que impulsa la reputación de la marca y la capacidad de una organización para innovar y competir y, lo más importante, permite a la sociedad beneficiarse del poder de la IA en lugar de sufrir sus consecuencias menos deseadas.

¿Te ha gustado el artículo?

0 No me ha gustado 0

Tu opinión es importante... ¡dejanos tus comentarios!

Top