Publicado el
La tecnología avanza a pasos agigantados, marcando un ritmo de cambios muy veloz. En este contexto, la Inteligencia Artificial es posiblemente la tecnología con mayor potencial para reformular cómo desarrollamos las actividades humanas. En medio de un escenario cambiante en los próximos años, las organizaciones serán actores destacados en influenciar nuevos modelos sociales fuertemente marcados por el factor tecnológico. En este afán, la empresa tiene el gran potencial de desarrollar una inteligencia artificial marcada por valores tales como la ética y la inclusión, así lo afirma el Decálogo sobre Inteligencia Artificial Responsable e Inclusiva, fruto de la colaboración de Fundación Seres y everis.

Francisco Roman, presidente de Fundación Seres, afirma que : “La irrupción de la Inteligencia Artificial en las compañías genera grandes oportunidades de crecimiento a la vez que plantea importantes desafíos para alcanzar su desarrollo, teniendo en cuenta los beneficios para toda la sociedad, respetando la privacidad de los datos y protegiéndonos ante posibles sesgos.” En medio de un escenario cambiante y que se transforma constantemente en el plano de las nuevas tecnologías, en los próximos años, las organizaciones serán actores destacados en influenciar nuevos modelos sociales fuertemente marcados por el factor tecnológico. En este marco, no podemos permitirnos dejar a nadie atrás. Resulta crucial  entonces, abordar las cuestiones éticas que plantea la introducción  de la Inteligencia Artificial (IA) en las diferentes esferas.

El Decálogo sobre Inteligencia Artificial Responsable e Inclusiva, fruto de la colaboración de Fundación Seres y everis en el LabS que lleva su nombre, afirma que el impulso de una Inteligencia Artificial responsable e inclusiva será posible gracias a la creación de un ecosistema de colaboración en el que las compañías, instituciones públicas, universidades y ciudadanía aborden conjuntamente los nuevos retos y oportunidades que la IA representa para nuestra sociedad. El objetivo del informe publicado se centra en el diseño de soluciones tecnológicas que tengan en cuenta la perspectiva social. Esto significa un paso más para garantizar el desarrollo de marcos de actuación que puedan permitir a las compañías, investigadores y, a la sociedad en general, comprender mejor y abordar de forma práctica los desafíos sociales asociados a la implementación de la lA, logrando articular el futuro empresarial bajo el prisma de la responsabilidad y la inclusión social.

Luego de una profunda investigación, se ha definido un decálogo común para el uso responsable e inclusivo de la IA en las empresas a través de 12 enunciados que se alinean con las directrices éticas establecidas por la Comisión Europea para una Inteligencia Artificial fiable. Estos enunciados han sido definidos de manera que reúnan una visión compartida de la IA responsable e inclusiva al mismo tiempo que reflejen el compromiso de cada una de las empresas participantes en el LabS por avanzar hacia un uso responsable de la tecnología. De igual manera, este decálogo puede servir como primera aproximación a un planteamiento de principios éticos interno de cada organización, que guíe sus operaciones y esté en línea con la visión estratégica de la entidad.

Teniendo en cuenta el impacto de la IA en sus diferentes fases y aplicaciones, el informe ha definido el decálogo ateniendo a que este traslade el compromiso que implica un uso responsable e inclusivo de la IA a través de tres grupos de interés: la Sociedad, el Individuo y las Organizaciones. En primer lugar, desde el punto de vista de la Sociedad, el informe sostiene que la IA tiene el enorme potencial de fomentar el progreso social y económico. Como punto de partida, reconoce la importancia de llevar a cabo una labor de concienciación para impulsar el uso responsable e inclusivo de los sistemas de IA. De igual manera, se contempla el diseño de una ruta de transformación digital responsable amparada por la normativa vigente y regulación europea. Finalmente, el empleo de la IA debe favorecer la inclusión de todos los grupos sociales, en especial el de los más vulnerables, convirtiendo la diversidad cultural y disciplinar en una ventaja competitiva.

En segundo lugar, desde el punto de vista del Individuo, el empleo de una IA responsable e inclusiva asegura la libertad y autonomía de las personas, características innatas en el ser humano. Además, el informe advierte que el correcto desarrollo de las tecnologías debe asegurar una estricta protección de aquellos datos sensibles cuyo uso inapropiado pueda impactar negativamente en las personas. Y, por último, desde el punto de vista de la Organización, el documento explica que son claros los beneficios de desarrollar una IA sólida y segura atendiendo a los diferentes riesgos implicados en cada fase del ciclo de vida tales como posibles malversaciones, ataques y sesgos.

Los enunciados incorporados en el decálogo son:

  1. Compartimos una visión de la IA que promueva el progreso social y económico de las personas, las comunidades y la sociedad en su conjunto.
  2. Estamos comprometidos con el desarrollo de una IA responsable e inclusiva que respete el marco legal de la Unión Europea.
  3. Atendemos a la oportunidad de fomentar la colaboración con otras organizaciones para impulsar el uso responsable e inclusivo de la IA.
  4. Consideramos que la privacidad de las personas es un derecho que ha de ser protegido especialmente en el desarrollo de iniciativas de IA.
  5. Defendemos que la IA debe respetar la diversidad y fomentar la inclusión de los individuos en las comunidades, evitando un impacto negativo en los derechos fundamentales de las personas a causa de sesgos.
  6. Promovemos un diseño de la IA que proteja la autonomía de las personas.
  7. Creemos en un modelo de colaboración entre la IA y las personas que redunde en aumentar las capacidades de los empleados y su aportación de valor a las organizaciones.
  8. Concebimos una cultura organizativa que fomente la responsabilidad a través de la formación tecnológica y la comprensión de las implicaciones éticas de la IA.
  9. Nos identificamos con un modelo de desarrollo responsable e inclusivo de la IA que integre diversidad de conocimientos y dominios de negocio, así como sensibilidades y enfoques.
  10. Entendemos la necesidad de orquestar internamente el gobierno de la IA a través de procesos y herramientas que lo tangibilicen en todo el ciclo de vida de las iniciativas de IA e identifiquen claramente la responsabilidad de sus participantes.
  11. Reconocemos la importancia de diseñar sistemas de IA robustos que prevengan un uso malintencionado, inapropiado o malicioso de la tecnología.
  12. Sostenemos una aproximación a la Inteligencia Artificial que, desde el diseño, sitúe a las personas en el centro de las oportunidades y beneficios en el uso tecnológico.

El documento concluye que las empresas deben diseñar una hoja de ruta que integre un empleo de la IA responsable e inclusiva en la cultura empresarial y que sea escalable trasversalmente en la organización; así como crear una IA confiable, transparente, explicable y segura que pueda ser aceptada por la sociedad, permitiendo la participación conjunta de todos los grupos de interés para potenciar los beneficios y fomentar las oportunidades de futuro que la IA entraña.

¡Comparte este contenido en redes!

Este sitio utiliza cookies de terceros para medir y mejorar su experiencia.
Tu decides si las aceptas o rechazas:
Más información sobre Cookies