Publicado el
Dos décadas de reflexión sobre la ética en la empresa y la sociedad avalan la trayectoria de la Cátedra Iberdrola de Ética Económica y Empresarial de la Universidad Pontificia Comillas. Ahora, este espacio académico se adentra en uno de los mayores desafíos morales de nuestro tiempo: la Inteligencia Artificial. ¿Cómo afectará su avance a nuestra forma de entender la responsabilidad y la conciencia humana? Bajo esta pregunta, la Cátedra inicia un nuevo ciclo en Diario Responsable que busca iluminar el horizonte ético de un futuro cada vez más digital.
¿Que cabe decir sobre Inteligencia Artificial y Responsabilidad moral?

Llevamos veinte años trabajando sobre la empresa, la comunicación y el conjunto de la sociedad y su relación con la profunda crisis ética que están sufriendo los principios morales en estos ámbitos. Hemos tenido la enorme facilidad que nos ha proporcionado la Cátedra Iberdrola de Ética Éconómica y empresarial -en los primeros años Cátedra Benjumea-, adscrita en la Universidad Pontificia Comillas de Madrid; porque, en efecto, la estructura y las posibilidades del trabajo en equipo de una Cátedra universitaria y el buen hacer de su director, el Dr. José Luis Fernández Fernández, aumentan y profundizan estas posibilidades. A lo largo de estas dos décadas de desarrollo se nos ha permitido no solo profundizar en los más diversos contenidos relacionados con la moral y el mundo corporativo, sino desarrollar líneas maestras para la investigación, que normalmente hemos ido publicando en muy diversos artículos y textos de mayor desarrollo[1]. Incluso, en los últimos años tuvimos la opción generosa de colaborar con otras instituciones, como Diario Responsable y la Editorial Kolima, con la publicación de artículos de opinión y la aparición de una pequeña colección de Libros titulada “Las Voces de la Universidad y la Empresa”[2].

Realmente fue un descubrimiento eso de los artículos de opinión, porque pudimos comprobar que, en apenas unas pocas páginas, los autores podían opinar sobre temas que, por su dimensión y profundidad, exigían libros o artículos de mayor entidad; sin duda, la opinión reducida abría nuevas formas de expresar los problemas, y, sobre todo novedosos caminos filosóficos para la investigación, apenas transitados. La inteligencia humana es tan complicada y creativamente tan rica en posibilidades y alcance, que es en la diversidad de los contenidos donde los problemas de la ética emergen de una forma novedosa y apenas percibida. Por eso siempre hemos defendido que el conocimiento moral es tan variado que hay que ir con tiento para evitar su intoxicación, como sucede con la ideología, que se encarga precisamente de eso y que deriva en algo tan simple como peligroso de confundir el rábano con las hojas.

Pues bien; para este año tenemos previsto adentrarnos un poco más en la cuestión de la IA; un tema ya tratado por nosotros hace dos años y que dado el rápido desarrollo y la quizá excesiva rapidez en su aplicación en el día a día de las personas, parece que nos exige volver sobre aquellas cuestiones. Porque en efecto, la IA no se nos presenta ya como un conjunto de innovaciones tecnológicas sino como un nuevo modo de pensar la vida, tanto la personal como la que afecta a la convivencia social. Es una nueva forma que se nos impone y que nos hace cambiar nuestra vida, nos guste o no nos guste, y, lo más importante, es probablemente una nueva forma de comprender la vida moral que nos hace cuestionar lo que puede suceder después del 2030; precisamente aquella fecha que hace unos pocos años era nuestro máximo referente. Una pregunta que se cuestiona a sí misma, no ante la duda de que algunos objetivos éticos y morales perseguidos hace treinta años por empresas e instituciones no se van a cumplir, sino ante la casi certeza de que se van a cumplir otros que apenas teníamos pensados. Este es nuestra inquietud frente a la IA, pero especialmente frente a los cambios que ya impone en la vida de las personas y que ya están influyendo en el modo de comprender la gestión ética, -o la ausencia de ella-, tanto en las instituciones como en la propia vida pública.

La continuidad de nuestra colaboración para este próximo curso con Diario Responsable arranca con dos pregunta de entrada para todos nuestros compañeros y colaboradores: ¿Qué entendemos puede ocurrir a partir del 2030 ante el avance de la IA? o más en concreto ¿Cómo relacionar la Inteligencia Artificial con la Responsabilidad moral? Dos cuestiones amplísimas pero sujetas, las dos, a las preocupaciones éticas con las que terminamos el curso pasado: se debe pensar sobre la ética desde la vida cotidiana y nuestra forma de comprender la conciencia y la inteligencia humana[3]. Por ello mismo, no debemos intoxicar nuestro conocimiento sobre la IA con nuevas ideas, sino aclarar y precisar problemas y dirigir todo ello a lo que realmente significa la inteligencia artificial y el papel propio del comportamiento humano como agente de responsabilidad moral. Por eso hemos tomado como eje más central de cuestiones el interesante documento Antiqua et Nova. Nota sobre la relación entre la Inteligencia Artificial y la Inteligencia Humana como documento de trabajo para el Seminario Interno de la Cátedra para este año[4].

 

[1] Me refiero al trabajo efectuado a los largo de estos años con la publicación de la Memoria Académica de la Cátedra.

[2] En la actualidad la Editorial Kolima ha publicado cinco libros de esta colección.

[3] Ver el artículo resumen Pensar sobre la ética en nuestra vida cotidiana, que acaba de publicarse en la Memoria Académica 2024-2025 (Universidad P. Comillas, 2025).

[4] Publicado por el Dicasterio de la Doctrina de la Fe en 2025 y recogido en https://www.vatican.va/roman_curia/congregations/cfaith/documents/rc_ddf_doc_20250128_antiqua-et-nova_sp.html.

¡Comparte este contenido en redes!

Este sitio utiliza cookies de terceros para medir y mejorar su experiencia.
Tu decides si las aceptas o rechazas:
Más información sobre Cookies