
No llegará en plena noche, ni en una embarcación a la desesperada bajo el yugo de una mafia. Tampoco la rechazaremos por sistema. Todo lo contrario: cruzará sin ningún tipo de resistencia. Abriremos nuestras puertas, como ya estamos haciendo, a millones de IAs que dominarán el lenguaje mejor que nosotros y tomarán decisiones con más determinación que nosotros.
Estas “IA migrantes” traerán consigo riesgos evidentes. Podrán sustituir empleos, transformar la cultura, alterar nuestras formas de deliberación democrática o consolidar un datacentrismo donde el poder se ejerza desde los datos. Pero también ofrecerán oportunidades extraordinarias. Solo imagine IA médicas que, sin reemplazar el criterio humano y la formación de un médico, ayuden a prevenir enfermedades, agilizar diagnósticos o descongestionar sistemas sanitarios saturados; IA profesores que compensen las deficiencias de nuestro sistema educativo; o IA asistenciales que alivien la soledad de quienes no la desean.
Es precisamente ahí donde se sitúa uno de los retos éticos que se ha abordado durante el II Hackathon Internacional de IA para Colectivos Vulnerables OdiseIA4Good de OdiseIA: ¿cómo podemos diseñar soluciones de IA que amplíen capacidades y generen inclusión social, sin convertirse en nuevas jaulas para quienes ya viven situaciones de vulnerabilidad?
Si está usted involucrado o está pensando en desarrollar una solución de IA con un fin social, le propongo tres preguntas-guía que podrían ayudarle en su misión.
La primera es sencilla de formular, pero exigente de cumplir: ¿hemos contado con las personas destinatarias en el diseño de la solución? Cuando delegamos decisiones que afectan a la dignidad, los derechos o el bienestar de personas vulnerables en sistemas automatizados, excluir su voz es, cuanto menos, éticamente comprometido. Incluir desde el diseño a las propias personas beneficiarias, a sus representantes legales o a las organizaciones que defienden sus derechos no es un gesto de cortesía, sino una obligación moral. Deberíamos contar con su voz y conocer bien su realidad.
¿Conocemos bien a quienes nos estamos dirigiendo? ¿Sabemos cuáles son sus necesidades y las de su entorno? Recuerde que la desigualdad no es uniforme. Cambia de persona a persona. Se vive de maneras distintas y, con frecuencia, se acumula: una persona puede ser pobre, menor de edad, migrante y tener una discapacidad al mismo tiempo, por poner un ejemplo extremo. Comprender estas intersecciones no es tan solo un matiz, es imprescindible para evaluar los beneficios y los riesgos reales de la IA en personas en situación de vulnerabilidad.
La segunda pregunta es igual de importante: ¿estamos protegiendo el espacio íntimo de las personas a las que queremos ayudar? La invasión algorítmica es cada vez más sutil y no se limita a captar nuestra atención; moldea preferencias, anticipa comportamientos y puede influir en convicciones profundas. Respetar el fuero interno, la libertad de pensamiento y la autonomía de cada persona, no es negociable. Es un deber moral que debe guiarnos para no influir artificialmente en sus preferencias o creencias.
En este contexto se les presentará otro dilema: el de la confidencialidad de los datos. En ámbitos como la medicina o el derecho, la confidencialidad es sagrada. Es la base para poder actuar en nuestra defensa y proteger nuestros intereses. ¿Por qué, entonces, en el mundo virtual damos por hecho que algoritmos pueden acceder libremente a lo que en otros marcos consideramos inviolable? Piénselo.
La tercera pregunta apunta a la transparencia y la confianza: ¿seremos capaces de explicar cómo funciona nuestra solución y de garantizar una supervisión humana que sea real? La IA debe ser comprensible, no solo legalmente explicable. Si queremos tratar con dignidad a nuestro colectivo beneficiario, tenemos que mostrar voluntad y compromiso con la transparencia. Debemos facilitar que puedan conocer, de forma sencilla y accesible, cómo funciona el sistema, con qué datos opera y cuáles son sus límites.
Al mismo tiempo, deberíamos marcarnos un estándar ético que garantice el control sobre los resultados y el impacto de nuestra solución, así como la existencia de una supervisión humana responsable. Porque cuando se trata de tomar decisiones finales sobre acceso a derechos, prestaciones, diagnósticos o sanciones, la opacidad y la falta de explicabilidad convierten la tecnología en una forma de dominación silenciosa, capaz de desencadenar una nueva brecha de derechos.
No obstante, permítame que le invite a una idea sencilla, pero a menudo olvidada: a veces, lo más innovador es no innovar. Es detenerse en el momento oportuno y poner en el centro lo más humano. Cultivar una empatía individual, pero también colectiva, hacia las personas vulnerables a las que queremos servir. Porque solo desde ahí la IA podrá ser, de verdad, una aliada de la justicia social.