Mientras los ‘bots’ cuenten con sesgos de género, continuarán contribuyendo a perpetuar la desigualdad de la mujer en la sociedad. Por esta razón, en BBVA Next Technologies, la empresa de ‘software’ avanzado de BBVA, están trabajando para reducir este tipo de sesgos y que la tecnología se convierta en una palanca fundamental para acortar la brecha de género.
'Bots' sin sesgos de género para más igualdad

Un bot es un programa informático que efectúa automáticamente tareas repetitivas a través de Internet, cuya realización por parte de una persona sería imposible o muy tediosa. En BBVA Next Technologies consideran que la tecnología debe estar al servicio de las personas y por eso, el equipo de su Laboratorio de Innovación organizó un encuentro dentro de sus actividades para celebrar el día de la mujer, en el que explicaron cómo reducir sesgos de género en la IA y diseñar ‘bots’ más igualitarios.

Marta Salas Cerezo, diseñadora de BBVA Next Technologies explicó al respecto “Necesitamos tecnología feminista que impulse la igualdad para cuestionar patrones y sesgos que alimentan la desigualdad y perpetúan estereotipos, para trabajar por equilibrar la balanza y construir un mundo más justo, y para velar por la representación de la diversidad y la igualdad de oportunidades”.

Con este objetivo se presentó el ‘Feminist Bot Design Canvas’, un proceso de diseño creado desde el Laboratorio de Innovación que propone diferentes aspectos a tener en cuenta a la hora de crear un ‘bot’:

  • La usuaria/o: Hay que preguntarse por las fortalezas u obstáculosde la persona para la que se diseña y “así el diseño será mucho más potente que abordando necesidades demasiado universales”, comentaba Salas Cerezo.
  • El sesgo del equipo: Es importante establecer un momento de reflexión sobre cuál es la visión del equipo que está creando el ‘bot’ y cómo afecta ésta al diseño. Es decir, tomar conciencia de cuáles son sus creencias, su clase, su estatus, etc… y vigilar cómo todo esto puede estar sesgando esas decisiones.
  • El propósito: Establecer la conexión entre la persona y el ‘bot’ y preguntarse cuál es su fin último.
  • El ‘bot’: Por un lado, hay que definir su personalidad, que deberá estar al servicio del propósito, y pensar si es conveniente que tenga género. Y por otro, establecer cómo serán sus respuestas, teniendo en mente que debe recordar que no es una persona, por cuestiones éticas, y que es muy importante que responda ante los comentarios inapropiados. Un ejemplo de ‘bot’ que lo hace es Pillow, que ayuda a mantener un bienestar mental positivo. Si al ofrecer consejos para dormir mejor Pillow obtiene una respuesta inadecuada por parte del usuario, su respuesta es la siguiente: “No te pongas así, solo intento ayudar. Entiendo que estés cansado, pero no deberías pagarlo ni conmigo ni con nadie”.

De este modo, el innovador diseño pretende luchar contra “el sesgo de género que la tecnología tiene interiorizado desde su construcción y que hace inevitable que sus respuestas tengan el género en cuenta”, explicaba Ira Manzano, diseñadora de producto de BBVA Next Technologies, que a su vez añadía que esta situación “se produce principalmente porque los datos con los que se trabaja están sesgados desde un principio”. Por su parte, Yolanda de la Hoz, investigadora de IA de BBVA Next Technologies, se situaba en el origen del problema y comentaba que éste reside en que “los seres humanos poseen multitud de sesgos cognitivos de los que no somos conscientes y que se transfieren fácilmente a los sistemas inteligentes que aprenden de nosotros a partir de los datos”, lo que hace que los algoritmos se vean inevitablemente afectados. Una situación que se agrava por el hecho de que el sector tecnológico haya contado con un punto de vista mayoritariamente masculino a lo largo de su historia.

Estos sesgos se pueden apreciar actualmente de forma muy clara en los asistentes virtuales más populares, como Siri, Alexa o Cortana, todos con nombres y voz de mujer, y programados para ejecutar órdenes. Un factor que fácilmente puede pasar desapercibido y que, sin embargo, tiene graves consecuencias tal y como señala una agencia de la ONU. En concreto, la UNESCO afirma que“el hecho de asignar géneros femeninos a estos asistentes está ayudando a afianzar los estereotipos de género”.

La tecnología es uno de los campos a donde las desigualdades tienen gran predominancia. Para reducir los sesgos en esta tecnología, explicaba de la Hoz, “es esencial prestar mucha atención a los datos”, como ya se ha mencionado anteriormente. También comentó la importancia de entrenar los modelos para que sean capaces de identificar y corregir sus propios sesgos, ya que normalmente están diseñados para generalizar a través de los datos.

Por esta razón, es fundamental aplicar ciertos filtros en estos modelos y tener en mente cuál es su aplicación, es decir, con qué propósito se está diseñando, ya que “no es lo mismo diseñar modelos en los que la toma de decisión está en manos del humano, que diseñarlos para que los ‘bots’ tomen decisiones sin apenas intervención humana, como ocurre en los sistemas autónomos”, comentaba de la Hoz.

Para la investigadora, la clave está en “involucrar a científicos de datos en los procesos para evitar riesgos e invertir en investigación y en equipos de desarrollo multidisciplinares que también cuenten con perfiles como psicólogos o lingüistas”.

Sobre el proyecto, Sandra Juárez Puerta, investigadora de BBVA Next Technologies, explicó cómo funcionaba IWomen (Important Women), el ‘chatbot’ feminista que el equipo desarrolló para la ocasión y cuyo objetivo es eliminar los sesgos en distintos ámbitos profesionales. Su funcionamiento consiste en que cuando la persona le pregunta sobre referentes en ámbitos como la pintura, la medicina, el cine o la tecnología, el ‘chatbot’ responde con nombres de referentes femeninos, gracias a que estos están incluidos en la base de datos con la que trabaja.Este proyecto busca servir de referencia e inspirar a los desarrolladores a crear asistentes virtuales más igualitarios que no trasladen los sesgos de género a las nuevas tecnologías.

¿Te ha gustado el artículo?

0 No me ha gustado 0

Tu opinión es importante... ¡dejanos tus comentarios!

Top