Manual para acabar con los sesgos de la INTELIGENCIA ARTIFICIAL
Manual para acabar con los sesgos de la INTELIGENCIA ARTIFICIAL
Desde Yes We Tech editamos el manual ‘Generación de imágenes sin sesgos con inteligencia artificial’ creado por la colectiva FEMIAS. Una guía de buenas prácticas para generar imágenes más inclusivas y diversas.
Para sorpresa de NADIE, salvo de aquellas personas que no quieran escuchar, la inteligencia artificial tiene SESGOS. Sí.
Como sabes, la inteligencia artificial bebe de lo que ya hay publicado en Internet y le gusta el rollo mainstream. Es decir, no se va a ir a por planteamientos alternativos si tú no le rascas específicamente para eso. ¿Cuál es el resultado? Imágenes de personas estereotipadas hasta el infinito. Hay estereotipos de género, racistas, xenófobos, capacitistas, homofóbicos, sexuales… Todo precioso, sí.
¿Qué pasa? Que cuando alguien señala alguno de estos sesgos, de forma individual, puede achacarse a una situación anecdótica. Por eso hacen falta datos. Muchos. Datos que permitan demostrar que la tecnología no es neutra. Y es ahí donde entra la colectiva FEMIAS.
FEMIAS es una colectiva multidisciplinar que nace en 2023. En ella confluyen el arte, la tecnología y el feminismo. Su objetivo es construir una cultura visual más diversa, crítica e inclusiva.
Las cerebros que tiene detrás se llaman Laura, Alejandra y Aiskoa. Son tres profesionales de distintas ramas que aúnan sus conocimientos, fuerzas y tiempos para repensar cómo utilizar la IA. Huir de reforzar las desigualdades es su principal leitmotiv.
Hace unas semanas tuvimos la suerte de tenerlas con nosotras impartiendo una charla-taller titulada ‘¿Puede la IA ser feminista?’. Una pregunta que debería estar protagonizando titulares. Es más, es que debería ser una ponencia recurrente en cualquier evento actual sobre creatividad o tecnología. Pero no se da, sorpresa.
Como decimos, es importante demostrar que la tecnología no es neutra con datos que fundamenten y validen objetivamente ésta hipótesis. Un planteamiento que corrobore que no se trata de una situación aislada, sino que recopile patrones repetitivos de forma significativa.
Además, es necesario hacerlo con una comprobación interseccional, donde se crucen diferentes variables que pudieran suponer una acumulación de sesgos teniendo en cuenta cuestiones como etnias, origen, discapacidades, expresión de género, etc.
Y eso, queridas, es lo que hizo FEMIAS. Una investigación que mostró resultados reiterativos donde se reproducían unas estéticas dominantes. La opción de mostrar cuerpos diversos estaba totalmente excluida y la idea de expresiones alternativas quedaba totalmente invisibilizada. Esto supone el fomento las posibilidades de rechazo hacia lo no normativo y el refuerzo de cualquier tipo de asimetría.
Investigar está muy bien, investigar con un propósito está aún mejor. Por eso, desde FEMIAS, tenían planteado una guía de buenas prácticas para generar imágenes con la inteligencia artificial más diversa, crítica e inclusiva. Detallitos, chica.
Así que, cuando nosotras supimos de la existencia de este manual, pusimos ojitos de corazón, dimos un golpe en la mesa y dijimos ¡a esta ronda invita YWT! Y así fue como acabamos siendo las editoras de este manual. Ellas le dieron bien fuerte al diseño y el resultado es maravilloso.
No solo maravilloso, sino muy NECESARIO. Debería ser de uso obligatorio en todas las entidades que trabajen con IA. No lo decimos nosotras, lo dice la UNESCO y la Ley europea de la IA
La IA va a tope de power y avanza súper rapidísimo, un ritmo que choca frontalmente con el de las instituciones a la hora de hacer una nueva normativa. No obstante, desde agosto de 2024 tenemos una normativa a nivel europeo, conocida como la Ley de la IA que, en los apartados b y c de su artículo 10 dice lo siguiente:
“b) los conjuntos de datos serán pertinentes, suficientemente representativos, y estarán, en la medida de lo posible, completos y exentos de errores, a fin de garantizar la equidad, la no discriminación y la protección de los derechos fundamentales, y tener en cuenta las especificidades del contexto geográfico, conductual o funcional particular en el que esté previsto el uso del sistema de IA;
c) los conjuntos de datos se segmentarán de tal manera que las pruebas estadísticas pertinentes y la evaluación de la equidad puedan llevarse a cabo en relación con los distintos grupos pertinentes de población, con el fin de detectar la discriminación o los sesgos y tomar las medidas correctoras oportunas.”
Por su parte, la UNESCO ya en 2021 publicaba estas recomendaciones sobre los usos éticos de la IA para los Estados Miembros:
“Los Estados Miembros deberían velar por que los estereotipos de género y los sesgos discriminatorios no se trasladen a los sistemas de IA, sino que se detecten y corrijan de manera proactiva. Es preciso esforzarse por evitar el efecto negativo combinado de las brechas tecnológicas para lograr la igualdad de género y prevenir la violencia contra las niñas y las mujeres, así como contra los grupos insuficientemente representados, que puede manifestarse en forma de hostigamiento, acoso o trata, incluso en línea.”
UNESCO. (2021).
Lo de los Objetivos de Desarrollo Sostenible, imaginamos que ya te los sabes, así que te los mencionamos aquí solo a modo de friendly reminder.
Resumiendo, querida, si tú eres una persona de bien y quieres hacerte unos prompts que te garanticen unas imágenes no sesgadas, mírate el manual que te puede ayudar. Y si trabajas en una empresa o en una entidad donde se emplee la inteligencia artificial generativa, pues chica, no sé, coméntale algo, mándale un link, unas indirectas y oye, quién sabe, lo mismo van un poquito más allá del postureo de la igualdad y se ponen las pilas para conseguir utilizar la inteligencia con perspectiva de género.
Si quieres verlo, lo tienes en versión digital aquí: Manual ‘Generación de imágenes sin sesgos con inteligencia artificial’
Y si quieres enterarte de todos los saraos que montamos o con los que colaboramos, pásate por aquí
Por último pero no menos importante, queremos remarcar que éste proyecto ha podido salir a la luz gracias a las entidades como Google que confían y apoyan a YWT, dándonos la oportunidad de contribuir a que las tecnologías sean más igualitarias e inclusivas. ¡GRACIAS!
Si conoces a una empresa que pudiera querer apoyar a YES WE TECH, mándala aquí.