1

Sesgos racistas y sexistas imperceptibles: El lado oscuro de la IA

Igual que algunas mujeres murieron en accidentes de coche porque las pruebas de seguridad se habían hecho con muñecos con forma de hombre, los productos habilitados por la IA incluyen sesgos, probablemente inconscientes, que se están colando en el mercado.

Por Tabitha Goldstaub*
Tomado de MIT Technology Review en Español

El núcleo central de la Inteligencia Artificial (IA) se compone de un proceso de dos fases:

• Primero se le asigna un objetivo…
• … y después ella misma diseña una forma de conseguirlo.

Por lo tanto, su forma de alcanzar dicha meta no siempre resulta demasiado transparente. Si usted está inculcando un cierto sesgo a una máquina de forma inconsciente, es posible que desconozca que, en efecto, el algoritmo también tiene ese sesgo.

El resultado es que ese algoritmo podría ser perjudicial para las mujeres, pero costaría mucho averiguar exactamente por qué.

Esto ya ha pasado con la tecnología tradicional: hemos visto mujeres muriendo en accidentes automovilísticos porque los muñecos de prueba de choque tenían la forma de un hombre en lugar de la de una mujer.

Con la IA podría haber situaciones similares de vida o muerte, en pruebas de drogas, vehículos autónomos y cosas por el estilo.

Nuevas tecnologías para los sesgos de siempre

También hay algunos ejemplos [del sesgo de género de la inteligencia artificial actual]: anuncios de Google que muestran anuncios [de trabajo] con mayores sueldos a los hombres que a las mujeres.

Podemos plantear otras hipótesis de otras situaciones en las que podría suceder: ¿qué pasaría si las mujeres no pudieran obtener los mismos préstamos, hipotecas o seguros?

No tengo una visión distópica de la inteligencia artificial. No creo que vaya a haber robots asesinos.

Estoy mucho más centrada en las aplicaciones limitadas, y creo que, si nos fijamos en cada una de ellas, existe la posibilidad de que afecte negativamente a las mujeres. No creo que la inteligencia artificial sea el problema; es un problema adicional, en lugar de la causa.

Estamos hablando del riesgo de que nuestro sexismo y racismo inconsciente se transmita a las máquinas que estamos construyendo. ¿Cómo conseguimos que alguien que está construyendo una IA tenga en cuenta estas cosas?

Necesitamos que los consumidores exijan una inteligencia artificial ética. La gente no es demasiado consciente de que el problema va más allá de una simple cuestión de género: se trata de un problema real y fundamental del producto.

* Tabitha Goldstaub es cofundadora de CognitionX, una compañía que ayuda a las empresas a implementar la inteligencia artificial.