Google no es racista, pero tú sí

Hace unos días se armó cierto revuelo porque Google es racista.

Al parecer, si usas el buscador para buscar tres jóvenes negros encontrarás fotos policiales, mientras que para tres jóvenes blancos encontrarás fotos idílicas. Si buscas peinados profesionales, encontrarás mujeres blancas y si buscas peinados poco profesionales encontrarás mujeres negras.

¿Qué hemos hecho nosotros para merecer un buscador tan racista?

En primer lugar, Google es un algoritmo. Si Google puede “entender” el signigicado de una imagen, es gracias al contenido que la rodea. Factores como el texto de la página en la que está, el texto alternativo de la imagen, el nombre del archivo o quién y cómo enlaza a esa página, dan al buscador una serie de palabras con la que empieza a dar significado al conjunto de píxels.

Un algoritmo no es racista. Un algoritmo como el de Google es el espejo en el que se refleja una sociedad democrática, plural y sumamente racista como la nuestra.

Cojamos un ejemplo más cañí, que en España hay menos población negra y no tenemos tanta oportunidad de demostrar nuestro racismo.

Busquemos “Polacos”.

polacos

Encontraremos referencias a la bandera, el deporte y la tradición polaca. Incluso podemos encontrar referencias al holocausto y animales de la región.

Busquemos “Rumanos”.

rumanos

Lo primero que sorprende es que las sugerencias en este caso son “Rumanos Peligrosos” y “Rumanos Ladrones”. Con “Rumanos Nazis” encontramos la misma búsqueda que con los polacos, pero el tono es el opuesto. Por último, a la derecha, se intuye que los rumanos, además de subhumanos peligrosos y ladrones, encima son feos que te cagas. ¿Trata Google de decirnos algo?

De nuevo, ni más ni menos que ser un reflejo de la sociedad que crea ese contenido.

En primer lugar: tratamos al varón blanco occidental como neutro, y a todo lo demás le ponemos adjetivos. Si yo robo un banco, soy un ciudadano que ha atracado un banco. Si Omar roba un banco, es un musulmán que ha robado un banco. En el s. XXI esto sirve para crear una visión distorsionada que será recogida por inteligencias artificiales basadas en deep learning -es decir, exploran contenido y aprenden solas- que, a su vez, se volverán inteligencias artificiales racistas. No hay ciudadanos blancos que roban, ni gente haciendo esa pregunta, porque blanco es lo normal. Todos los demás roban dos veces.

Estas inteligencias racistas devolverán resultados racistas a las preguntas que se les formulen, y perpetuarán el ciclo de racismo.

La responsabilidad de los medios a la hora de utilizar símbolos y el lenguaje ha sido crear una visión sesgada del mundo que perpetuase una representación errónea de inmigrantes, extranjeros, mujeres, niños, ancianos, LGTBI y otros colectivos. Ha tenido que llegar el 2016 para que el sector digital nos de la comprobación empírica de que estábamos en lo cierto.

Y ojo, porque el racismo de una IA no se limita a llamar gorilas a dos personas de raza negra, o categorizar mal fotos. Las inteligencias artificiales ayudan a predecir la solvencia económica de una persona o a decidir cuál es la mejor condena para un crimen determinado. Investigaciones recientes demuestran que estas IAs tienen un sesgo por el cual identifican la raza como un factor de riesgo.

De nuevo, nadie se ha metido a programar ese software y otorgar 10 puntos extra de cárcel a todos los no blancos. El algoritmo habrá aprendido por sí mismo lo que a nosotros nos lleva años interiorizar: que lo diferente es extraño, peligroso y merece ser castigado.

La contradicción está clara: hemos refinado las inteligencias artificiales hasta un punto que hemos conseguido que hereden nuestros prejuicios y errores, mientras que al mismo tiempo las dotamos de un aura de inefabilidad.

En el 2017, estamos teniendo éxito en crear las primeras IAs que son occidentales, masculinas, blancas y, por supuesto, racistas.

Y la culpa no es de Google, la culpa es tuya.