¿Por qué la mayoría de los asistentes virtuales que funcionan con base en la inteligencia artificial -como Siri de Apple y Alexa de Amazon- tienen por defecto nombres y voces femeninos y a menudo un estilo de comunicación sumiso o incluso seductor?
El problema, de acuerdo con un nuevo informe presentado esta semana por la Unesco (Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura), se genera a partir de una falta de diversidad dentro de la industria que refuerza estereotipos de género problemáticos.
«Máquinas obedientes y complacientes que pretenden ser mujeres están entrando a nuestros hogares, autos y oficinas», dijo en un comunicado Saniye Gulser Corat, directora de la División para la Igualdad de Género de Unesco. «El mundo necesita prestar atención más de cerca a cómo, cuándo y si las tecnologías de inteligencia artificial tienen género y, de manera crucial, quién está asignando ese género».
Una reflexión particularmente preocupante sobre esto son las «respuestas desviadoras, mediocres o apologéticas» que estas asistentes dan ante los insultos.
El informe toma su título – I’d Blush if I Could (Me sonrojaría si pudiera)- de una respuesta estándar de Siri, asistente de voz de Apple, cuando un usuario le lanza un insulto específico de género. Cuando un usuario le dice a Alexa: «¡Qué sexi eres!», su respuesta típica ha sido un alegre: «¡Gracias por decírmelo!».
Máquinas obedientes y complacientes que pretenden ser mujeres están entrando a nuestros hogares, autos y oficinas
Saniye Gulser Corat, directora de la División para la Igualdad de Género de Unesco
La respuesta de Siri fue recientemente modificada a un más austero «No sé qué responder a eso», pero el informe indica que la tecnología todavía refleja una carga de género y establece que el problema comienza con los equipos de ingeniería que están compuestos, en una abrumadora mayoría, por hombres.
«La obsequiosidad femenina de Siri y el servilismo expresado por muchas otras asistentes digitales proyectadas como mujeres jóvenes, proporciona una ilustración poderosa de los sesgos de género codificados en los productos tecnológicos», descubrió el informe.
Alexa de Amazon, llamada así por la antigua librería de Alejandría, en el Egipto antiguo, es inconfundiblemente femenina. Cortana de Microsoft fue llamada por un personaje de inteligencia artificial en la franquicia de videojuegos Halo que se proyecta a sí misma como una mujer sensual desnuda. Siri de Apple es un nombre nórdico que significa «mujer hermosa que te conduce a la victoria». El sistema Asistente de Google, también conocido como Google Home, tiene un nombre neutral en cuanto al género, pero la voz por defecto es femenina.
No obstante, integradas en sus personalidades humanizadas se encuentran generaciones de percepciones problemáticas sobre las mujeres. Estas asistentes están dejando una marca en la sociedad conforme se vuelven habituales en hogares de todo el mundo, y pueden influenciar las interacciones con mujeres verdaderas, advierte el informe. Como el informe lo explica, «entre la cultura más le enseñe a la gente a equiparar a las mujeres con asistentes, las mujeres reales más serán vistas como asistentes y sancionadas por no comportarse como tales».
Apple y Google declinaron hacer comentarios sobre el informe. Amazon no respondió de inmediato a las solicitudes para hacerlos.
La publicación -la primera en ofrecer recomendaciones de las Naciones Unidas respecto al género de las tecnologías de inteligencia artificial- exhortó a las compañías tecnológicas y a los gobiernos a dejar de hacer que los asistentes digitales sean femeninos por defecto y exploren desarrollar un asistente de voz de género neutral, entre otros consejos.
Los sistemas son un reflejo de disparidades de género más grandes dentro de los sectores de la tecnología y la inteligencia artificial, destacó la Unesco en el informe, el cual fue dado a conocer en conjunto con el gobierno alemán y la Equals Skills Coalition, que promueve el equilibro de género en el sector tecnológico.
Las mujeres están gravemente subrepresentadas en la inteligencia artificial: son el doce por ciento de quienes investigan inteligencia artificial y seis por ciento de quienes desarrollan software.
El informe destacó que las compañías de tecnología justifican el uso de voces femeninas al referirse a estudios que muestran que los consumidores prefieren las voces femeninas a las masculinas. Sin embargo, les hace falta mencionar la investigación que muestra que a las personas les gusta el sonido de una voz masculina cuando hace declaraciones de autoridad, pero una femenina cuando se trata de ser útil, y así perpetúan los estereotipos.
Expertos afirman que el sesgo integrado en la inteligencia artificial y las disparidades más amplias dentro del campo de la programación no son nuevas; mencionan como ejemplos la herramienta de contratación inadvertidamente sexista desarrollada por Amazon y la tecnología de reconocimiento facial que identificaba erróneamente a los rostros de personas negras.
«No siempre es un sesgo malicioso, es un sesgo inconsciente, y hay una falta de conciencia de que este sesgo inconsciente existe, así que se perpetúa», dijo Allison Gardner, una cofundadora de Women Leading in AI (Mujeres al frente de la Inteligencia Artificial). «Sin embargo, estos errores ocurren porque no tienes equipos diversos y la diversidad de pensamiento e innovación para detectar los problemas obvios en el lugar».
Allison Gardner, cofundadora de Women Leading in AI
No obstante, el informe ofrece consejos educativos y pasos para abordar los temas, que defensores de la igualdad han impulsado desde hace tiempo.
La organización de Gardner realiza esfuerzos para acercar a mujeres que trabajan en inteligencia artificial con líderes empresariales y políticos para discutir la ética, el sesgo y el potencial para marcos legislativos para desarrollar la industria de una manera que sea más representativa.
El grupo ha publicado su propia lista de recomendaciones ( disponible en PDF) para construir inteligencia artificial incluyente, entre ellas establecer un órgano regulador para auditar los algoritmos, investigar las quejas y asegurarse de que el sesgo sea tomado en cuenta al desarrollar nueva tecnología.
«Necesitamos cambiar las cosas ahora, porque se implementan ahora», dijo Gardner, al señalar la rápida expansión de los asistentes virtuales que funcionan con inteligencia artificial. «Ahora es cuando estamos escribiendo los estándares que serán usados en el futuro».
Gardner dijo que los cambios también se necesitan en la educación, pues el sesgo es un síntoma de subrepresentación sistemática dentro de un campo dominado por los hombres.
«La estructura entera del área de informática ha sido diseñada para estar centrada en los hombres, incluso hasta en la semántica que usamos», dijo ella.
Aunque las mujeres ahora tienen más oportunidades en informática, más están desapareciendo del campo conforme avanzan en sus carreras, una tendencia conocida como el fenómeno del Ducto con Goteras.
«Yo diría que son obligadas a salir por un entorno y una cultura poco amistosos para las mujeres», dijo Gardner. «Es la cultura la que necesita cambiar».