20 C
Mexico City
viernes, noviembre 22, 2024

Oye, Siri: tú, Alexa y Cortana son sexistas y refuerzan estereotipos de género: ONU

CIUDAD DE MÉXICO, 23 de mayo (AlMomentoMX).— Los cada vez más populares los asistentes virtuales que responden con voz de mujer y están diseñados como ayudantes femeninas están reforzando los estereotipos sexistas y misoginos, reveló  un informe de Naciones Unidas.

De acuerdo con el estudio elaborado por el órgano científico y cultural de la ONU, la Unesco, la gran mayoría de los asistentes —como Siri de Apple, Alexa de Amazon, y Cortana de Microsoft— están diseñados para ser vistos como femeninos, desde sus nombres hasta sus voces y personalidades.

Asimismo, están programados para ser sumisos y serviles, incluso para responder de forma cortés a los insultos, lo que significa que refuerzan los prejuicios de género y normalizan el acoso sexista. Por ejemplo, Siri estaba programado previamente para responder a los usuarios que la llamaban “puta” diciendo “Me sonrojaría si pudiera”.  

 

La sumisión de Siri ante el abuso de género, así como el servilismo expresado por muchos otros asistentes digitales proyectados como mujeres jóvenes, proporciona una potente muestra sobre los sesgos de género codificados en los productos tecnológicos”, indicó el documento de la Unesco.

Los asistentes de voz se han integrado rápidamente en la vida cotidiana de muchas personas y ahora representan casi una quinta parte de todas las búsquedas en Internet, señaló el informe, que argumenta que pueden tener un impacto cultural significativo.

El estudio resaltó que a medida que la tecnología de voz llega a más comunidades en todo el mundo, la feminización de los asistentes digitales puede ayudar a que los sesgos de género se afiancen y propaguen.

Un informe de la UNESCO denuncia que los asistentes digitales como Siri, Alexa o Cortana alientan los estereotipos de género. Simulan ser ayudantes femeninas y están programadas para ser sumisas, lo que entre otras cosas puede acabar normalizando el acoso sexista. pic.twitter.com/RzM3f1jyha

— Marta Montojo (@martamontojo) May 23, 2019

Máquinas obedientes y complacientes que pretenden ser mujeres están entrando a nuestros hogares, autos y oficinas. Para cambiar de rumbo, necesitamos prestar atención a cómo, cuándo y si las tecnologías de inteligencia artificial tienen género y, lo más importante, quién está asignando ese género”, dijo Saniye Gulser Corat, directora de la División para la Igualdad de Género de Unesco en un comunicado.

El informe instó a las compañías a tomar medidas, como dejar de poner voz femenina por defecto a los asistentes digitales, explorando opciones de género neutras y programaciones que desalienten el uso de insultos y lenguaje abusivo basados ​​en el género.

Video recomendado:

#Alexa y #Siri se casan en spot lanzado por ambas marcas donde mezclan los temas de #tecnologia #religión #sexualidad haciendo incapie en la boda de dos personas del mismo género. .📍#Amazon y #Apple tratan de dar a conocer sus postura respecto de estos temas que han sido muy controversiales en diversas sociedades y más aún como en la peruana. .📍¿Qué opinión tienes respecto del spot? ¿Estas de acuerdo?

Posted by Wilbur Perez Requena on Sunday, May 19, 2019

 

AM.MX/dsc

The post Oye, Siri: tú, Alexa y Cortana son sexistas y refuerzan estereotipos de género: ONU appeared first on Almomento.Mx.

Artículos relacionados

NOTICIAS

Abrir chat
Hola 👋
¿En qué podemos ayudarte?