Secciones
Siri, Alexa y Cortana son sexistas y sumisos, acusa la Unesco
Tecnología

Siri, Alexa y Cortana son sexistas y sumisos, acusa la Unesco

Los asistentes digitales que responden con voz de mujer y están diseñados como ayudantes femeninas están reforzando los estereotipos sexistas, según un informe de la Unesco

por LaVerdad

Siri, Alexa y Cortana son sexistas y sumisos, acusa la Unesco

Siri, Alexa y Cortana son sexistas y sumisos, acusa la Unesco

Un informe de la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) publicado este miércoles acusa que los asistentes digitales que responden con voz de mujer y están diseñados como ayudantes femeninas están reforzando los estereotipos sexistas

El estudio titulado “I’d blush if I could” (que en español significa “Me sonrojaría si pudiera”) señala que la gran mayoría de los asistentes, como Siri de Apple, Alexa de Amazon y Cortana de Microsoft, están diseñados para ser vistos como femeninos, desde sus nombres hasta sus voces y personalidades,

 Además, se programan para ser sumisos y serviciales, aún cuando se les insulta, reforzando los prejuicios de género y normalizan el acoso sexista. Por ejemplo, se destaca que Siri estaba programado previamente para responder a los usuarios que la llamaban "puta" diciendo "Me sonrojaría si pudiera".

"La sumisión de Siri ante el abuso de género, así como el servilismo expresado por muchos otros asistentes digitales proyectados como mujeres jóvenes, proporciona una potente muestra sobre los sesgos de género codificados en los productos tecnológicos", alertó.

Acerca de Alexa de Amazon, el informe detalló que “refleja, refuerza y propaga los sesgos de género, modela la aceptación del acoso sexual y el abuso verbal entre los usuarios móviles, envía mensajes sobre cómo las mujeres y las niñas deben responder a las solicitudes y expresarse y hace que indirectamente las mujeres sean el “rostro” de los fallos y errores del propio asistente”.

Cabe recordar que previamente, Microsoft había declarado que la compañía encontró que "una voz femenina respalda mejor nuestro objetivo de crear un asistente digital" en su evaluación para las opciones de voz de Cortana.

El documento indica que esto podría impactar significativamente la cultura, ya que los asistentes de voz se han integrado rápidamente en la vida cotidiana de muchas personas y ahora representan casi una quinta parte de todas las búsquedas en Internet.

La feminización de los asistentes virtuales ayudaría a que los sesgos de género se afiancen y propaguen en las comunidades de todo el mundo, a medida de que la tecnología de voz se expande.

"El mundo debe prestar mucha más atención a cómo, cuándo y si las tecnologías de IA (inteligencia artificial) tienen género y, lo que es más importante, quién lo define", dijo Saniye Gulser Corat, directora de la Unesco para la igualdad de género.

Este fue un llamado a que las compañías tomen medidas para explorar opciones de género neutras y programaciones que desalienten el uso de insultos y lenguaje abusivo basados en el género.

La portavoz de Womankind, Maria Vlahakis, dijo que prestó una "atención más que necesaria" al sesgo de género en los algoritmos.

"Estos algoritmos perpetúan los estereotipos de género y el comportamiento sexista y misógino y reflejan las desigualdades estructurales de género más amplias en la tecnología", dijo.

Temas

  • Tecnología
  • Alexa
  • Siri
  • Cortana
  • asistente virtual
  • asistente
  • digital

Comentarios

Te puede interesar