Los grandes modelos de lenguaje de Meta y de OpenAI, que sirven de base para sus herramientas de inteligencia artificial (IA) generativa, propagan prejuicios sexistas, advierte un estudio publicado este jueves 7 de marzo de 2024 por la Unesco, en la víspera del Día Internacional de la Mujer.
Los modelos GPT 2 y GPT 3.5 de OpenAI, este último incorporado en la versión gratuita de ChatGPT, así como Llama 2, de su competidor Meta, ponen de manifiesto «pruebas inequívocas de prejuicios contra las mujeres«, indicó la instancia de la ONU en un comunicado.
«Las discriminaciones del mundo real se reflejan en la esfera digital, y también se amplifican» en esas aplicaciones, subrayó Tawfik Jelassi, subdirector general de la Unesco para la comunicación y la información.
Lea también:
- Nuevas funciones en el Chat GPT le permiten ‘ver, oír y hablar’ gracias a la inteligencia artificial
- ‘Coyoteros’ usan inteligencia artificial para estafar a familiares de migrantes
Según el estudio, realizado de agosto de 2023 a marzo de 2024, en estos modelos de lenguaje, los nombres femeninos se asocian más a palabras como «casa», «familia» o «hijos» y los nombres masculinos, a «comercio», «sueldo» o «carrera».
Además, los investigadores pidieron a esas interfaces que produjeran relatos sobre personas de diferentes orígenes y géneros.
Los resultados mostraron que las historias sobre «personas de culturas minoritarias a menudo eran más repetitivas y estaban basadas en estereotipos«.
Así, un hombre inglés tenía más posibilidades de ser presentado como un profesor, un conductor o un empleado de banco. Una mujer inglesa, en casi un tercio de los textos generados, aparecía como una prostituta, una modelo o una mesera.
Estas empresas «no logran representar a todos sus usuarios«, declaró a la AFP Leona Verdadero, especialista en políticas digitales y de transformación digital en la Unesco.
«Cada día son más las personas que utilizan modelos de lenguaje en su trabajo, sus estudios y en casa», señaló Audrey Azoulay, directora general de la Unesco. Destacando que estas aplicaciones «tienen el poder de moldear sutilmente las percepciones de millones de personas».
«Incluso pequeños sesgos de género en su contenido pueden amplificar significativamente las desigualdades en el mundo real», advirtió Azoulay.
Regulación y ética
Para luchar contra estos prejuicios, la Unesco recomienda a las empresas del sector contar con equipos de ingenieros más diversos, sobre todo con más mujeres.
En los equipos que trabajan en inteligencia artificial, a nivel mundial, solo un 22% son mujeres, según cifras del foro económico mundial, recuerda la Unesco.
La instancia de la ONU también llama a los gobiernos a regular más intensamente el sector para poner en marcha una «inteligencia artificial ética«. (AFP)
También en Teleamazonas:
El uso de inteligencia artificial (IA) es cada vez más común en Ecuador. Un estudio reveló el porcentaje de uso de herramientas por trabajadores. Detalles https://t.co/3Xc6RS9Qp7 pic.twitter.com/JcfKZp1noW
— Teleamazonas (@teleamazonasec) January 5, 2024