Actualizado 7:46
Los Ángeles, EFE |
Google actualizó este martes 4 de enero del 2025 sus guías éticas en el uso de la Inteligencia ArtificIal (IA) y excluyó el compromiso de no aplicar esta tecnología en aplicaciones relacionadas con armas o vigilancia que violen normas internacionales o contraríen los derechos.
La redacción anterior, disponible hasta la semana pasada y que se puede consultar en Internet Archive, incluía aplicaciones que evitaría utilizar como «tecnologías que causan o es probable que causen daño general», incluidas las armas, en línea con principios internacionales en derechos humanos.
Los cambios y la nueva visión de la compañía sobre sus principios de la Inteligencia Artificial fueron explicados este martes en el blog de la multinacional en un escrito firmado por el jefe de IA de Google, Demis Hassabis, y el vicepresidente senior de tecnología y sociedad de la compañía, James Manyika.
Lea también:
- Joven se suicidó tras enamorarse de un bot de inteligencia artificial
- Así funciona la censura de la inteligencia artificial china DeepSeek
Google considera que «las democracias deberían liderar el desarrollo de la Inteligencia Artificial, guiadas por valores fundamentales como la libertad, la igualdad y el respeto por los derechos humanos», indica el documento.
«Y creemos que las empresas, los gobiernos y las organizaciones que comparten estos valores deberían trabajar juntos para crear una IA que proteja a las personas, promueva el crecimiento global y respalde la seguridad nacional», agrega.
La nueva actualización incluirá en este sentido disposiciones como que la empresa recurrirá al control humano y tendrá en cuenta la colaboración de los usuarios para garantizar que su tecnología se emplee de acuerdo a los principios «ampliamente aceptados del derecho internacional y los derechos humanos».
También en Teleamazonas:
#TECNOLOGÍA | 🤖 ¿DeepSeek ha tumbado con su IA a los gigantes de Silicon Valley? 👉 https://t.co/mzrkcrqdtC pic.twitter.com/IP2aQmW049
— Teleamazonas (@teleamazonasec) January 29, 2025