Las redes sociales se han convertido en una herramienta indispensable en la comunicación mundial, pero también en un foco de peligros, sobre todo para los menores de edad. Human Rights Watch alertó a los padres de familia sobre la vulnerabilidad de subir imágenes en la web, pese a tener restricciones.
Una investigación de la organización descubrió que LAION-5B, un conjunto de datos utilizados para entrenar herramientas populares de IA y construido al extraer datos de la mayor parte de internet, contiene enlaces de imágenes identificables de niñas y niños.
«Estas fotos son extraídas de la web en un gran conjunto de datos que las empresas utilizan después para entrenar sus herramientas de IA. A su vez, otros están utilizando estas herramientas para crear imágenes deepfake maliciosas que ponen incluso a más niños en riesgo de explotación y daño«, señaló la organización en junio del 2024.
En este análisis se descubrió que contenían información sensible como nombres o la URL donde está almacenada la imagen. Además, en muchos casos «sus identidades son fácilmente rastreables, incluyendo datos sobre cuándo y dónde estaba la niña o el niño en el momento en que se tomó su foto».
Lea también:
- Tim Ballard, quien inspiró ‘Sound of Freedom’, dará charlas en Ecuador
- ‘Sonido de libertad’, la película que expone el tráfico de niños en Latinoamérica
Estas imágenes fueron obtenidas principalmente de blogs personales, redes sociales y videos en YouTube que tienen poca visibilidad e incluso fueron publicados hace décadas por los menores, padres y familiares.
Niñas, niños y adolescentes vulnerables a delitos
El peligro de este mecanismo radica en que una vez que sus datos son barridos e introducidos en los sistemas de IA, los menores se enfrentan a nuevas amenazas.
En algunos casos, los delincuentes utilizan las herramientas de IA entrenadas con LAION para generar imágenes sexualmente explícitas de niñas y niños.
También se expone a los pequeños a que sean vulnerables a robar su apariencia a partir de fotos o vídeos suyos en internet. Con esta nueva modalidad, es posible que se «utilice la IA para manipularlos para que digan o hagan cosas que nunca dijeron o hicieron», alertó Human Rights Watch.
Esto debido a que en la actualidad las herramientas de inteligencia artificial crean productos realistas en cuestión de segundos, suelen ser gratuitas y fáciles de usar. Lo cual supone un riesgo de proliferación de deepfakes no consentidos que podrían difundirse en línea durante toda la vida y causar daños duraderos.
Sharenting, grooming, pedofilia…
En esta problemática también se ha popularizado el término en inglés ‘sharenting’, que surge de la unión de dos palabras: share (compartir) y parenting (parentalidad). Esta palabra hace alusión a la práctica de las personas adultas de compartir fotos de sus hijos en Internet y las redes sociales.
Acciones que pueden desencadenar en problemas legales o exponer a los niños, niñas y adolescentes a otros peligros como el grooming, acoso por parte de pederastas; pedofilia, ciberbullying, robo de identidad y robo de datos personales.
¿Cómo proteger a los menores de edad?
- Evitar subir imágenes de los menores de edad a redes sociales u otros sitios de internet para minimizar el riesgo
- Estar consciente que una vez que son publicadas las fotografías o videos se vuelven públicas
- Configurar la privacidad y seguridad de las redes sociales para que exista un acceso limitado a su contenido
- Leer los términos y condiciones de las redes sociales para conocer qué hacen con las imágenes o videos que sube.
También en Teleamazonas:
#ATENCIÓN | Arcotel advierte cuidado de datos biométricos tras escaneo masivo de iris en Ecuador. ¿Delitos? https://t.co/pcLZpnXlzb pic.twitter.com/c9oEC9vfQ6
— Teleamazonas (@teleamazonasec) August 2, 2024