Meta quiere utilizar las imágenes de Facebook e Instagram para entrenar su IA

Expertos analizan las consecuencias de esta aplicación en las redes sociales y cómo puede afectar a sus usuarios

Logos de Facebook e Instagram.

Logos de Facebook e Instagram.

Saray Fajardo

Facebook e Instagram han anunciado a sus usuarios que a partir del próximo 26 de junio utilizarán todo el contenido subido a sus redes sociales para entrenar su Inteligencia Artificial con el objetivo de, entre algunos usos, crear imágenes para campañas o contenido comercial. De esta manera, las imágenes subidas a estas plataformas no sólo serán vistas por los amigos y seguidores, sino por el resto de usuarios. En este sentido, Meta, la compañía de Mark Zuckerberg, considera que, al compartir las instantáneas en su perfil, las personas ceden los derechos. Sin embargo, los usuarios que no estén de acuerdo con esta nueva medida puede solicitar que se excluyan sus imágenes a través de un formulario. Sin duda, esta decisión ha generado un intenso debate y numerosas dudas entre los usuarios. ¿Es legal esta decisión? ¿Qué fotografías va a utilizar la plataforma?

"No deberíamos firmar nuestro rechazo, sino que nos deberían pedir nuestro consentimiento para utilizarlas porque son nuestras", señala el director del Instituto Valenciana de Investigación de Inteligencia Artificial (VRAIN), Vicent Botti. Además, el experto señala que el usuario no va a conocer qué imágenes se van a utilizar y para qué lo van a hacer.

Otro de las dudas reside en el uso de las imágenes colectivas, en las que no sólo aparece el usuario de este perfil, sino también otras personas de su entorno. En este caso, habría que cuestionarse si sería necesario el consentimiento del resto o sólo el del propietario de la instantánea. "Se supone que esto sólo lo podrían ver los seguidores, pero ahora va a estar abierto a todos", afirma el experto.

Uso correcto

Meta no ha detallado cómo va a entrenar su IA con estas imágenes, por lo que el usuario desconoce cuál va a ser el uso de estos recuerdos que comparte en sus redes sociales. "Hay que ver si se entrenará al modelo para ayudar a la compañía o cuál va a ser la finalidad", explica Botti. Esta no es la única aplicación que utiliza imágenes para testar la IA. Por ejemplo, la IA generativa es un tipo de sistema que genera textos, imágenes o vídeos a partir de una base de datos. En este sentido, el experto recuerda a los usuarios que es importante ser cautos a la hora de compartir información. "No somos conscientes de la exposición a la que accedemos al subir nuestra información que se convierte en pública", explica.

"Fake news"

El director de VRAIN señala que, una vez implantada la IA en este tipo de aplicaciones, los vídeos o fotografías manipuladas deberían estar diferenciadas del resto de imágenes para evitar caer en las 'fake news'. "Sería importante regularlo para saber qué imágenes están hechas por IA y, sobre todo, quién está detrás de ellas para evitar un mal uso", denuncia.

Además, el mal uso de la IA también puede comportar problemas -sobre todo a nivel psicológico- entre los usuarios, que, en la mayoría de ocasiones, son adolescentes. "El cerebro aprende y se adapta a los estímulos que más ve", señala la psicóloga Begoña Albalat. Por eso, reivindica la importancia de establecer un criterio ético y racional para que, en sus palabras, "no se expongan cuerpos inalcanzables". En este sentido, recalca que se debería "educar a la IA en la diversidad para que exponga todo tipo de cuerpos". "Esto conseguiría efectos más deseables y evitaría problemas entre los jóvenes, que pueden llegar a maltratar a su cuerpo para llegar a algo que es inalcanzable", concluye.

Suscríbete para seguir leyendo