La IA estaría generando imágenes que usamos sin darnos cuenta

La IA estaría generando imágenes que usamos sin darnos cuenta

La Inteligencia Artificial (IA) cada vez viene ocupando más espacio en nuestras vidas, a tal punto de que en muchas actividades no llegamos a distinguirla. El más claro ejemplo actual es con las imágenes, las mismas se generan por herramientas de IA y hoy se pueden encontrar en los buscadores. La viralización de aquello que generan DALL-E y Stable Diffusion hoy se dispersan por la web para ser utilizadas abiertamente. 

Cada vez más imágenes sensibles están surgiendo de la Inteligencia Artificial, muchas vinculadas al ámbito médico. El canal LAION Discord planteó la preocupación de un usuario con relación a datos encontrados mediante esta situación. Esto lo llevó a ponerse en contacto con la plataforma para eliminar esa información. Uno de los desarrolladores del conjunto de datos LAION es Romain Beaumont que, además, según su perfil de LinkedIn, es ingeniero de aprendizaje automático en Google. Beaumont planteó que “la mejor manera de eliminar una imagen del Internet es pedir que el sitio web de alojamiento deje de alojarla”. Posteriormente, dejó en claro que no “estamos alojando ninguna de estas imágenes”. También fue consultado si conocía lugares que alojen a las mismas, a lo cual contestó que “si lo descargas, obtienes la lista completa de direcciones URL”.

Cuando la IA empieza a preocupar

Ante el temor de lo que puede pasar a futuro con esta tecnología que surge de herramientas automáticas, muchas personas preguntan si son ilegales, inapropiadas o rompen cierta confidencialidad. Un portavoz de LAION se contactó, vía correo electrónico, con el portal Motherboard para plantear su situación al respecto de este tema. Allí se planteó que “en este caso, sinceramente estaríamos muy felices de saber de ellos,… Estamos trabajando muy activamente en un sistema mejorado para gestionar las solicitudes de eliminación”. 

Este incidente ha generado mucha preocupación por los gigantescos conjuntos de datos que se utilizan para entrenar la IA. Muchos de estos diseños “raspan” imágenes existentes que no son de propiedad de la herramienta o el usuario que las emplea para la creación final. Los derechos de autor entran a tallar en una situación que comienza a poner el ojo sobre los software de generación de imágenes por Inteligencia Artificial.

Mucha información para registrar

Se conoce que LAION-5B posee un conjunto de datos con más de 5 mil millones de imágenes. La preocupación es que dentro de esta base se encuentra miles de fotos vinculadas a la pornografía de celebridades y con edición en Photoshop. Esta pornografía pirateada es robada y se pueden apreciar capitaciones de los protagonistas para incluir al famoso. También se pueden encontrar obras de arte de artistas famosos actuales, trabajos de fotógrafos, imágenes médicas y fotos de personas que no han dado autorización. 

Consultada por el portal Motherboard, la abogada Tiffany Li, especializada en tecnología y profesora asistente de derecho en la Facultad de Derecho de la Universidad de New Hampshire, se refirió a este tema. La doctora Li apuntó que “muchos de estos grandes conjuntos de datos recopilan imágenes de otros conjuntos de datos, por lo que puede ser difícil encontrar a la persona original que realmente recopiló la imagen por primera vez”.  No es sencillo de encontrar el origen de una foto para iniciar la solicitud de su eliminación, esto hace que muchos sitios tengan a personas pululando y, sus imágenes, utilizadas por la IA para cualquier fin.