
Publicado en la newsletter semanal del Blog Think Big de Telefónica sobre innovación, tecnología, sostenibilidad y su intersección con el ser humano.
Basta con hacer una búsqueda rápida de imágenes de ‘gatitos’ para toparse con la huella de la IA en Internet. Esto vale casi con cualquier animal común si añadimos el término ‘bonito’. Caemos en un catálogo en parte de fotografías, en parte de ilustraciones y, también, de imágenes generadas por inteligencia artificial. Tienen un estilo brillante, edulcorado o artificialmente aviejado. Si la búsqueda la hacemos en inglés, el porcentaje de resultados que provienen de Midjourney, Dall-E o similares es mucho mayor.
Es solo un reflejo de cómo el contenido generado artificialmente empieza a extenderse por Internet. En las redes sociales ya está a flor de piel. Pero también en páginas web de todo tipo. Y todo ello se indexa en los buscadores. La expansión de las herramientas de generación de imágenes ha llevado a muchos a emplearlas para producir imágenes hiperrealistas o dibujos relucientes con unos pocos clics. En los últimos años, y cada vez más, el contenido creado por personas se ha mezclado con el artificial y ambos se muestran codo con codo.
No solo ocurre con las imágenes. También con los textos. Y pronto con los vídeos, pues este mes de diciembre han aparecido Sora, la herramienta de OpenAI, y Veo 2, la de Google. Gasolina para la generación de contenido audiovisual para redes sociales. En el formato audio ya se ha producido un desembarco de piezas artificiales. En YouTube existen ya grupos de música que se venden como “ficticios”. Aparecen como creadores de álbumes completos, que en realidad se han generado con un puñado de prompts. Y los hay de estilos variados, desde música electrónica a un son cubano o ritmos de rock setentero.
El problema de esta producción artificial es la escala. Siempre han existido imágenes modificadas. Incluso imágenes que se podían denominar trucadas o falsas. Pero antes esto requería un trabajo artesanal para que quedara bien. Eran necesarias horas de PhotoShop para hacer grandes cambios en una fotografía y que no se notara. Lo mismo ocurría con los textos. Se podía escribir una noticia falsa, pero alguien tenía que hacerlo. Y esto requería un esfuerzo, económico —había que pagar a esas personas— y de tiempo —esas personas le dedicaban un lapso temporal ineludible a la redacción—. Porque la narración necesita cohesión, coherencia gramatical y no estar plagada de faltas de ortografía. Hace años ningún algoritmo era capaz de hacerlo.
Las IAs generativas de hoy, sin embargo, sí consiguen resultados creíbles. Y aquí viene el problema de la escala. Ahora se puede producir contenido industrialmente. Con pocos clics y tecleando algunos prompts se logran imágenes que funcionan y textos que son correctos. Lo importante no es saber en qué medida sucede esto sino distinguir cuándo sucede. Y es que habitualmente los contenidos artificiales tienen menor calidad. Este es uno de los motivos, junto con la ruptura de la frontera realidad-ficción, que provoca un sentimiento de engaño cuando descubrimos que una aparente fotografía es un producto de la IA.
Un aliento para la desinformación
.
El usuario atento —y avezado— rastrea las pistas que indican que un contenido es artificial. Pero no es evidente para todo el mundo. Es más, incluso para la persona más cuidadosa muchas veces es difícil distinguir si algo ha sido generado con IA o no. Y llega otro de los problemas de este aluvión de contenido artificial. Aparecen deepfakes, fotos falsificadas, textos con información falsa, voces que simulan las de personas reales cuando no lo son. La desinformación ha encontrado en la inteligencia artificial una forma barata de sembrar rápidamente en Internet su contenido engañoso.
Aunque la inteligencia artificial también permite encontrar patrones que indican cuándo un contenido se ha generado con IA. De la mano de los modelos LLM también aparecieron herramientas para comprobar si un contenido ha sido o no generado con un algoritmo. Una de ellas es VerifAI, de TU, la iniciativa de servicios digitales de Telefónica, que permite verificar si una imagen, vídeo o audio se ha producido con IA.
Este tipo de herramientas son necesarias especialmente si se busca información sobre temas poco documentados. Muchas veces se pone el acento en las noticias falsas, pero la desinformación también adopta otras formas. No es difícil toparse con ella en reseñas de productos, al investigar un tema para hacer un trabajo escolar o en forma de infografías de baja calidad en las redes sociales.
Medidas para limitar el impacto de la IA
.
Nos encontramos en un momento en que surgen ideas para evitar la confusión e identificar los productos generados con IA. La colocación de una marca de agua en las imágenes no se materializado como una solución. Normalmente es sencillo quitarla y se suele hacer. Pero se exploran otras vías. Se busca que este tipo de contenido no sepulte el de mayor calidad, que ya existía en Internet y que sigue produciendo las personas. La propia Google ha tomado conciencia de esta cuestión y ha anunciado planes para etiquetar las imágenes artificiales. Esto quiere decir que los usuarios verán una señal que indicará si han sido generadas o editadas con IA. Aunque implementar esta función llevará su tiempo.
Google fundamentará su remedio en la base de metadatos que posee el protocolo C2PA (Coalition for Content Provenance and Authenticity). Se trata de un grupo industrial en el que también están presentes Amazon, Microsoft, OpenAI o Adobe. Su información se nutre de la que proporcionan los creadores sobre sus imágenes. Así, cada pieza incluiría datos sobre cuándo y dónde se ha creado, así como el equipo y el software empleado en su producción.
Entretanto, para esquivar el contenido generado con IA, algunos usuarios ya han empezado a buscar en Google vetando palabras. Los códigos “-midjourney” o “-stable diffussion” suprimen los resultados que tienen estos términos en sus resultados. Incluso hay a quien busca en un marco temporal anterior a 2023, año en que la generación de contenido con IA explotó.
Con los vídeos se necesitará otra solución y lo mismo sucede con el audio. Pero no es sencillo. Sin ir más lejos, pese a los esfuerzos de Google por moderar el posicionamiento de textos generados masivamente con IA, este tipo de contenido abunda. Un estudio exhaustivo del especialista en SEO Saeed Khosravi (en lengua inglesa) indicaba que algunas palabras y frases eran mucho más comunes ahora que en la etapa anterior a ChatGPT. La presencia de la expresión “delve into the intricacies” (ahondar en las complejidades) ha crecido en los resultados de Google un 55.000%, el término “metamorphosis” ha dado un salto de 20.000% y la coletilla “it’s worth noting that” (merece la pena destacar) prolifera ahora un 4.600% más que hace unos años.
Google tiene planeado introducir en su algoritmo medidas para detectar contenido generado con IA. De hecho, parece haber patrones claros. Pero los LLMs también mejoran y probablemente lo pondrán más difícil para distinguir los contenidos artificiales. La clave de fondo es que la búsqueda de información funciona si hay confianza. Ya sea en un buscador, en las redes sociales o al preguntar a alguien en la calle. Quien busca piensa que el resultado que va a obtener le será de utilidad. Google superó al resto de sus rivales porque las primeras opciones que ofrecía tras una consulta eran más relevantes que las de otras plataformas. Ahora es el momento de poner medidas adecuadas para que lo que encontramos en Internet siga mereciendo nuestra confianza.