
Seguro que en algún grupo de WhatsApp familiar o de amigos has recibido estos días un vídeo hecho con inteligencia artificial: alguien conocido protagonizando una escena divertida, exagerada o imposible. Tal vez incluso te hayan pedido una foto tuya para “hacer una broma” y, en segundos, apareces en una situación tan sorprendente como graciosa. Estas creaciones circulan con naturalidad y arrancan sonrisas, pero pocas veces nos paramos a pensar qué herramienta hay detrás. En muchos casos es Grok, la inteligencia artificial integrada en X (antes Twitter): fácil de usar, muy viral… y no exenta de riesgos que conviene conocer, especialmente cuando quienes la utilizan son menores.
¿Qué es Grok y cómo funciona?
Grok es un asistente de inteligencia artificial conversacional desarrollado por xAI, la empresa de Elon Musk. Puede responder preguntas, generar textos e imágenes y acceder a información en tiempo real desde X. Su rasgo diferencial es un tono más directo y con menos filtros que otros chatbots, lo que le ha permitido abordar temas que otras IAs evitan, pero también le ha situado en el centro de numerosas controversias.
En X es habitual leer: “Hola, @Grok, ¿esto es real?”. Muchos usuarios lo utilizan como sistema de verificación. Sin embargo, expertos como Carlos Guadián o Nuria Oliver advierten de que no hay garantía de veracidad. Grok, como otros modelos de lenguaje, no razona ni comprueba hechos: genera respuestas probables a partir de patrones de datos, lo que puede conferirle una falsa autoridad.
Pero lo que verdaderamente ha triunfado de Grok ha sido la funcionalidad de crear vídeos e imágenes a partir de una fotografía y un sencillo promt.
La polémica
Grok ya se había utilizado para generar imágenes violentas, vejatorias y sexualizadas de figuras políticas y famosas y para crear imágenes racistas, xenófobas y asociadas al nazismo de deportistas.
La polémica se ha intensificado durante las últimas semanas por el uso indebido de Grok para crear imágenes sexualizadas de personas reales, incluso menores, sin consentimiento. AI Forensics analizó más de 20.000 imágenes generadas por Grok y concluyó que más de la mitad sexualizaban a personas —principalmente mujeres— y que un 2% mostraban a individuos que aparentaban ser menores de edad.
El «Bikinigate» ha disparado las alarmas en varios países, que investigan ahora a la red social por permitir crear este tipo de imágenes sin el consentimiento de los afectados. En España, la ministra de Juventud e Infancia, Sira Rego, ha remitido un escrito a la Fiscalía General del Estado para solicitar que investigue a Grok por presuntos delitos de difusión de material de violencia sexual contra la infancia.
Tras varias semanas de presión desde distintos lugares del planeta, Musk admitió el fallo y como respuesta han limitado la funcionalidad de los desnudos a la versión de pago. El 15 de enero finalmente X ha comunicado que pone fin al contenido de semidesnudos tras las críticas y problemas judiciales. La nueva política afecta a todos los usuarios, incluidos los suscriptores de pago de la plataforma X
Recomendaciones para los padres
Una herramienta tan potente resulta especialmente atractiva para los adolescentes, que pueden percibirla como un simple “juguete” para crear situaciones graciosas o virales, sin ser conscientes de las consecuencias que puede acarrear un uso irresponsable.
Como padres nos conviene estar atentos ya que aunque eventualmente parece que se ha «solucionado» la polémica de Grok, llegarán otras herramientas similares. La generación de contenido para adultos con inteligencia artificial ya mueve 2.000 millones de euros. Sin ir más lejos OpenAI tiene previsto lanzar este trimestre un ChatGPT +18 mientras los gobiernos luchan para proteger derechos
Desde Empantallados queremos ofrecer algunas claves para ayudar a las familias a abordar este tema con sus hijos y prevenir posibles riesgos.
1. Explicar que “jugar” con IA no es inocente
Muchos adolescentes no son conscientes de que generar o compartir una imagen manipulada de otra persona puede vulnerar derechos fundamentales (honor, intimidad, propia imagen) y constituir un delito, especialmente si hay contenido sexual o vejatorio.
2. Dejar claro que la responsabilidad existe aunque lo haga una IA
Usar una herramienta automática no exime de responsabilidad. Si un menor crea, difunde o guarda contenido ilegal, la responsabilidad puede recaer sobre él y, en determinados casos, sobre sus padres o tutores.
3. Revisar permisos y accesos
Comprobar si la app de X está instalada, qué versión usan y si tienen acceso a funciones de IA generativa. Activar controles parentales, limitar cuentas y revisar ajustes de privacidad.
4. Fomentar el pensamiento crítico
Insistir en que Grok (y cualquier IA) puede equivocarse, inventar datos o generar contenidos dañinos. No debe usarse como fuente de información fiable ni como “árbitro de la verdad”.
5. Hablar del consentimiento digital
Usar imágenes de otras personas —aunque sean amigos— sin permiso, y más aún para modificarlas, es una falta grave. El consentimiento también existe en el entorno digital.
6. Alertar sobre la huella digital
Todo lo que se genera o comparte puede guardarse, reenviarse o salir del control del menor. Un error hoy puede reaparecer años después con consecuencias académicas, sociales o laborales.
7. Mantener canales de confianza abiertos
Es clave que los jóvenes sepan que pueden acudir a un adulto si algo les incomoda, si reciben contenido inapropiado o si ya se han metido en un problema.
8. Informarse e informar
Conocer las leyes sobre deepfakes, pornografía infantil y delitos digitales ayuda a prevenir. No se trata de asustar, sino de proteger y acompañar.
La tecnología avanza rápido; la educación digital y el acompañamiento familiar siguen siendo la mejor defensa.
.
Y no te pierdas todas las novedades en https://www.ateleus.com
