Acceso a la pornografía, distribución de contenido de abuso infantil, violencia explícita, mensajes de adultos que se hacen pasar por niños… Hay muchas cosas en internet con las que los padres desearían que sus hijos nunca entraran en contacto.

 

Sin embargo, los intentos de proteger a la infancia en el entorno digital chocan constantemente con el derecho a la privacidad de los internautas y la regulación sobre protección de datos.

Las propuestas para bloquear el acceso de los menores a contenido perjudicial suelen girar en torno dos grandes estrategias.

En primer lugar, se encuentra la moderación de contenidos. Mediante una técnica híbrida que combina la tecnología con un equipo humano, las plataformas están en constante actividad de monitorización para localizar y eliminar contenido perjudicial en la red. Esto es especialmente importante en las redes sociales, en las que una gran parte de usuarios son menores de edad y, por tanto, en las que se presupone que no debería haber nunca contenido inapropiado.

La muerte de Molly Russell, una chica británica de 14 años que había visualizado una gran cantidad de contenido relacionado con autolesiones en redes sociales antes de suicidarse, o el reciente descubrimiento de que TikTok permite la promoción de Only Fans en su plataforma, revelan que estos mecanismos no son los más completos.

De hecho, estos conflictos han despertado tantas demandas de control a las compañías que los legisladores están intentando que la protección de los menores deje de depender de la buena voluntad de las plataformas y se establezcan medidas de obligado cumplimiento.

Las nuevas medidas planteadas por los legisladores hacen recaer sobre las plataformas la responsabilidad de evitar el acceso de los menores a contenido dañino

A la luz del caso de Molly Russell, Matt Navarra, especialista y antiguo asesor del gobierno de Reino Unido en materia digital, aseguraba a Aceprensa que, si se quieren medidas efectivas de verdad, debe ser la regulación la que convierta la protección de los usuarios en una exigencia para las plataformas, con un régimen de sanciones que fuerce al cambio.

Así es como se ha llegado a la segunda propuesta para la protección de los menores, que busca directamente evitar que accedan a determinadas páginas apoyándose en mecanismos de verificación de la edad. Es decir, si vas a entrar en una página web donde se realizan apuestas, se distribuye pornografía o se venden sustancias solo legales para adultos, la idea es que las propias plataformas se encarguen de verificar si el usuario es un menor.

Como si se tratara de un casino, una sala X o un estanco cualquiera del mundo offline. Fácil, ¿no? Pues no.

De primeras, uno podría preguntarse quién puede estar en contra de estas medidas, pero la realidad es que no son tan fáciles de aplicar.

La privacidad, el primer gran escollo

Los mecanismos de verificación de la edad parten de una premisa clara: los usuarios tienen que poder demostrar su año de nacimiento de forma inequívoca. Eso suele traducirse en que tienen que enviar su documento de identidad a las plataformas.

Puede entenderse que esta idea no sea atractiva para muchos, más aún si se trata de páginas de la que uno desearía que no se supiera que frecuenta.

De hecho, Utah acaba de aprobar una legislación que obliga a las plataformas de distribución de pornografía a verificar la edad de sus usuarios y, en protesta, Pornhub ha bloqueado el acceso a su contenido a todo el estado.

Una actriz de la industria del porno, Cherie DeVille, explica el porqué de esta reacción en un artículo para Rolling Stone: “Es probable que muchos adultos también busquen porno en otros sitios porque no quieren subir su identificación a un sitio para adultos. Es una violación masiva de la intimidad obligar a la gente a dar copias de sus documentos a cualquier empresa de medios digitales».

Las medidas de verificación de la edad requieren de un documento identificativo y plantean dudas en torno a la privacidad, pero Francia podría haber encontrado la solución

La medida de Utah no es solo para bloquear el acceso al porno y no es la industria pornográfica la única descontenta. Debido a los crecientes estudios que relacionan el abuso de redes sociales con el deterioro de la salud mental de los jóvenes, el gobierno también ha decretado que los menores no podrán acceder a las redes sociales sin consentimiento de los padres y permite a los progenitores el acceso a todas las cuentas de sus hijos.

Además, estas plataformas deberán bloquear el acceso de los usuarios menores de 18 años a las cuentas entre las 22.30 y las 6.30 horas, a menos que los padres modifiquen la configuración.

Por eso, asociaciones de la industria tecnológica también se han opuesto a esta ley.

“Utah pronto exigirá que los servicios en línea recopilen información confidencial sobre adolescentes y familias, no solo para verificar las edades, sino también las relaciones parentales, como documentos de identidad expedidos por el gobierno y certificados de nacimiento, poniendo sus datos privados en riesgo”, dice Nicole Saad Bembridge, directora asociada de NetChoice, un grupo de presión tecnológico, a The Guardian.

De hecho, esa tensión con la privacidad motivó que en el Reino Unido finalmente se renunciara al proyecto de implantar una medida similar a la de Utah para evitar el acceso al contenido sexual.

Sin embargo, Francia asegura haber dado con la clave para que la privacidad siga siendo preservada a la vez que se confirma la edad de los usuarios. Cuatro años después de la promesa de Emmanuel Macron de impedir el acceso al porno a menores, podría haber encontrado una solución que le permita cumplirla.

Se está desarrollando un sistema de certificación de la edad para su aplicación en septiembre de 2023, explica a Le Parisien Jean-Noël Barrot, ministro encargado del sector digital.

El sistema empleado se conoce como de “doble anonimato” y funciona separando el proceso de emitir la información del de verificar la edad.

Olivier Blazy, especialista en criptografía y profesor en la École Polytéchnique, explica a Le Monde la idea: “El mecanismo que presentamos se basa en un token digital que emitirán los sitios sujetos a una restricción de edad. Lo ‘sellará’ una autoridad capaz de certificar que la persona es mayor de edad. Este enfoque ofrece una mayor confidencialidad: el sitio no necesita conocer la identidad ni la edad del usuario y se limita a asignarle un token, y la autoridad certificadora no necesita saber de qué sitio procede la solicitud de mayoría de edad”.

Habrá que ver los resultados finales de las pruebas y qué efectos genera su despliegue si finalmente se produce, como está previsto, este año.

Los detractores de estas medidas también están preocupados de que se abra una brecha en la encriptación que salvaguarda la privacidad de los usuarios de algunas plataformas

Más problema plantea la propuesta de la Unión Europea de escanear las cuentas de redes sociales y plataformas de mensajería instantánea como WhatsApp, iMessage y Snapchat para rastrear contenidos de abuso infantil.

Según el borrador presentado, cualquier proveedor de servicios cifrados podría verse obligado a examinar miles de millones de mensajes, vídeos y fotos en busca de “identificadores” de determinados tipos de contenidos cuando se sospechara que un servicio se utiliza para difundir material perjudicial.

Las críticas por parte de abogados y activistas de los derechos a la protección de datos y de la privacidad no han tardado en llegar. El Servicio Jurídico del Consejo de la UE ha advertido de que el Reglamento propuesto supone una “limitación especialmente grave de los derechos a la intimidad y a los datos personales” y que existe un “grave riesgo” de que sea objeto de revisión judicial por múltiples motivos.

La gran preocupación también es que, una vez levantada la veda para que se permita abrir una brecha en las plataformas encriptadas, la privacidad ya no esté nunca más garantizada.

Sin embargo, la Comisión Europea defiende que “las obligaciones propuestas para los proveedores de servicios en materia de detección de material de abuso sexual infantil son tecnológicamente neutras, lo que significa que no prescriben qué tecnología debe utilizarse para la detección. Se trata de una obligación de resultado, no de medios, que deja al proveedor la elección de la tecnología que debe utilizar, siempre que cumpla unas salvaguardias estrictas”.

En cuanto al peligro para la encriptación, la Comisión se pronuncia de manera rotunda: “Una gran parte de las denuncias de abusos sexuales a menores, que son fundamentales para iniciar investigaciones y rescatar a los niños, proceden de servicios que ya están encriptados o que podrían encriptarse en el futuro. Si dichos servicios quedaran exentos de la obligación de proteger a los niños y de tomar medidas contra la circulación de imágenes y vídeos de abusos sexuales a menores a través de sus servicios, las consecuencias serían graves para los niños”.

La eficacia, otra gran duda planteada

Incluso aunque las medidas planteadas pudieran garantizar la privacidad, sus detractores también dudan de su efectividad.

Para empezar, un usuario puede simplemente manipular la red privada virtual (VPN) para burlar los sistemas.

“Las VPN permiten a los usuarios cambiar la ubicación de su dirección IP”, escribe Cherie deVille. “Cualquiera que tenga un familiar adolescente sabe que los niños las usan. Los adolescentes pueden eludir los requisitos de identificación de Utah en segundos”, señala.

En esto tiene razón, pero poner dificultades siempre está bien. Y es más fácil impedir que tu hijo cambie su VPN que evitar que entre (queriendo o sin querer) en una página de pornografía.

Aspirar a encontrar una política infalible es utópico, pero si se adoptan medidas globales y comparte la responsabilidad, la red será más segura para los niños

Además, los menores también han sabido sortear toda la vida la prohibición de comprar alcohol en los supermercados enviando a un amigo mayor o han entrado en discotecas con documentos de identificación falsos, pero que las medidas no sean infalibles no implica que no deban aplicarse.

Por otro lado, la VPN permite saltarse un bloqueo geográfico, pero si se consigue globalizar estas medidas, no sería una forma tan eficaz de sortear las restricciones.

Conseguir que los menores estén totalmente a salvo en el mundo digital es una utopía que podría compararse a pretender que los niños y adolescentes no se encontraran nunca con ningún peligro en las calles o los colegios.

Pero sigue siendo un deber hacer todo lo que sea posible por intentarlo. Al final, se trata de que padres, legisladores y plataformas compartan la responsabilidad de lo único que importa: proteger a los menores en la red.