El Parlamento Europeo quiere subir a los 16 años la edad mínima para tener redes sociales
Los adolescentes de 13 años podrían acceder también a redes sociales o plataformas como TikTok si sus padres les dieran su consentimiento explícito
El Parlamento Europeo ha votado a favor de limitar el acceso de menores a las redes sociales. No lo ha hecho a través de una ley sino de una resolución no vinculante, pero esta decisión marca una dirección política y ha logrado 483 votos a favor, 92 en contra y 86 abstenciones. El texto dice que se busca proteger a los menores de los riesgos para su salud física y mental que pueden generar estas tecnologías. También se aspira a frenar las estrategias de diseño que fomentan la adicción, dañan la concentración y la relación saludable con el contenido.
La propuesta central es simple: armonizar en 16 años la edad mínima para todos los territorios de la Unión Europea a la hora de utilizar redes sociales o plataformas de vídeo como TikTok o YouTube. También para aplicaciones de Inteligencia Artificial, incluidas aquellas que ofrecen compañía a través de un personaje. Una vez cumplidos los 13, aquellos adolescentes que cuenten con el consentimiento parental podrán acceder también a estas aplicaciones.
Una app de verificación europea
De forma paralela y complementaria a estos requisitos, el Parlamento Europeo apoya crear una app de verificación de edad ligada a la identidad digital eID. Deberá cumplir con un principio de verificación a la vez que garantice la máxima privacidad de los menores. Deberán ser lo más restrictivas posible por defecto y, desde el primer uso, mostrar tan solo los contenidos adecuados para cada edad de manera preventiva.

Existen unas prácticas polémicas que Europa quiere frenar en Internet cuando los menores acceden a él. Son la publicidad personalizada, los trucos de la interfaz para ser más adictiva —conocida como los patrones oscuros—, el diseño en busca de scroll infinito —deslizar con el dedo hacia abajo en la pantalla para encontrar un flujo infinito de contenido—, la reproducción automática de vídeos o los bucles de recompensa similares a los de las tragaperras. Igualmente, quiere limitar los sistemas de recomendación que ofrecen a los usuarios contenidos cada vez más segmentados en función de sus gustos.
Entre las medidas que plantea el Parlamento Europeo en esta resolución no vinculante, destaca la propuesta de responsabilizar personalmente a los altos directos de estas empresas cuando su incumplimiento sea grave y persistente. Otro aspecto clave es aplicar a las plataformas de vídeo la normativa de la Ley de Servicios Digitales, que ya controla la toxicidad digital. Y prohibir mecanismos de azar en videojuegos que afectan la psicología de los menores, como las loot boxes, en las que el jugador paga con dinero real para obtener recompensas aleatorias dentro del juego, como un arma más potente o un coche más rápido.

¿Y en España?
España lleva meses moviéndose en esa misma dirección. El año pasado el Gobierno ya aprobó el Anteproyecto de Ley Orgánica para la protección de las personas menores de edad en los entornos digitales con tres pilares: subir a 16 años la edad para abrir redes, obligar a que los dispositivos traigan control parental activable de fábrica, y castigar los abusos sexuales generados con Inteligencia Artificial, como los deepfakes sexuales, con penas de hasta dos años de cárcel para quien los cree o difunda. También plantea el alejamiento virtual. Es decir, un juez podría ordenar que un agresor digital no pueda contactar con su víctima en internet, igual que existe la orden de alejamiento física.