"Cobertura legal, no protección real": expertos en ciberseguridad destrozan los sistemas de verificación de edad de las redes sociales
Según los expertos, los métodos de detección de menores siguen siendo barreras fácilmente franqueables en casi cualquier app, sitio web o foro.

Las grandes plataformas tecnológicas aseguran haber reforzado sus controles para impedir que los menores accedan a contenido para adultos. Sin embargo, una investigación reciente sostiene que muchas de esas barreras son más formales que efectivas. La conclusión de los expertos es tajante: los sistemas actuales funcionan como "cobertura legal", pero no garantizan una protección real.
Tras la entrada en vigor el año pasado de la Ley de Seguridad en Línea en Reino Unido, las compañías que alojan contenido para adultos están obligadas a implantar mecanismos de verificación de edad. En teoría, esto implica controles más estrictos —desde el escaneo de pasaportes o permisos de conducir hasta sistemas de verificación facial— para impedir el acceso a menores de 18 años.
En la práctica, según la firma de ciberseguridad Malwarebytes, basta con aplicar trucos al alcance de cualquier adolescente para sortear muchas de estas restricciones.
Pieter Arntz, investigador senior de Malwarebytes, resume el problema con claridad: con "un poco de curiosidad" y utilizando la barra de búsqueda, es posible encontrar contenido tóxico en varias plataformas populares entre jóvenes.
El análisis se centró en servicios ampliamente utilizados por menores, como Roblox, YouTube, Twitch, TikTok o Instagram
En muchos casos, el acceso inicial solo requiere introducir una fecha de nacimiento. Si el usuario declara ser mayor de edad, las restricciones desaparecen automáticamente.
Arntz subraya que el problema no es que los niños sean "especialmente engañosos", sino que los sistemas descansan en la autodeclaración en un entorno donde el anonimato es sencillo de mantener.
Roblox: comunidades ambiguas y jerga delictiva
En Roblox, por ejemplo, los adultos deben verificar su edad para acceder a determinados chats privados. Sin embargo, el acceso a comunidades abiertas -similares a foros o salas de chat- no exige el mismo nivel de control.
La investigación identificó grupos con nombres aparentemente inocuos, pero vinculados en realidad a jerga habitual en entornos de ciberdelincuencia. Uno de ellos, "Fullz Ent.", acumulaba cientos de miembros.
En este contexto apuntan que "Fullz" es un término utilizado para referirse a paquetes completos de datos personales robados, mientras que "New clothes" puede aludir a información sustraída de tarjetas de pago.
Aunque una cuenta infantil no podía publicar en los foros públicos, sí podía localizar y unirse a estos espacios. Para los expertos, el simple acceso ya supone una puerta de entrada problemática.
Tras la investigación, Roblox introdujo la verificación facial obligatoria para limitar la comunicación entre adultos y menores de 16 años. La compañía defiende que fue pionera en adoptar controles de edad más allá de la simple autodeclaración.
YouTube: contenido sensible sin cuenta verificada
El caso de YouTube revela otra grieta. No es necesario tener cuenta para navegar por la plataforma. Y si se crea un perfil de "invitado" mediante Google, tampoco se exigen pruebas de edad.
Así, los investigadores pudieron visualizar:
- Un vídeo informativo que mostraba la ejecución de un miembro tunecino de ISIS
- Contenidos que explicaban métodos de fraude financiero
- Existe una versión específica, YouTube Kids, con filtros y control parental reforzado. Pero el acceso a la plataforma principal sigue abierto si no hay supervisión directa
Twitch y TikTok: basta con cambiar la fecha de nacimiento
En Twitch, la investigación detectó perfiles que ofrecían supuestos "servicios de acompañantes" en India, con enlaces externos a páginas donde contactar por WhatsApp. Acceder a ese contenido solo exigía haber indicado previamente que se era mayor de 18 años.
En TikTok, el procedimiento es similar. Los menores de edad reciben configuraciones más restrictivas por defecto -cuentas privadas, limitación de mensajes y controles parentales reforzados-, pero estas medidas dependen de que la edad declarada sea real.
Malwarebytes sostiene que también fue posible encontrar tutoriales sobre fraude con tarjetas y robo de identidad utilizando cuentas configuradas como adultas.
Instagram y las cuentas adolescentes
Meta introdujo en 2024 cuentas específicas para adolescentes en Instagram, con filtros estrictos y privacidad automática. Estas limitan los mensajes a contactos aprobados y activan controles parentales por defecto.
Sin embargo, incluso con una cuenta que indicaba tener 15 años, los investigadores pudieron localizar perfiles que promovían el fraude financiero mediante la función de búsqueda. Meta y otras compañías insisten en que ningún sistema es perfecto y aseguran invertir cada vez más en:
- Herramientas automatizadas de detección
- Modelos de aprendizaje automático para estimar la edad real
- Supervisión constante de contenidos y canales
¿Protección efectiva o blindaje jurídico?
Para Arntz, el núcleo del problema es estructural. Mientras la verificación dependa en gran medida de la confianza en lo que el usuario declara, las barreras seguirán siendo frágiles. Algunos jóvenes incluso utilizan documentos generados con inteligencia artificial para superar controles más sofisticados.
"Sin una verificación sólida de identidad digital o supervisión parental activa, estas medidas funcionan más como cobertura legal para las empresas que como protección real para los menores", concluye.
La investigación no señala a una sola plataforma como responsable exclusiva. Más bien dibuja un escenario en el que la velocidad tecnológica y la pericia digital de los adolescentes van por delante de las políticas diseñadas para protegerlos. El resultado: sistemas que cumplen formalmente con la ley, pero que siguen dejando resquicios por los que se cuela el contenido más problemático.
