La reciente detención de un hombre que se hacía pasar por diseñador de una popular plataforma infantil, con 235 cargos por abuso sexual, ha vuelto a poner el foco en una pregunta incómoda: ¿hasta dónde llega la eficacia del control parental? La respuesta, según los expertos, es que no alcanza si no va acompañada de diálogo y supervisión activa.
El caso que desnuda la vulnerabilidad
Jamie Borne, un ciudadano de Nueva Orleans de 30 años, construyó una identidad falsa como programador de Roblox para ganar credibilidad dentro de una comunidad formada mayoritariamente por niños y adolescentes. Bajo esa fachada, creaba experiencias dentro de la plataforma mientras acumulaba en sus discos duros 235 archivos de material de abuso sexual infantil. No era un empleado de la compañía, sino uno de los millones de creadores independientes que usan su tecnología.
Roblox, con más de 144 millones de usuarios activos diarios —casi la mitad menores de 13 años—, enfrenta múltiples demandas que la describen como un entorno inseguro. Pero el problema no es exclusivo de esta plataforma.
Un fenómeno que cruza videojuegos y redes sociales
El grooming —la manipulación gradual de un menor con fines sexuales— se ha disparado en entornos como Minecraft, Fortnite, Free Fire, pero también en redes como TikTok, Instagram o Discord. Un estudio de Save the Children revela que el 97,9% de los jóvenes encuestados sufrió alguna vez violencia sexual en entornos digitales. Y en Latinoamérica, siete de cada diez jóvenes ni siquiera conocen el concepto de grooming, según datos de la Red Grooming LATAM.
Lo más alarmante: el 44% de quienes cometen abuso sexual infantil en línea terminan consumando el encuentro en persona.
¿Sirve de algo el control parental?
Sí, pero no es infalible. Una revisión sistemática de 518 estudios publicada en 2025 concluyó que las estrategias puramente restrictivas —prohibir, bloquear, limitar horarios— suelen generar tensión familiar y reducen la comunicación. En cambio, los métodos interactivos como jugar junto a los hijos y la mediación activa (hablar sobre los contenidos y riesgos) mejoran la cohesión y la prevención.
Los expertos recomiendan:
· Supervisión activa: conocer las plataformas y jugar con ellos.
· Configurar la privacidad: desactivar el chat para menores de 13 años.
· Diálogo abierto y sin juicios: que el niño sepa que puede contar cualquier situación incómoda sin miedo a represalias.
· Educación digital desde edades tempranas: no compartir datos personales ni aceptar desconocidos.
Conclusión
El caso Borne demuestra que ningún control parental automático es suficiente si no va acompañado de presencia adulta real. Las herramientas tecnológicas ayudan, pero el verdadero escudo protector se construye con conversación, confianza y formación digital. Y también con plataformas que asuman su responsabilidad, porque mientras tanto, los depredadores seguirán buscando la rendija abierta.