Está más que probado que la facilidad con la que los menores pueden acceder a contenidos para adultos, especialmente a los de temática pornográfica, es un verdadero problema tanto a nivel individual (con importantes consecuencias psicológicas para quien consume este contenido) como social (por lo que respecta a la cosificación de las mujeres y todo lo que ello implica). En datos, la mitad de los adolescentes de 13 y 17 años accedió por primera vez a contenidos pornográficos antes de los 13 años, y un 8,7 % antes de los 10 años en España, según el informe (Des)información sexual: pornografía y adolescencia elaborado por Save de Children en 2020. Y estos porcentajes han incrementado en estos cuatro años. Resulta, por tanto, evidente, que hay que hacer frente a esta lacra -y todos los agentes sociales coinciden en ello-. La cuestión es cómo hacerlo.
El sistema de verificación de edad de la AEPD, la medida en la que están puestas todas las miradas
La AEPD (la Agencia Española de Protección de Datos) presentaba el pasado mes de diciembre una herramienta de verificación de edad en la que está trabajando junto a la Real Fábrica de Moneda y Timbre y que se prevé que esté lista para el próximo verano. Sobre esta herramienta y sobre su utilidad hemos preguntado a Laura Cuesta Cano, profesora de Cibercomunicación en la Universidad Camilo José Cela de Madrid y divulgadora sobre el uso responsable de nuevas tecnologías (@educaciondigitalparafamilias), quien nos explica el funcionamiento de esta herramienta: el objetivo de esta app “no es el de identificar la edad del menor, y si es menor de la edad autorizada para ello, impedir que se registre en una plataforma, ya que esto (la identificación del ciudadano como tal) solo lo puede hacer un agente como el Ministerio del Interior, sino el de comprobar si la persona es ‘autorizada’ o no ‘autorizada’ para acceder a un sitio web con contenido para adultos, como las webs de apuestas deportivas, de contenido pornográfico, etc. (+18)”.
Según indicaba la directora de la AEPD, Mar España, en la presentación, esta herramienta vendría a ser “un atributo de la edad en el dispositivo del usuario, sin que la identidad de la persona ni la condición de menor sea accesible para las páginas web”. Es decir, ese atributo indicará únicamente su edad, garantizando así el anonimato y hará que, para acceder a páginas de contenido para adultos, les llegue un aviso a sus padres o tutores legales, que serían quienes tendrían que permitir o denegar el acceso.
Esta medida puede ser necesaria, pero, a juzgar por Laura Cuesta, “no es suficiente”. El motivo, nos explica, es que “no solo son perjudiciales los contenidos en sitios webs para adultos, sino todos los contenidos inapropiados que son publicados en las plataformas como redes sociales y apps de mensajería instantánea y que se quedarían fuera de este control”.
Otras medidas necesarias para proteger a los menores
1. Catalogación por edades
“Como nos indican los expertos, se necesita de un ‘etiquetado inteligente’ que indique cómo es el contenido que se publica en la red, al igual que en su día se reguló en el sector audiovisual”; es decir, es preciso que los contenidos que circulan por Internet y las redes sociales también se catalogue en función de la edad a partir de la cual son aptos, como ocurre con las películas y las series.
2. Obligar a las plataformas a cumplir la legislación europea
“Es indispensable, por tanto, exigir (y sancionar si no se procede a su realización) a las plataformas, según establecen las nuevas legislaciones europeas (Nueva Ley de Servicios Digitales, DSA), que controlen el acceso de los menores a contenidos que puedan ser inapropiados o no aptos para su edad y que puedan causarles daños emocionales”. Esta ley de Servicios Digitales (DSA por sus siglas en inglés) entró en vigor el pasado mes de agosto persigue contenidos ilícitos en internet no solo para los menores, sino para todo ciudadano y obliga a las plataformas -Meta, X (la antigua Twitter), TikTok...- a retirar de manera inmediata esos contenidos. De no cumplir esta ley, estas plataformas se exponen a ser sancionadas con multas astronómicas.
3. Sistemas de control parental
Ante la duda que puede surgir en muchas familias acerca de si estos sistemas son o no útiles a la hora de proteger a los niños y a los adolescentes, Laura Cuesta la describe como “una estupenda herramienta” que ayuda a los padres a “supervisar la actividad de sus hijos menores en la red, cuando dan los dispositivos a edades muy tempranas, y no tienen o la suficiente formación digital o tiempo para poder revisar y estar al día de todo”.
Eso sí, se trata de una estupenda herramienta de cara a proteger a los más pequeños, pues la experta advierte de que “pensar ya en un control parental en adolescentes de 13, 14 ó 15 años es toda una utopía, ya que, efectivamente, a estas edades, tienen acceso a redes sociales y, con ello, a toda la información para saber cómo hackear el dispositivo familiar”.
4. Educación en tecnología
De lo anterior deriva la necesidad de educar a nuestros hijos en el uso responsable de Internet y las redes sociales: “siempre es más recomendable comenzar a hablar de tecnología, darles los primeros dispositivos y poner normas y límites a las edades en las que es más fácil dialogar con nuestros hijos, y que progresivamente vayan aprendiendo y adquiriendo las suficientes competencias digitales para que, en un momento dado, ya puedan usar los dispositivos de forma autónoma sin necesidad de un control parental”.
¿Se debería prohibir el móvil antes de los 16 años?
En los últimos meses y tras una movilización iniciada por un grupo de padres que reclamaban esta medida, se habla mucho acerca de si sería necesario o no prohibir el móvil a los menores hasta que cumplan 16 años, edad en la que se considera que ya pueden tener la suficiente madurez como para usar este dispositivo de manera más responsable. Sin embargo, la profesora de la Universidad Camilo José Cela no es partidaria de esta medida. Y no lo es porque “legislar sobre cuándo pueden acceder (o no) la tecnología nuestros hijos está afectando directamente sobre la libertad del resto de familias que educan a sus hijos en el buen uso de la tecnología”.
Además, carecería de utilidad real, puesto que “el móvil es un dispositivo digital, un mero transmisor. Lo que puede causar enganche o, incluso, malestar emocional en los menores son las diferentes apps que tenemos dentro. Por tanto, eliminar o rohibir el acceso a este no va a eliminar el riesgo o problema, ya que esos menores se podrán seguir conectando a esas mismas apps y rrss desde la tablet, el ordenador o la consola”, recuerda Laura Cuesta.
Teniendo en cuenta todo lo anterior, “debemos, por un lado, exigir a esas apps y plataformas una tecnología ética y segura para los menores (DSA) y, por otro, formar y educar a los menores para que puedan utilizarla de manera segura, saludable y responsable. Ese es el gran reto que tenemos por delante como sociedad”.