El Parlamento andaluz diseña su informe sobre el acceso de menores a pornografía apostando por alfabetización mediática_8
2025
Pacto de estado para proteger a los menores de edad en Internet y las redes sociales
El propio informe del gobierno australiano concluyó que la tecnología de reconocimiento facial, por ejemplo, es el método menos fiable para el grupo demográfico específico al que se dirige. Meta, propietaria de Facebook, Instagram y Threads, ha anunciado que comenzará a cerrar las cuentas de adolescentes a partir del 4 de diciembre. Quienes sean expulsados por error podrán utilizar un documento de identidad oficial o un vídeo selfie para verificar su edad, según la compañía. Uno de cada siete de chicos también informó haber sufrido acoso sexual por parte de adultos o niños mayores, y más de la mitad afirmó haber sido víctima de ciberacoso. Riesgos derivados del “diseño que los incita a pasar más tiempo frente a las pantallas, a la vez que les ofrece contenido que puede perjudicar su salud y bienestar”. Por otro lado, un 31 % ha sido contactado por alguien desconocido, un 19 % ha casino movil bono sin deposito recibido mensajes agresivos respecto a edad, género u orientación y un 10 % se ha topado con contenido violento o sexual.
Además, avisa de que las “consecuencias del acceso a la pornografía a edades tempranas” para el desarrollo de los menores difieren “por razón de género”, ya que “el consumo de pornografía en edades tempranas no afecta de la misma manera a niños y niñas”, según remacha. En la estrategia en la que se trabajará a partir de esta norma, se incluirá el etiquetado de los contenidos digitales, con lenguaje accesible, donde se añadirán advertencias si este no es apto para menores de edad, según ha indicado el Ejecutivo. A continuación repasamos las claves principales del Anteproyecto de la Ley de menores en entornos digitales; este texto podrá sufrir cambios durante su tramitación parlamentaria, pero es muy probable que las medidas que describiremos a continuación acaben entrando en vigor cuando finalmente se apruebe el texto definitivo por el Congreso. Se fomentará la educación sobre privacidad y protección intelectual, sobre protección de datos y los riesgos que tiene asociados el uso de redes sociales, según ha explicado Bolaños. La ley para la protección de los menores en entornos digitales, según fuentes del Gobierno, también incluye la realización de un test pediátrico para detectar posibles señales de un uso inadecuado de los dispositivos digitales y las pantallas. Es una novedad que introduce la Orden de 9 de noviembre de 2005 , por la que se regula la cooperación entre la Consejería y las entidades colaboradoras en el acogimiento residencial en Centros de Protección de Menores.
Así mismo, también reforzará y fomentará la educación sobre privacidad y protección intelectual, protección de datos y los riesgos que tiene el uso de las redes sociales. El objetivo es establecer medidas para fomentar la detección precoz, la prevención y la atención especializada a menores con patologías relacionadas con el uso de dispositivos digitales. Bolaños ha avanzado que esta estrategia se aprobará a la vuelta del verano, se revisará cada tres años y será una obligación del Gobierno ir actualizándola según los riesgos que se vayan conociendo. En el marco de esa estrategia se investigará, entre otras cosas, cuáles son los “efectos del consumo de pornografía en edades tempranas” y qué se debería hacer para “evitar los riesgos asociados a ese contenido adulto que pueden consumir los menores”.
Australia, al igual que gran parte del mundo, ha sufrido en los últimos años una serie de filtraciones de datos de gran repercusión, incluyendo varias en las que se robó, vendió o publicó información personal sensible. YouTube Kids, Google Classroom y WhatsApp no están incluidos, ya que no se consideró que cumplieran con estos criterios. Los niños también podrán seguir viendo la mayor parte del contenido en plataformas como YouTube que no requieren una cuenta.
“Los productos que se comercializan en España estarán obligados a cumplir con lo que establezca la ley, pero tiene que haber un diálogo con las empresas tecnológicas”, ha remarcado el ministro, que ha insistido en que tiene que producirse también a nivel europeo. “Somos conscientes de que un problema como este se ha de limitar con una normativa que sea, al menos, de ámbito comunitario”. En concreto, la propuesta que ha generado dicha polémica reivindica literalmente el “respeto desde todas las instituciones y poderes públicos de la patria potestad y al derecho de los padres o tutores legales a educar y proteger a sus hijos conforme a sus valores, principios y convicciones, así como a salvaguardar la inocencia infantil frente a comportamientos y contenidos inapropiados”. Otra de las propuestas incluidas en el informe es la de llevar a cabo un “refuerzo de los talleres de Educación Afectivo-Sexual y de Higiene Digital en centros educativos, en colaboración con el Instituto Andaluz de la Juventud, con el objetivo de fomentar una mirada crítica ante la hipersexualización y los contenidos pornográficos en medios y redes”. Mientras que la responsabilidad recaerá sobre las redes sociales, la Comisión Australiana de Seguridad Electrónica se encargará de publicar normativas y “medidas razonables” para restringir el acceso.
El Consejo de Ministros ha analizado hoy un informe elaborado por el Ministerio de la Presidencia, Justicia y Relaciones con las Cortes que plantea un diagnóstico sobre la protección de los y las menores frente al acceso a pornografía en internet y el grave impacto que causa en su bienestar y desarrollo emocional, afectivo y sexual. La norma prohíbe el acceso y la activación por parte de menores de 18 años de los mecanismos aleatorios de recompensa en videojuegos, comúnmente conocidos como “lootboxes”. Esta medida, que considera las “lootboxes” como prácticas potencialmente adictivas, equiparándolas en cierto modo a los juegos de azar, llega tras un intento previo por legislar este asunto en el año 2022. El objetivo es evitar la normalización de este tipo de mecanismos entre los menores y protegerles de posibles conductas adictivas y gastos económicos perjudiciales.
En primer lugar, se incorpora al catálogo de penas la prohibición de acceso o de comunicación en los entornos digitales. Además, se establece un nuevo delito consistente en facilitar de forma indiscriminada material pornográfico a menores y se tipifican los deepfakes de contenido sexual o gravemente vejatorios como un contenido contra la integridad moral. Por último, el ministro ha destacado que la norma prevé el engaño online a menores (grooming) como agravante en algunos delitos contra la libertad sexual. Una de las medidas más novedosas del anteproyecto es la obligación de que todos los dispositivos digitales que se fabriquen incluyan, de serie, sistemas de control parental. Esta funcionalidad deberá activarse durante la configuración inicial del dispositivo, ser gratuita y contar con una interfaz sencilla que facilite su uso por parte de padres y tutores sin conocimientos técnicos avanzados. El usuario debe instalar en este teléfono la app de verificación de edad y necesita disponer en su teléfono de una app de tipo cartera digital (eWallet), por ejemplo, la cartera que próximamente proporcionará la Secretaría General de Administración Digital (SGAD), compatible con la regulación europea eIDAS2.
¿Puede un menor de 14 años ejercitar los derechos contemplados en el RGPD?
Bolaños ha defendido que se trata de una regulación “integral, omnicomprensiva, ponderada y con perspectiva social” que responde a una cuestión ampliamente compartida en nuestra sociedad como son los riesgos para los menores del acceso a Internet. Esta cuestión no está recogida específicamente en la normativa de protección de datos, sino que se incluye en la Ley Orgánica 8/2021, de 4 de junio, de protección integral a la infancia y la adolescencia frente a la violencia (LOPIVI) concretamente en su Título I capitulo II “De la certificación… El P+18 se desarrolla a través de Entidades Colaboradoras, en virtud de Convenios de Colaboración con la Consejeríade Igualdad, Salud y Políticas Sociales. Por un lado, se encuentran los recursos de Alta Intensidad, que lo constituyen pisos de autonomía, donde se proporciona una atención integral que se traduce en la cobertura de todas las necesidades para jóvenes que han tenido que abandonar los centros de menores y carecen de cualquier posibilidad para vivir de forma autónoma cuando cumplen los dieciocho años. Las acciones se inician antes de alcanzar la mayoría de edad y se puede extender, en algunos casos, hasta los veinticinco años, asegurándoles unos recursos y unos profesionales que les orienten y acompañen para lograr desde sus primeras experiencias laborales, hasta la facilitación del acceso a la vivienda. En internet, los adolescentes también recomiendan aplicaciones alternativas de redes sociales o dan consejos con la esperanza de que les ayuden a sortear la prohibición.
Las plataformas deben definir claramente qué consideran contenido y comportamiento dañino para la privacidad, seguridad y protección de menores, en cooperación con menores, sociedad civil y expertos independientes. La Agencia subraya asimismo la importancia de contar con un sistema de verificación de edad que mantenga la carga de la prueba en la persona que tiene la edad establecida para acceder a los contenidos, y nunca en el menor. De este modo, el menor no debe probar que es menor, ni exponer su naturaleza para que se bloqueen contenidos, contactos, comportamientos o contratos. Además, se elevará de 14 a 16 años la edad para prestar consentimiento para el tratamiento de datos de carácter personal en su acceso a redes sociales, según ha avanzado Bolaños.
El texto legislativo reconoce que la digitalización, sin las debidas garantías, puede comprometer el desarrollo físico, mental y emocional de los menores. El acceso a contenidos pornográficos o violentos, el contacto con comunidades extremistas, los problemas de salud vinculados al uso excesivo de pantallas o la manipulación algorítmica de las emociones de los menores son solo algunos de los escenarios de riesgo que aborda la nueva regulación. El documento establece que no basta con incluir restricciones de edad en los términos y condiciones si no se implementan medidas efectivas para prevenir el acceso de menores. Por ejemplo, las plataformas que alojan contenido para adultos deben implementar verificaciones de edad robustas, independientemente de las prohibiciones declaradas. La Comisión Europea ha publicado las Directrices sobre medidas para garantizar un alto nivel de privacidad, seguridad y protección para menores en línea, un documento de 65 páginas que establece el marco regulatorio más completo hasta la fecha para la protección infantil en el entorno digital.
- En el caso de hijos menores no emancipados de padres separados o divorciados, en virtud de lo establecido en el artículo 156 del Código Civil, el progenitor no custodio, que acredite mediante la oportuna decisión judicial que ejerce la patria potestad compartida de sus hijos, podrá acceder a la…
- Además, se elevará de 14 a 16 años la edad para prestar consentimiento para el tratamiento de datos de carácter personal en su acceso a redes sociales, según ha avanzado Bolaños.
- En la primera prueba de concepto se ha abordado el acceso a contenidos desde un dispositivo como un ordenador o consola de videojuegos.
- Los menores no pueden ser incentivados a cambiar a configuraciones menos seguras, y cualquier opción para modificar ajustes debe presentarse de manera neutral.
Según este mismo estudio, el 94,8% de los adolescentes dispone de un teléfono móvil con Internet y un 90,8% se conecta todos o casi todos los días. Casi el 49,6% de los adolescentes usa internet más de 5 horas al día los fines de semana y un 31,6% hace ese mismo uso entre semana. Ese informe diagnóstico recoge, según fuentes del Gobierno, que la edad media de tener el primer móvil es de 11 años, según el informe Impacto de la tecnología en la adolescencia. Otro nuevo delito que se tipifica es la difusión de material pornográfico a menores, “evitando algunas conductas” que en estos momentos permanecen impunes, ha matizado Bolaños.
“No obstante, existen evidencias de que pasar un tiempo excesivo frente a las pantallas y la exposición a contenidos inapropiados pueden afectar la salud mental y aumentar el riesgo de ansiedad, depresión, adicción, problemas de autoestima, trastornos del sueño, problemas en el desarrollo del lenguaje y habilidades sociales, así como en la capacidad de concentración y resolución de problemas”, detalla. También se ha encontrado evidencia, prosigue el documento, de que las personas adolescentes con alta exposición a medios y entornos digitales “podrían tener más probabilidad de desarrollar síntomas de trastorno por déficit de atención e hiperactividad”. Además, los menores “pueden exponerse a discursos de odio, violencia y contenidos que incitan a la autolesión o al suicidio, o que tienen un impacto negativo en su bienestar emocional y psicológico”.
La presentación de este sistema ha tenido lugar en el acto de celebración del 30 aniversario de la AEPD, en el que la directora de la Agencia, Mar España, ha destacado la importancia de implementar un mecanismo que trate el atributo de la edad en el dispositivo del usuario, sin que la identidad de la persona ni la condición de menor sea accesible para las páginas web. “En este proyecto hemos conjugado la protección a la infancia y el interés superior del menor con el derecho fundamental a la protección de datos de todos los ciudadanos, poniendo sobre la mesa una solución práctica, respetuosa y pionera en Europa. Tras la aprobación por el Consejo de Ministros, este proyecto de ley orgánica ha iniciado su fase parlamentaria, remitiéndose al Congreso de los Diputados, donde será objeto de debate y posible presentación de enmiendas por parte de los distintos grupos políticos. Este proceso será determinante para definir el alcance final de una norma que, sin duda, marca un hito en la regulación de los derechos de la infancia y la adolescencia en el entorno digital. Las organizaciones seguirán de cerca este proceso legislativo a los efectos de anticiparse de forma estratégica a las exigencias que traerá la nueva normativa. En julio de 2024 el entonces anteproyecto de ley proponía una serie de medidas de protección digital para menores con las que España buscaba abordar estos desafíos.
EDUCACIÓN AFECTIVO-SEXUAL
Cada medida debe ser apropiada y proporcional, requiriendo una evaluación caso por caso que considere los riesgos específicos de la plataforma, su tamaño, alcance, tipo de servicio y base de usuarios. La ley también prevé la realización de un test en revisiones pediátricas para identificar usos inadecuados de dispositivos digitales y pantallas, para detectar posibles problemas de adicción a estos. También se tipifica como delito el grooming o engaño online a menores, es decir, falsificar la edad, el género o alguna característica para entablar contacto con un menor y acabar intentando delinquir y cometiendo un delito contra la libertad sexual de los menores. “Modificamos también nuestra legislación, básicamente en el Código Penal para dar respuesta a algunos delitos que se producen y sin embargo no tienen respuesta adecuada del siglo XXI a esos comportamientos delictivos”, ha dicho Bolaños. De esta forma, según ha explicado Perazzo, la ley no deja toda la responsabilidad en la familia, porque hay también una parte de calificación de contenidos que ya se estaba haciendo. “La cuestión es ver las distintas calificaciones”, ha dicho la responsable de Save the Children, que señala el hecho de que se tienen que “adaptar a las etapas evolutivas de la infancia y adolescencia”.
El objetivo de la Ley de menores en entornos digitales es garantizar los derechos de los menores de edad en el ámbito digital, especialmente los derechos a la intimidad, al honor y a la propia imagen, así como el derecho a la protección de datos de menores y al acceso a contenidos adecuados para su edad. En concreto, el artículo 2 de la norma desarrolla estos derechos en cuatro apartados, sobre el derecho de los menores de edad a ser protegidos ante contenidos digitales que puedan perjudicar su desarrollo, a recibir información suficiente sobre el uso de las tecnologías, en una forma y lenguaje apropiado según su edad, y sobre sus derechos y los riesgos asociados al entorno digital. Se trata de una herramienta que ha sido testada en los principales navegadores y que conjuga la protección a la infancia y el interés superior del menor con el derecho a la privacidad y el derecho fundamental y a la protección de datos de carácter personal del conjunto de la ciudadanía. Sus objetivos son proteger a los y las menores del acceso a contenidos para adultos y que, a su vez, esos contenidos puedan ser accesibles para aquellas personas que puedan demostrar su edad sin necesidad de hacer visible su identidad. Se trata de una herramienta que ha sido testada en los principales navegadores y que conjuga la protección a la infancia y el interés superior del menor con el derecho a la privacidad y el derecho fundamental y a la protección de datos de carácter personal del conjunto de la ciudadanía. El proyecto de ley orgánica incluye una ambiciosa reforma del Código Penal destinada a adaptar el ordenamiento jurídico a los nuevos riesgos del entorno digital en relación con la protección de la infancia.
Además, se crearán espacios de encuentro para que los menores puedan desarrollar actividades lúdicas y de ocio saludable no relacionadas con entornos digitales. Por eso, la ley recoge que los fabricantes deberán asegurar que los dispositivos digitales cuenten con sistemas de control parental y etiquetado informativo sobre los riesgos. Las medidas que se adoptan para los mayores de 14 años, según ha explicado Perazzo, van en función de las penas previstas en el Código Penal. En el caso de los menores de esa edad, “en principio no serían imputables”, explica la experta de Save the Children, pero “eso no quiere decir que no se tengan que adoptar medidas”, a través de servicios sociales y sistemas de protección, “haciendo un seguimiento y un plan individualizado de cómo se va a trabajar con esos niños y con sus familias”. ICmedia, es una federación de 14 asociaciones de usuarios de medios de toda España que defiende y promueve una ciudadanía activa, capaz de tomar decisiones informadas, con sentido crítico, al elegir y consumir contenidos.
La norma impone obligaciones específicas a los llamados usuarios de especial relevancia en el entorno digital, como influencers o creadores de contenido con un número elevado de seguidores. Estos deberán advertir de forma clara cuando sus contenidos puedan resultar perjudiciales para los menores, implementar sistemas efectivos de verificación de edad y garantizar la separación de contenidos de naturaleza pornográfica o violenta del resto de sus publicaciones. La norma sobre protección de menores en entornos digitales también contempla la inclusión en el itinerario curricular en primaria y secundaria de medidas educativas de ciudadanía digital y alfabetización mediática con contenido transversal, para dotarlos de los conocimientos necesarios para fomentar su autonomía y facilitarles herramientas para combatir los bulos, los mensajes de odio o la desinformación. La ministra de Educación, Pilar Alegría, anunció el pasado enero que esperaban la activación, antes del verano, de un proyecto piloto de verificación de edad en internet para proteger a los menores del consumo de pornografía, en el marco de su plan integral que iba a desembocar en esta ley de protección de menores. “Está en juego la salud y el bienestar de los niños y niñas y adolescentes y la tranquilidad de las familias”, ha asegurado. En el ámbito de las redes sociales, tanto las plataformas como los y las influencers tendrán la obligación de establecer canales de denuncias, mecanismos de verificación de edad -en el caso de que el contenido difundido sea potencialmente perjudicial para el desarrollo físico, moral o mental del menor- y cumplir con el principio de veracidad de la información prestada.
En Reino Unido, las nuevas normas de seguridad introducidas en julio implican que las empresas en línea se enfrentan a fuertes multas o incluso al encarcelamiento de sus directivos si no implementan medidas para proteger a los jóvenes del contenido ilegal y dañino. Los críticos también han expresado su preocupación por la recolección y el almacenamiento a gran escala de datos que serán necesarios, y su posible mal uso, a medida que las plataformas intenten verificar la edad de los usuarios. No incluye sitios web de citas ni plataformas de juegos, ni tampoco los chatbots de IA, que recientemente han sido noticia por supuestamente incitar a los niños al suicidio y por mantener conversaciones de contenido sexual con menores. Ante el temor de ser blanco de la medidas, plataformas como Roblox y Discord han implementado recientemente controles de edad en algunas funciones, aparentemente para evitar ser incluidas. Esta medida no se limita a la protección de menores, sino que abarca a cualquier persona, reconociendo el grave daño que estas manipulaciones pueden causar a la dignidad y reputación de las víctimas.
u said