Como ya hemos hablado en diversas ocasiones en este blog, en cuanto a la responsabilidad de asegurar un uso seguro, responsable y saludable de la tecnología por parte de los menores, hay varios agentes implicados.
Por un lado, y, como es lógico, en primer lugar estarían las familias, que deben acompañar a sus hijos en su actividad en el entorno digital, supervisando, por un lado, y educando para que adquieran estas nuevas competencias, por otro; además, deben interactuar en este proceso formativo los centros educativos y docentes, ya que son clave en el aprendizaje de las competencias digitales, que debiera ser transversal y desde edades tempranas; las plataformas, aunque tengan sus intereses comerciales y corporativos, están obligadas a cumplir las leyes de cada territorio en el que operen y garantizar la protección de las personas más vulnerables que usen sus servicios; y las instituciones o administraciones deberán legislar y/o velar porque no se violen los derechos de los ciudadanos, en especial los de los menores.
La legislación para la protección de los derechos en el entorno digital
Durante los últimos años, además de la legislación ya existente (Derechos Humanos, Constitución Española), se han ido introduciendo una serie de nuevas leyes para ampliar, aún más, la protección de la seguridad y privacidad de los niños, adolescentes y jóvenes. En 2021 se aprobó la Ley Orgánica de protección integral a la infancia y la adolescencia frente a la violencia (LOPIVI), incluyendo los derechos en el entorno digital.
Y a nivel europeo, el 1 de noviembre de 2022 entraron en vigor dos normas, aplicables a partir del 2 de mayo de 2023: la Ley de Mercados Digitales (Digital Markets Act, o DMA) y la Ley de Servicios Digitales (Digital Services Act, o DSA), siendo esta última pionera en cuanto a convertir a las plataformas en responsables de los posibles riesgos y daños que puedan causar y, por tanto, obligarlas a proteger los derechos de sus usuarios. Y finalmente debemos hablar de la Propuesta de Reglamento del Parlamento Europeo y del Consejo sobre requisitos de ciberseguridad horizontal para productos con elementos digitales, aprobada en septiembre de 2022 por la Comisión Europea, para proteger la privacidad y la protección de datos de los usuarios en la era digital.
¿Las plataformas actúan para evitar futuras sanciones o para proteger a los menores?
Meta, empresa global dueña de Facebook e Instagram, fue una de las primeras en implementar cambios a comienzos de año y aplicables a partir de marzo. Desde entonces, los menores de 18 podrán configurar la publicidad que desean o no desean ver. Además, y mucho más importante, las empresas de anunciantes ya no podrán segmentar por el género, sus interacciones en la plataforma o los intereses de los adolescentes para sus lanzar campañas, dejando solamente disponible la opción de la edad y ubicación.
Por otro lado, después de todos los varapalos en EE. UU., TikTok ha decidido dar un giro en su política de bienestar digital y en marzo anunció la limitación de uso de la plataforma a 60 minutos diarios para todos los menores de 18 años (que puede volver a activarse si el usuario lo desea, eso sí, estableciendo su propio límite de pantallas). Pero en el caso de los menores de 13 años, serán los padres o tutores quienes introduzcan un código si desean ampliarlo 30 minutos más. Además, se espera que el gigante chino propiedad de ByteDance, también introducirá en los perfiles de los menores “recordatorios de desconexión” para proteger las horas de sueño. Esto se suma a las medidas ya activas por las que los menores de 16 años tienen la cuenta preconfigurada como “privada”, sin poder hacer dúos o pegar o chatear por MD.
Pero en el caso de TikTok, para las familias que decidan que su hijo o hija menor de 14 años tenga un perfil, la mejor opción es configurar la opción de “sincronización familiar”, para lo cuál tanto el padre como el menor deberán tener cuenta en la plataforma. Así, los padres podrán configurar opciones como los límites de tiempo según el día de la semana y establecer un horario para silenciar las notificaciones.
La legislación sin educación solo es prohibición
Lo que es indudable, y así lo hemos reflexionado en diversas ocasiones, es que por muchas medidas que puedan establecer las plataformas para reducir y/o prevenir los riesgos digitales (véase la tan debatida medida tomada por el estado de Utah, en EE.UU., de limitar por ley el uso de las redes sociales a los menores de edad), la educación digital es clave. Desde la conversación, la confianza y el respeto. Porque tal y como se recoge en el último informe realizado por Meta, TTC Labs y Smart Design (2022), los menores responden de manera mucho más efectiva a los límites que se establecen a sí mismos que los impuestos y obligados, por ello, es fundamental haber realizado primero este camino de alfabetización previa.
Para prevenir y reducir los posibles daños o riesgos que puedan causar las apps y redes sociales en los niños primero debemos las conocer el funcionamiento de estas. Porque tener tecnología no implica saber de tecnología.
Imagen de Brand Factory.