En un momento de cierre de la escuela causado por la pandemia de Covid-19 (coronavirus), los padres pueden ser perdonados por permitir que sus hijos se sienten en sus tabletas y teléfonos un poco más de lo habitual, mientras intentan hacer un trabajo.

Irónicamente, en escenarios normales, los padres se enfrentan a una batalla diaria para alejar a sus pequeños de sus pantallas. Pero, como se nos sigue diciendo, esta es una situación sin precedentes.

Mirando el tema de manera más amplia, dejando de lado el último mes, las estadísticas recientes indican que los jóvenes de hoy están ganando y los adultos perdiendo, ya que los niños pasan más tiempo que nunca pegados a sus dispositivos.

Un informe reciente de la agencia de investigación de mercado Childwise descubrió que los niños tienen un mayor acceso a los teléfonos inteligentes, con un 47 por ciento de los que tienen entre cinco y diez años que poseen un teléfono móvil en 2019, frente al 38 por ciento de 2018, mientras que la cifra entre siete -de dieciséis años de edad más del 66 por ciento.

Childwise’s Monitor Report 2020 también descubrió que los niños están usando sus teléfonos por períodos de tiempo más largos que antes. De hecho, uno de cada cuatro niños pasa de cuatro a seis horas en línea al día.

El director de investigación, Simon Leggett, dijo que los mensajes de Mobile World Live (MWL) eran la esfera con la que más se dedican los niños en los móviles, con un 75% dedicando tiempo a esta actividad en 2019, un 72% jugando y un 63% utilizando las redes sociales y el contenido de video. aplicaciones

La compañía clasificó a la plataforma de video YouTube como el servicio favorito de los niños en 2019; seguido por las aplicaciones de redes sociales Snapchat, Instagram y TikTok; y juegos en línea Fortnite, Roblox y Minecraft.

Childwise describió WhatsApp como la aplicación más utilizada, con más de la mitad de un total de 932 niños de siete a dieciséis años que se comunican a través del servicio de mensajería propiedad de Facebook.

Leggett afirmó que la propiedad de un teléfono móvil por parte de los niños plantea un desafío para que los padres o tutores supervisen el contenido al que acceden en línea, ya que “es una tecnología tan privada que la mayoría mantiene, literalmente, cerca de su pecho”. En muchos casos, esto deja a los adultos confiando en que las compañías tecnológicas hagan lo que sea necesario para garantizar la protección en línea para los jóvenes.

YouTube, que los niños usan en promedio durante casi dos horas y media al día, tiene una oferta específica diseñada para ofrecer una experiencia más segura al ver contenido de video. Se esfuerza por proteger a los niños de materiales nocivos mediante la combinación de filtros automáticos, revisiones humanas y comentarios de los usuarios. Sin embargo, la aplicación propiedad de Google admite que no todo el contenido de la versión orientada a los niños se revisa manualmente y se compromete a realizar revisiones rápidas cuando los videos se marcan como inapropiados.

Seguridad en aplicaciones de redes sociales


La Investigación Independiente sobre el Abuso Sexual Infantil (IICSA) señaló un gran problema con el contenido nocivo en las redes sociales, que descubrió un rápido aumento en los casos de aseo infantil en línea. Facebook, Instagram y Snapchat fueron las aplicaciones más frecuentemente citadas a este respecto. Entonces, ¿cómo abordan el problema Facebook y Snap de los padres?

David Miles, jefe de seguridad de Facebook para EMEA, dijo que el gigante de las redes sociales era un líder de la industria “en la lucha contra este grave daño” y había realizado grandes inversiones en soluciones sofisticadas, “incluida la tecnología de comparación de fotos y videos para que podamos eliminar contenido dañino”. lo más rápido posible”.

Miles señaló que la explotación sexual infantil era un problema de toda la industria y prometió que la compañía seguiría desarrollando nuevas tecnologías, trabajaría con las fuerzas del orden y expertos especialistas en protección infantil.

Facebook dijo que un equipo de más de 35,000 está enfocado en tratar de verificar el contenido en sus plataformas y eliminar materiales que se consideran inapropiados.

La compañía eliminó más de 12 millones de contenidos de su sitio principal e Instagram entre julio y septiembre de 2019 debido a violaciones de las políticas sobre desnudez infantil o explotación sexual, y la mayoría de los materiales (95 por ciento) se eliminaron antes de ser reportados.

Dijo que invirtió en varios métodos para combatir el abuso, incluida la tecnología de hashing, que crea una huella digital para contenido dañino, por lo que se elimina de inmediato.

Y a pesar de los hallazgos del informe de IICSA, Snap le dijo a MWL que era muy difícil llevar a cabo la preparación en línea en Snapchat debido a los procesos incorporados de seguridad por diseño. Algunos de estos incluyen una incapacidad predeterminada para recibir mensajes de personas que un usuario no ha agregado como amigo, y una configuración que impide compartir la ubicación de un usuario con alguien que no sea amigo.

Snap también dijo que era imposible para los depredadores potenciales acechar a los usuarios en su aplicación ya que no hay perfiles públicos con ubicación, edad o fotos, y no comparte públicamente la lista de amigos de un usuario.

La compañía declaró que depende de la moderación humana para la mayoría de sus operaciones, pero también estaba desarrollando herramientas de aprendizaje automático para identificar comportamientos de cuentas que sugieran cuentas abusivas u otras actividades sospechosas, como el aseo personal.

Si bien no reveló la cantidad de personas que trabajan en su equipo de Confianza y Seguridad, la compañía aseguró que sus empleados pueden actuar