En un nuevo informe emitido por la Comisión Australiana de ESAFETY, los gigantes tecnológicos como Apple, Google (YouTube), Meta, Microsoft, WhatsApp, Discord y Skype son severamente criticados por ofrecer «Esfuerzos mínimos» en la lucha contra el abuso sexual infantil en línea.
Hallazgos principales del informe:
- Apple y YouTube Ellos no se registran La cantidad de quejas recibió o informa sobre el tiempo de respuesta a estas quejas.
- Ninguna plataforma usa Detección de transmisión en vivo del abuso sexual infantil, ni implementa el bloqueo de vínculos con el contenido ilegal sistemáticamente.
- Apple, Discord, Google y Microsoft No usan menta hash en todos sus servicios para identificar contenido previamente informado y peligroso.
- Solo las firmas como Discord, Microsoft y WhatsApp han aumentado el uso de tecnologías como el hash -coincidencia y la detección automática en ciertos servicios, aunque esos avances aún son insuficientes.
El comisionado Julie Inman Grant Hizo hincapié en que, a pesar de comunicarse con estas compañías desde 2022 y 2023, no se han observado mejoras tangibles ni un compromiso real con la seguridad de los niños y adolescentes en línea.
Medidas regulatorias y contexto legal
Australia obliga a estas plataformas a presentar informes cada seis meses sobre las acciones que implementan bajo el Ley de seguridad en línea de 2021con multas de hasta aproximadamente $ 800,000 por día en casos de falta de comisión. Recientemente, YouTube también se incorporó a la lista de plataformas prohibidas para niños menores de 16 años, revirtiendo una excepción inicial debido a las deficiencias detectadas.
Además, un tribunal federal australiano rechazó la apelación de X Corp. (anteriormente Twitter), reafirmando que las empresas siguen sujetas a las obligaciones de informar y responder a las autoridades, incluso después del cambio de marca.
¿Qué implica todo esto?
El informe subraya una disonancia entre los recursos disponibles y los resultados de protección infantil. A pesar de las prometedoras tecnologías como la IA, las plataformas muestran un Falta de transparencia y lentitud En sus mecanismos internos, lo que la exposición de menores a la dinámica de preparación, extorsión sexual y distribución de contenido ilegal.
El Comisionado advierte que todavía es esencial mantener presión sobre estas empresas para que cumplan su responsabilidad social y legal: proteger a los usuarios más vulnerables.
40