Regulador británico acusa a Apple de no informar sobre imágenes sexuales de niños | Manzana

hace 3 meses

Regulador británico acusa a Apple de no informar sobre imágenes sexuales de niños |  Manzana

Los expertos en seguridad infantil dicen que Apple no logra monitorear de manera efectiva sus plataformas ni detectar imágenes y videos de abuso sexual infantil, lo que genera preocupación sobre cómo la compañía puede manejar el crecimiento en el volumen de dicho material asociado con el abuso sexual infantil.

La Sociedad Nacional para la Prevención de la Crueldad contra los Niños (NSPCC) del Reino Unido acusa a Apple de subestimar enormemente la frecuencia con la que aparece material de abuso sexual infantil (CSAM) en sus productos. En un año, los depredadores infantiles utilizaron iCloud, iMessage y Facetime de Apple para almacenar e intercambiar CSAM en más casos solo en Inglaterra y Gales que los que la compañía informó en todos los demás países combinados, según datos policiales obtenidos del NSPCC.

A través de datos recopilados a través de solicitudes de libertad de información y compartidos exclusivamente con The Guardian, la organización benéfica para niños descubrió que Apple estuvo implicada en 337 delitos de imágenes de abuso infantil registrados entre abril de 2022 y marzo de 2023 en Inglaterra y Gales. En 2023, Apple envió solo 267 informes de presunto CSAM en sus plataformas en todo el mundo al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC), en marcado contraste con sus grandes pares tecnológicos, con Google reportando más de 1,47 millones y Meta que reportó más. de 30,6 millones, según el informe anual del NCMEC.

Todas las empresas de tecnología con sede en EE. UU. deben informar al NCMEC todos los casos de CSAM detectados en sus plataformas. La organización con sede en Virginia sirve como centro de intercambio de información para informes de abuso infantil de todo el mundo, visualizándolos y enviándolos a las agencias policiales correspondientes. iMessage es un servicio de mensajería cifrada, lo que significa que Apple no puede ver el contenido de los mensajes de los usuarios, pero tampoco lo es WhatsApp de Meta, que envió aproximadamente 1,4 millones de informes de sospecha de CSAM al NCMEC en 2023.

"Existe una discrepancia preocupante entre el número de delitos relacionados con imágenes de abuso infantil en el Reino Unido que se cometen en los servicios de Apple y el número casi insignificante de informes globales de contenido abusivo que envían a las autoridades", dijo Richard Collard, jefe de Política de Seguridad Infantil en Línea de el NSPCC. "Apple está claramente por detrás de muchos de sus pares en la lucha contra el abuso sexual infantil cuando todas las empresas de tecnología deberían invertir en seguridad y prepararse para la implementación de la Ley de Seguridad en Línea en el Reino Unido".

Apple se negó a hacer comentarios para este artículo. En cambio, la compañía remitió a The Guardian a las declaraciones que hizo en agosto pasado, en las que decía que había decidido no continuar con un programa de escaneo de fotografías de iCloud para CSAM porque había elegido un camino que "prioriza la seguridad y privacidad de [its] usuarios".

Hacia finales de 2022, Apple abandonó los planes de lanzar la herramienta iCloud Photo Scan. La herramienta de Apple, llamada neuralMatch, escanearía las imágenes antes de cargarlas en el almacenamiento de fotos en línea de iCloud, comparándolas con una base de datos de imágenes conocidas de abuso infantil a través de huellas dactilares matemáticas conocidas como valores hash.

Sin embargo, el software enfrentó la resistencia de los grupos de derechos digitales, quienes expresaron su preocupación de que inevitablemente se utilizaría para comprometer la privacidad y seguridad de todos los usuarios de iCloud. Los defensores de la seguridad infantil denunciaron la reversión de la función.

"Apple no detecta CSAM en la mayoría de sus entornos a gran escala", dijo Sarah Gardner, directora ejecutiva de Heat Initiative, una organización sin fines de lucro de Los Ángeles centrada en la protección infantil. "Es evidente que no están informando lo suficiente y no han invertido en equipos de confianza y seguridad para poder gestionar la situación".

El anuncio de Apple en junio sobre el lanzamiento de un sistema de inteligencia artificial, Apple Intelligence, fue recibido con preocupación por los expertos en seguridad infantil.

"La prisa por implementar la IA de Apple es preocupante, ya que el material de abuso infantil generado por la IA pone a los niños en riesgo e impacta la capacidad de la policía para salvaguardar a las víctimas jóvenes, especialmente porque Apple ha rechazado la integración de tecnología para proteger a los niños", dijo Collard. Apple dice que el sistema de inteligencia artificial, creado en colaboración con OpenAI, personalizará las experiencias de los usuarios, automatizará tareas y aumentará la privacidad del usuario.

En 2023, el NCMEC recibió más de 4700 informes CSAM generados por IA y dijo que espera que la cantidad de dichos informes aumente en el futuro. Dado que los modelos de IA capaces de crear CSAM fueron entrenados con imágenes “reales” de abuso infantil, las imágenes generadas por IA también están implicadas en la victimización infantil. The Guardian informó en junio que los depredadores de niños están utilizando IA para crear nuevas imágenes de sus víctimas favoritas, exacerbando aún más el trauma de los sobrevivientes o las imágenes de abuso infantil.

"La empresa se está adentrando en un territorio que sabemos que podría ser increíblemente dañino y peligroso para los niños sin un historial comprobado de saber cómo manejarlo", dijo Gardner. "Apple es un agujero negro".

Si quieres conocer otros artículos parecidos a Regulador británico acusa a Apple de no informar sobre imágenes sexuales de niños | Manzana puedes visitar la categoría Tecnología.

Otras noticias que te pueden interesar

Subir