La llegada de ChatGPT al iPhone provoca una repetición de las preocupaciones sobre la privacidad

hace 2 años

ChatGPT iOS app on iPhone

Desde que OpenAI introdujo ChatGPT, los defensores de la privacidad han advertido a los consumidores sobre la amenaza potencial a la privacidad que representan las aplicaciones de IA generativa. La llegada de una aplicación ChatGPT a la App Store de Apple ha provocado una nueva ronda de precaución.

“[B]Antes de lanzarte de cabeza a la aplicación, ten cuidado de no ser demasiado personal con el bot y poner en riesgo tu privacidad”, advirtió Muskaan Saxena en Tech Radar.

La aplicación iOS viene con una compensación explícita que los usuarios deben tener en cuenta, explicó, incluida esta advertencia: "Nuestro entrenador de inteligencia artificial puede revisar los chats anónimos para mejorar nuestros sistemas".

Sin embargo, la anonimización no es un camino hacia la privacidad. Los chats anónimos están despojados de información que pueda vincularlos con usuarios particulares. "Sin embargo, la anonimización puede no ser una medida adecuada para proteger la privacidad del consumidor porque los datos anonimizados aún pueden volver a identificarse combinándolos con otras fuentes de información", dijo Joey Stanford, vicepresidente de privacidad y seguridad de Platform.sh, un fabricante de una plataforma de servicios basada en la nube para desarrolladores con sede en París, dijo a TechNewsWorld.

"Se ha descubierto que es relativamente fácil anonimizar la información, especialmente si se utiliza información de ubicación", explicó Jen Caltrider, investigadora principal del proyecto Privacidad no incluida de Mozilla.

"Públicamente, OpenAI dice que no está recopilando datos de ubicación, pero su política de privacidad para ChatGPT dice que podrían recopilar esos datos", dijo a TechNewsWorld.

Sin embargo, OpenAI advierte a los usuarios de la aplicación ChatGPT que su información se utilizará para entrenar su modelo de lenguaje grande. “Son honestos al respecto. No ocultan nada”, dijo Caltrider.

Tomando en serio la privacidad

Caleb Withers, asistente de investigación del Center for New American Security, un grupo de expertos en seguridad y defensa nacional en Washington, DC, explicó que si un usuario escribe su nombre, lugar de trabajo y otra información personal en una consulta ChatGPT, esos datos no será anonimizado.

"Hay que preguntarse: '¿Es esto algo que le diría a un empleado de OpenAI?'", dijo a TechNewsWorld.

OpenAI ha declarado que se toma en serio la privacidad e implementa medidas para salvaguardar los datos de los usuarios, señaló Mark N. Vena, presidente y analista principal de SmartTech Research en San José, California.

"Sin embargo, siempre es una buena idea revisar las políticas y prácticas de privacidad específicas de cualquier servicio que utilice para comprender cómo se manejan sus datos y qué protecciones existen", dijo a TechNewsWorld.


Por muy dedicada que esté una organización a la seguridad de los datos, pueden existir vulnerabilidades que podrían ser explotadas por actores maliciosos, agregó James McQuiggan, defensor de la concientización sobre la seguridad en KnowBe4, un proveedor de capacitación en concientización sobre la seguridad en Clearwater, Florida.

"Siempre es importante ser cauteloso y considerar la necesidad de compartir información confidencial para garantizar que sus datos estén lo más seguros posible", dijo a TechNewsWorld.

"Proteger su privacidad es una responsabilidad compartida entre los usuarios y las empresas que recopilan y utilizan sus datos, lo cual está documentado en esos largos y a menudo no leídos Acuerdos de licencia de usuario final", añadió.

Protecciones incorporadas

McQuiggan señaló que se sabe que los usuarios de aplicaciones de IA generativa insertan información confidencial como cumpleaños, números de teléfono y direcciones postales y de correo electrónico en sus consultas. "Si el sistema de inteligencia artificial no está adecuadamente protegido, terceros pueden acceder a él y utilizarlo con fines maliciosos, como el robo de identidad o la publicidad dirigida", dijo.

Añadió que las aplicaciones de IA generativa también podrían revelar inadvertidamente información confidencial sobre los usuarios a través del contenido generado. "Por lo tanto", continuó, "los usuarios deben conocer los riesgos potenciales para la privacidad que conlleva el uso de aplicaciones de IA generativa y tomar las medidas necesarias para proteger su información personal".

A diferencia de las computadoras de escritorio y portátiles, los teléfonos móviles tienen algunas funciones de seguridad integradas que pueden frenar las incursiones en la privacidad por parte de las aplicaciones que se ejecutan en ellos.

Sin embargo, como señala McQuiggan, “si bien algunas medidas, como los permisos de las aplicaciones y la configuración de privacidad, pueden proporcionar cierto nivel de protección, es posible que no protejan completamente su información personal de todo tipo de amenazas a la privacidad como ocurre con cualquier aplicación cargada en el teléfono inteligente. "

Vena estuvo de acuerdo en que las medidas integradas como los permisos de las aplicaciones, la configuración de privacidad y las regulaciones de la tienda de aplicaciones ofrecen cierto nivel de protección. "Pero pueden no ser suficientes para mitigar todas las amenazas a la privacidad", dijo. "Los desarrolladores de aplicaciones y los fabricantes de teléfonos inteligentes tienen diferentes enfoques sobre la privacidad y no todas las aplicaciones siguen las mejores prácticas".

Incluso las prácticas de OpenAI varían desde el escritorio hasta el teléfono móvil. “Si está utilizando ChatGPT en el sitio web, tiene la posibilidad de acceder a los controles de datos y optar por que su chat no se utilice para mejorar ChatGPT. Esa configuración no existe en la aplicación de iOS”, señaló Caltrider.

Cuidado con la información de privacidad de la App Store

Caltrider también encontró que los permisos utilizados por la aplicación iOS de OpenAI eran un poco confusos, y señaló que “en Google Play Store, puede verificar y ver qué permisos se están utilizando. No puedes hacerlo a través de la App Store de Apple”.

Advirtió a los usuarios sobre la dependencia de la información de privacidad que se encuentra en las tiendas de aplicaciones. "La investigación que hemos realizado sobre la información de seguridad de Google Play Store muestra que es realmente poco confiable", observó.


"La investigación realizada por otros sobre la App Store de Apple muestra que tampoco es confiable", continuó. “Los usuarios no deben confiar en la información sobre seguridad de los datos que encuentran en las páginas de las aplicaciones. Deberían hacer su propia investigación, que es difícil y complicada”.

"Las empresas deben ser más honestas acerca de lo que recopilan y comparten", añadió. "OpenAI es honesto acerca de cómo van a usar los datos que recopilan para entrenar ChatGPT, pero luego dicen que una vez que anonimizan los datos, pueden usarlos de muchas maneras que van más allá de los estándares de la política de privacidad".

Stanford señaló que Apple cuenta con algunas políticas que pueden abordar algunas de las amenazas a la privacidad que plantean las aplicaciones de IA generativa. Incluyen:

  • Requerir el consentimiento del usuario para la recopilación y el intercambio de datos mediante aplicaciones que utilizan tecnologías de IA generativa;
  • Proporcionar transparencia y control sobre cómo se utilizan los datos y quién los utiliza a través de la función AppTracking Transparency que permite a los usuarios optar por no participar en el seguimiento entre aplicaciones;
  • Hacer cumplir los estándares y regulaciones de privacidad para los desarrolladores de aplicaciones a través del proceso de revisión de la App Store y rechazar las aplicaciones que los violen.

Sin embargo, reconoció: "Estas medidas pueden no ser suficientes para evitar que las aplicaciones de IA generativa creen contenido inapropiado, dañino o engañoso que podría afectar la privacidad y seguridad de los usuarios".

Convocatoria de ley federal de privacidad de IA

“OpenAI es solo una empresa. Hay varios que están creando grandes modelos de lenguaje, y es probable que surjan muchos más en el futuro cercano”, añadió Hodan Omaar, analista senior de políticas de IA en el Centro para la Innovación de Datos, un grupo de expertos que estudia la intersección de datos, tecnología y política pública, en Washington, DC

"Necesitamos tener una ley federal de privacidad de datos para garantizar que todas las empresas cumplan con un conjunto de estándares claros", dijo a TechNewsWorld.

"Con el rápido crecimiento y expansión de la inteligencia artificial", añadió Caltrider, "definitivamente es necesario que existan organismos de control y regulaciones sólidos y fuertes que nos vigilen al resto de nosotros a medida que esto crece y se vuelve más frecuente".

Si quieres conocer otros artículos parecidos a La llegada de ChatGPT al iPhone provoca una repetición de las preocupaciones sobre la privacidad puedes visitar la categoría Tecnología.

Otras noticias que te pueden interesar

Subir
Esta web utiliza cookies propias y de terceros para su correcto funcionamiento y para fines analíticos y para mostrarte publicidad relacionada con sus preferencias en base a un perfil elaborado a partir de tus hábitos de navegación. Contiene enlaces a sitios web de terceros con políticas de privacidad ajenas que podrás aceptar o no cuando accedas a ellos. Al hacer clic en el botón Aceptar, acepta el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos.
Privacidad