Mozilla recomienda deslizar el dedo hacia la izquierda en las aplicaciones de romance con inteligencia artificial

hace 8 meses

A man looking for romance using a dating app on his smartphone

Los románticos que buscan el amor virtual deben acercarse a los chatbots de inteligencia artificial amorosa con cautela, según un informe publicado el miércoles por investigadores de la guía de compra “Privacidad no incluida” de Mozilla.

Después de examinar 11 “almas gemelas de la IA”, los investigadores desaprobaron todas las aplicaciones por no brindar la privacidad, seguridad y protección adecuadas para los datos personales que extraen de sus usuarios.

Notaron que 10 de los 11 chatbots no cumplían con los Estándares Mínimos de Seguridad de Mozilla, como requerir contraseñas seguras o tener una forma de gestionar las vulnerabilidades de seguridad.

El informe reveló que la mayoría de las políticas de privacidad de las aplicaciones proporcionaban sorprendentemente poca información sobre cómo utilizan el contenido de las conversaciones de los usuarios para entrenar sus IA y muy poca transparencia sobre cómo funcionan sus modelos de IA.

“La mayoría de las 11 aplicaciones que analizamos fueron creadas por pequeños desarrolladores sobre los que no se pudo encontrar mucha información”, dijo la directora de la guía, Jen Caltrider, a TechNewsWorld.

Manipulación con esteroides

El informe agregó que los usuarios también tienen poco o ningún control sobre sus datos, lo que deja un potencial enorme de manipulación, abuso y consecuencias para la salud mental.

“Estas aplicaciones están diseñadas para que les des mucha información personal porque están tratando de conocerte”, explicó Caltrider. “Están interesados ​​en tu vida y, cuanto más sepan, mejor podrán hablar contigo y convertirse en tu alma gemela”.

“Si eres una persona malvada que quiere manipular a la gente, esto es manipulación con esteroides”, dijo Caltrider. “Has creado un chatbot que conocerá a una persona vulnerable, establecerá una conexión con ella y se convertirá en su amigo. Luego puedes usar ese chatbot para manipular cómo piensa y qué hace”.

El informe también criticó a los creadores de la aplicación por no brindarles a los usuarios la opción de optar por no permitir que el contenido de sus chats íntimos se use para entrenar los modelos de IA que utilizan los programas. Los investigadores señalaron que solo una empresa, Genesia AI, tenía una alternativa de exclusión voluntaria, lo que demostró que es una función viable.

“Los consumidores que están preocupados por el uso de su información con fines de marketing o para entrenar motores de inteligencia artificial sin su permiso expreso deben revisar cuidadosamente las prácticas de recopilación de datos de una empresa y ejercer su derecho a aceptar o rechazar la recopilación, el intercambio, la venta o la retención de datos”, aconsejó James E. Lee, director de operaciones del Identity Theft Resource Center, una organización sin fines de lucro dedicada a minimizar el riesgo y mitigar el impacto de la vulneración de la identidad y el delito, en San Diego, California.

“La información retenida también podría ser un objetivo para los cibercriminales que quieran usar ransomware o robar identidad”, dijo a TechNewsWorld.

Las aplicaciones de inteligencia artificial para encontrar el amor están en pleno auge

Según el informe, la cantidad de aplicaciones y plataformas que utilizan sofisticados algoritmos de inteligencia artificial para simular la experiencia de interactuar con una pareja romántica está aumentando vertiginosamente. Durante el último año, señaló, los 11 chatbots de relaciones analizados por Mozilla acumularon aproximadamente 100 millones de descargas solo en Google Play Store.

Cuando la tienda GPT de OpenAI abrió el mes pasado, agregó el informe, estaba inundada de chatbots de relaciones con IA a pesar de estar en contra de la política de la tienda.

En un estudio reciente realizado por Propeller Insights para Infobip, una empresa global de comunicaciones omnicanal, a 1.000 adultos, el 20 % de los estadounidenses admitió haber coqueteado con un chatbot. Sin embargo, esa cifra fue superior al 50 % en el caso de los jóvenes de entre 35 y 44 años.


El motivo más frecuente para el coqueteo virtual fue la curiosidad (47,2%), seguida de la soledad y la alegría en las interacciones con chatbots (23,9%).

“El aumento en el uso de chatbots románticos con inteligencia artificial se puede atribuir a una combinación de cambios sociales y avances tecnológicos”, sostuvo Brian Prince, fundador y director ejecutivo de Top AI Tools, una plataforma educativa, de recursos y de herramientas de inteligencia artificial en Boca Raton, Florida.

“Con el aumento de la soledad y la sensación de desconexión, la gente recurre a los chatbots en busca de compañía y apoyo emocional”, dijo a TechNewsWorld. “Es como tener un amigo en el bolsillo, disponible siempre que necesites charlar. Además, a medida que la IA se vuelve más inteligente, estos bots se sienten más reales y atractivos, y atraen a la gente”.

Del código a las palabras dulces

También es más fácil implementar chatbots de IA. “Incorporar este tipo de experiencias es tan fácil como incorporar videos de YouTube o vistas previas de Spotify en una página web, gracias a sus API sólidas y bien documentadas”, explicó Brandon Torio, gerente de productos sénior de Synack, una empresa de seguridad empresarial en Redwood City, California.

“Con unas pocas líneas de código, puedes preparar modelos similares a ChatGPT para tener cualquier tipo de conversación con los clientes, ya sea que el objetivo sea educarlos sobre un producto o simplemente susurrarles palabras dulces para el Día de San Valentín”, dijo a TechNewsWorld.

"Con todo lo que los humanos hemos enfrentado en los últimos años, no es sorprendente que la gente esté recurriendo a las computadoras en busca de compañía y romance", agregó Ron Arden, director de tecnología y director de operaciones de Fasoo, un proveedor de soluciones de protección de datos empresariales en Seúl, Corea del Sur.

“Todos nos quedamos aislados durante la pandemia y es difícil conocer gente”, dijo a TechNewsWorld. “Los chatbots son fáciles, al igual que lo es enviar mensajes de texto. No hay interacciones humanas directas ni vergüenza. Solo dame lo que necesito y puedo seguir con mi día”.

“También forma parte del aumento general del uso de aplicaciones para casi todo, desde medir la presión arterial hasta contar calorías”, afirmó. “Es fácil, no supone una amenaza y es conveniente”.

Amenaza única a la privacidad

El informe de Mozilla también afirmó que los robots románticos utilizaban prácticas de marketing engañosas. Citó una aplicación que afirmaba ofrecer beneficios para la salud mental y el bienestar en su sitio web, pero negaba esos beneficios en los términos y condiciones de uso de la aplicación.

“Es engañoso y confuso que se promocionen como aplicaciones de salud mental, autoayuda o bienestar, pero luego declaren claramente en sus documentos legales que no ofrecen ningún servicio de salud mental”, dijo Caltrider.


Los chatbots románticos impulsados ​​por inteligencia artificial presentan una amenaza única a la privacidad, sostuvo James McQuiggan, defensor de concientización sobre seguridad en KnowBe4, un proveedor de capacitación sobre concientización sobre seguridad en Clearwater, Florida.

“Esto se debe a que pueden entablar conversaciones más profundas y personales con los usuarios”, dijo a TechNewsWorld. “Potencialmente, esto puede llevar a la recopilación de datos personales confidenciales, lo que, si no se maneja de forma segura, plantea un riesgo significativo de violaciones de datos y uso indebido”.

“Los chatbots románticos tienen el potencial de ser una gran herramienta para las personas que exploran su sexualidad: una forma de probar conversaciones que les daría vergüenza tener con otra persona”, agregó Jacob Hoffman-Andrews, tecnólogo sénior de la Electronic Frontier Foundation, un grupo internacional sin fines de lucro de derechos digitales con sede en San Francisco.

“Eso sólo funciona si el chatbot tiene políticas de privacidad extremadamente estrictas”, dijo a TechNewsWorld. “No deberían entrenar a la IA basándose en chats privados. No deberían mostrar chats privados a evaluadores humanos. Deberían asegurarse de que los chats se puedan eliminar realmente y ofrecer la eliminación automática después de un período de tiempo”.

“Y”, añadió, “bajo ninguna circunstancia deberían vender información extraída de chats privados.

Si quieres conocer otros artículos parecidos a Mozilla recomienda deslizar el dedo hacia la izquierda en las aplicaciones de romance con inteligencia artificial puedes visitar la categoría Tecnología.

Otras noticias que te pueden interesar

Subir