Delincuentes reales, víctimas falsas: cómo se utilizan los chatbots en la lucha global contra los estafadores telefónicos | Inteligencia artificial (IA)

hace 4 meses

Delincuentes reales, víctimas falsas: cómo se utilizan los chatbots en la lucha global contra los estafadores telefónicos |  Inteligencia artificial (IA)

Un estafador llama y pide un código de acceso. Malcolm, un hombre mayor con acento inglés, está confundido.

"¿De qué estás hablando?" pregunta Malcolm.

Otro día, otra llamada fraudulenta.

Esta vez, responde Ibrahim, un hombre cooperativo y cortés con acento egipcio. “Francamente, no estoy muy seguro de recordar haber comprado nada recientemente”, le dice al confiado estafador. "Tal vez uno de los muchachos lo hizo", continúa Ibrahim, "pero no es culpa tuya, ¿verdad?"

Los estafadores son reales, pero Malcolm e Ibrahim no. Son sólo dos de los robots de IA conversacionales creados por el profesor Dali Kaafar y su equipo. A través de su investigación en la Universidad Macquarie, Kaafar fundó Apate, que lleva el nombre de la diosa griega del engaño.

El objetivo de Apate es derrotar las estafas telefónicas globales a través de la IA conversacional, aprovechando los sistemas ya existentes mediante los cuales las empresas de telecomunicaciones desvían las llamadas que pueden identificar como provenientes de estafadores.

Kafaar se inspiró para darle la vuelta a los estafadores telefónicos después de hacerle una "broma de papá" a un estafador frente a sus dos hijos mientras disfrutaban de un picnic bajo el sol. Con una charla ociosa, mantuvo al estafador a raya. "Los niños se rieron mucho", dice. "Y pensé que el propósito era engañar al estafador, hacerle perder el tiempo para que no hablara con los demás.

"Estafar a los estafadores, por así decirlo".

Al día siguiente llamó a su equipo desde el Cyber ​​Security Hub de la universidad. Tenía que haber una manera mejor que su método de "broma de papá", pensó. Y tenía que haber algo más inteligente que una pieza popular de tecnología existente: el Lennybot.

Antes de Malcolm e Ibrahim, estaba Lenny.

Lenny es un viejo australiano destartalado, deseoso de charlar. Es un chatbot, diseñado para trollear a los vendedores por teléfono.

Con voz débil, matizada por un ligero silbido, Lenny repite varias frases en bucle. Cada frase entra en juego tras 1,5 segundos de silencio, para imitar el ritmo de una conversación.

El creador anónimo de Lenny escribió en Reddit que creó el chatbot para que fuera "la peor pesadilla de un vendedor por teléfono... un anciano solitario que quiere charlar, está orgulloso de su familia y no puede concentrarse en el objetivo del marketing por teléfono". El acto de atar a los estafadores se llamó scambaiting.

El Centro Nacional Antiestafa dice que las personas deben colgar el teléfono inmediatamente cuando se comuniquen con estafadores y "no intentar interactuar con delincuentes". Fotografía: Nikolay Doychinov/AFP/Getty Images

Bots apate al rescate

Desde diciembre de 2020, las empresas de telecomunicaciones de Australia han bloqueado casi 2 mil millones de llamadas fraudulentas.

Gracias en parte a una financiación de 720.000 dólares de la Oficina de Inteligencia Nacional, ahora hay potencialmente cientos de miles de “chatbots de víctimas”, demasiados para nombrarlos individualmente. Los robots de distintas "edades" hablan inglés con distintos acentos. Tienen una variedad de emociones, personalidades y respuestas. A veces son ingenuos, a veces escépticos y a veces groseros.

Si una empresa de telecomunicaciones detecta a un estafador y lo desvía a un sistema como Apate, los bots trabajarán para mantener ocupados a los estafadores. Prueban diferentes estrategias y aprenden qué funciona para garantizar que los estafadores permanezcan en línea por más tiempo. A través del éxito y el fracaso, las máquinas perfeccionan su patrón.

Al hacerlo, extraen información y detectan nuevas estafas al recopilar información sobre cuánto dura la llamada, cuándo es más probable que llamen los estafadores, qué información están buscando y las tácticas que utilizan.

Kafaar espera que Apate altere el modelo de negocio de las llamadas fraudulentas, a menudo dirigidas por grandes organizaciones criminales multimillonarias. El siguiente paso es utilizar la inteligencia recopilada para advertir con antelación y gestionar las estafas en tiempo real.

"Estamos hablando de verdaderos criminales que hacen de nuestras vidas un infierno", dice Kafaar. “Estamos hablando de riesgos para seres humanos reales.

“Seres humanos que a veces pierden los ahorros de toda su vida, que pueden verse paralizados por las deudas y, a veces, perjudicados psicológicamente [by] la verguenza."

“Estafar a los estafadores”… El Cyber ​​​​Security Hub del profesor Dali Kaafar comenzó a trabajar en tecnología de chatbot después de que una “broma de papá” les gastara a sus hijos. Fotografía: Mike Bowers/The Guardian

Richard Buckland, profesor de cibercrimen en la Universidad de Nueva Gales del Sur, dice que tecnologías como Apate son diferentes a otros tipos de estafas, que pueden ser amateurs o equivaler a formas de autolesión.

"Normalmente, el fraude es problemático", dice. "Pero esto es inteligente".

omitir la promoción del boletín

Según él, se pueden cometer errores cuando los individuos toman el asunto en sus propias manos.

"Puedes atacar a la persona equivocada". Dijo que muchas estafas las realizan personas en condiciones de servidumbre, casi esclavitud, "y ellos no son la mala gente".

“[And] algunos estafadores se sienten tentados a ir más allá y tomarse la justicia por su mano. Hackearlos o interactuar con ellos. Esto es problemático”.

Pero, sostiene, el modelo Apate parece utilizar la IA para siempre, como una especie de “bote de miel” para atraer a los delincuentes y luego aprender de ellos.

Buckland advierte que debería haber un alto nivel de confianza en que sólo los estafadores están siendo desviados de las empresas de telecomunicaciones a los robots de inteligencia artificial, porque la identificación errónea ocurre en todas partes. También advierte que las organizaciones criminales podrían utilizar tecnología de inteligencia artificial antiestafa para entrenar sus sistemas.

"La misma tecnología utilizada para engañar a los tramposos podría utilizarse para engañar a la gente", afirma.

El Centro Nacional Antiestafas (NASC) opera Scamwatch bajo los auspicios de la Comisión Australiana de Competencia y Consumidores (ACCC). Un portavoz de la ACCC dice que los estafadores generalmente se hacen pasar por organizaciones conocidas y a menudo pueden falsificar números de teléfono legítimos.

"Los delincuentes crean una sensación de urgencia en un intento de conseguir que las víctimas actúen rápidamente", afirma el portavoz. “A menudo intentan convencer a las víctimas para que compartan datos personales o bancarios, o para que proporcionen acceso remoto a sus ordenadores.

"Es posible que los delincuentes ya tengan algunos detalles sobre sus víctimas previstas, como el nombre o la dirección, que obtuvieron o compraron ilegalmente mediante una violación de datos, phishing u otra estafa".

Esta semana, Scamwatch tuvo que emitir una advertencia sobre algún tipo de metaestafa.

Los estafadores que decían ser de NASC llamaban a personas inocentes y decían que estaban siendo investigados por estar involucrados en una estafa.

La privacidad no es "absoluta": el director de ASIO pide a las empresas tecnológicas que colaboren con la policía - vídeo

La NASC dice que la gente debería colgar a los estafadores inmediatamente y "no intentar interactuar con los delincuentes". El portavoz dijo que estaba al tanto de “iniciativas tecnológicas para producir estafas utilizando caracteres de voz de IA”, incluido Apate, y que estaría interesado en revisar cualquier evaluación de la plataforma.

Mientras tanto, existe una próspera comunidad de estafadores en línea y Lenny sigue siendo uno de sus héroes de culto.

En una grabación memorable, Lenny le pide a la persona que llama que espere un minuto, mientras los patos comienzan a graznar de fondo. "Lo siento", dice Lenny. “¿Qué estabas diciendo otra vez?”

"¿Estás cerca de tu computadora?" pregunta la persona que llama con impaciencia. "¿Tienes una computadora? ¿Puedes acercarte a la computadora ahora?"

Lenny continúa hasta que el ladrón pierde la cabeza: "Cállate. Cállate. Cállate".

“¿Podrías quedarte ahí?” Pregunta Lenny, mientras los patos empiezan a graznar de nuevo.

Si quieres conocer otros artículos parecidos a Delincuentes reales, víctimas falsas: cómo se utilizan los chatbots en la lucha global contra los estafadores telefónicos | Inteligencia artificial (IA) puedes visitar la categoría Tecnología.

Otras noticias que te pueden interesar

Subir