No existe una sola tecnología que pueda colocarse a la altura de la inteligencia artificial, la herramienta más popular del sector en estos momentos. Sin embargo, su popularidad no va ligada a sus posibilidades, ya que muchos expertos señalan que una pequeña modificación provoca que la IA pierda capacidades. Por ello, una red telefónica ha creado a dAIsy, una IA que simula ser una abuela parlanchina que mantiene a los estafadores ocupados al otro lado del teléfono.
Como señala el portal TechSpot, la operadora O2 (la más grande del Reino Unido y con una ligera presencia en España) está detrás de esta curiosa maniobra. En esencia, dAIsy tiene como objetivo hacer perder el tiempo a los estafadores, una situación con la que buscan evitar que puedan dirigirse a las víctimas reales. De hecho, cuando los estafadores exigen información bancaria dAIsy responde con números y nombres falsos.
La IA aprende a medida que evita estafas
Creada junto a Jim Browning (un creador de contenido que se dedica a exponer estafas), dAIsy es tan convincente que ha logrado mantener a los estafadores en la línea hasta por 40 minutos, un aspecto que genera tanto frustración como enojo entre estos. Además, las interacciones con estos ayuda a O2 a recopilar información sobre sus técnicas y estrategias y, a su vez, a la IA a aprender nuevas formas de evitar estos fraudes. De hecho, las interacciones se escuchan y transcriben en tiempo real, generando respuestas basadas en un modelo de lenguaje personalizado que es capaz de reproducirlas con una voz sintetizada.
Al tratarse de una IA, dAIsy funciona las 24 horas del día y consigue constantemente evitar todo tipo de estafas. En el pasado, O2 utilizaba métodos como firewalls para bloquear mensajes de texto fraudulentos, pero gracias a la IA ha podido introducir una detección de llamadas spam y a herramientas como dAIsy. Así, motivados por un estudio que reveló que el 71% de los británicos buscan vengarse de los estafadores, han creado una IA que lo hace por ellos.
En 3DJuegos | "No son tan listos como creen": un profesor desarrolla una técnica infalible para detectar trampas con ChatGPT
Ver 0 comentarios