Todas las formas en que pueden estafarte... con una IA
La expansión de los grandes modelos de lenguaje obliga a comprobar exhaustivamente cualquier documento, mensaje apremiante u oportunidad de inversión
Escucha la noticia
5 min.
A estas alturas de la película estamos más que acostumbrados a descartar cualquier intento de estafa por correo electrónico, mensaje de texto e incluso llamada ... telefónica. ¿Una supuesta multa de la DGT a punto entrar en recargo? ¿El WhatsApp de un familiar en apuros implorándonos una transferencia urgente? ¡A otro con esos cuentos!
No contábamos, sin embargo, con el auge de la Inteligencia Artificial. Los llamados grandes modelos de lenguaje han evolucionado lo suficiente como para insuflar una credibilidad inusitada a las estrategias de los ciberdelincuentes. El último informe hecho púbico por la firma Sift habla por sí solo: los engaños generados por IA registraron un 62% más de víctimas durante el segundo trimestre de 2025 en comparación al mismo periodo del año anterior. De hecho, un 70% de los usuarios consultados a colación reconocen que los fraudes resultan más difíciles de detectar desde que ChatGPT y compañía han hecho acto de presencia.
El retorno de los 'deepfakes'
Los primeros deepfakes (vídeos falsificados en los que aparecen personas reales) surgieron en 2017 con numerosas celebridades y figuras políticas como protagonistas. Aunque por entonces coparon todos los titulares, se trataban de imágenes bastante rudimentarias y fácilmente identificables, producidas mediante redes neuronales.
La cuestión cambió radicalmente con la irrupción de la IA generativa, dos años después: dichos vídeos comenzaron a mostrar rostros con detalles hiperrealistas y los avances en síntesis de voz permitieron que los alter ego virtuales leyesen cualquier texto con voces calcadas a las reales y una sincronización labial perfecta. En este contexto han proliferado infinidad de estafas económicas y campañas de desinformación: empleados que reciben llamadas de sus hipotéticos jefes solicitándoles transferencias inmediatas; vídeos compartidos en redes sociales con declaraciones políticas falsas (para condicionar resultados electorales...); e incluso escenas subidas de tono en las que aparece nuestra cara, que alguien amenaza con difundir si no cedemos a su chantaje.
Suplantación de familiares en apuros
El clásico mensaje de WhatsApp a madres y abuelos en el que sus hijos o nietos solicitan un Bizum por haberse quedado tirados en mitad de la nada (y sin su teléfono habitual), estaba dejando de surtir efecto hasta las mentadas técnicas de clonación de voz.
Ahora los delincuentes optan por llamadas telefónicas en las que el familiar de turno se dirige a nosotros con tono lastimero, sin que seamos capaces de identificar el engaño. Lo más normal es que demos la petición por válida y enviemos el dinero sin mayor comprobación (como colgar y llamar al número que tengamos agendado). Craso error.
Estafas románticas mucho más reales
Resulta habitual voltear los ojos al ver que alguien ha vuelto a caer en una de las llamadas estafas románticas de Internet: ¿Cómo puede darse credibilidad a un amante virtual empeñado en solicitar dinero con excusas cada vez más inverosímiles? La respuesta también se encuentra en la IA, que permite crear vídeos aparentemente cotidianos con los que convencer a la víctima de que habla con una persona real.
Es más, las inteligencias artificiales permiten mantener videollamadas con avatares indistinguibles de la realidad y generar múltiples perfiles de redes sociales para darle mayor credibilidad al engaño.
'Phishing' de otro nivel
El 'phishing', la suplantación de empresas de transporte, entidades bancarias o instituciones a través de mensajes o páginas webs falsificadas, solía presentar errores ortográficos y gramaticales bastante evidentes. Desde que entró en juego la IA dichos textos no solo están redactados con esmero, sino que incluyen multitud de detalles personales (extraídos de nuestra huella digital) para convencernos de que el correo electrónico que hemos recibido resulta fidedigno. Por esto mismo se está registrando un repunte en el porcentaje de personas que pinchan sobre enlaces fraudulentos (hasta un 21% según el informe de Sift).
Además de estas cuatro modalidades de estafa primordiales, los malhechores se sirven de las inteligencias artificiales para convencernos de invertir en criptomonedas volátiles (generando expertos financieros con sobrada labia); hacerse pasar por responsables de atención al cliente (que nos llaman por teléfono para informarnos de supuestos errores informáticos); o colar reseñas en los productos de tiendas online falsas (si pedimos alguno, nunca lo recibimos).
El caso de 'María', una malagueña de 48 años, nos permite identificar otras dos tretas bastante extendidas: «Mandé mi currículum a un oferta de empleo que encajaba con mi perfil y me contactaron de vuelta pidiendo algunos datos indispensables (según ellos) para el proceso de selección. Tiempo después descubrí que los habían usado para generar facturas falsas a mi nombre». Queda claro pues que ya no podemos fiarnos, tan siquiera, a lo hora de buscar trabajo o pedir garantía documental a inversores o futuros inquilinos (por mentar dos ejemplos).
¿Tienes una suscripción? Inicia sesión