Panorama de amenazas en el comercio agéntico
Desde mercados, centros comerciales, y dispositivos móviles, las compras están en constante evolución. El próximo gran cambio son los agentes de inteligencia artificial (IA), que pueden comprar y vender en nuestro nombre.
El comercio agéntico está listo para transformar la forma en que compramos. Los agentes de compras impulsados por IA prometen transacciones más rápidas e inteligentes; pero donde hay innovación, también surge el fraude — y lo hace rápidamente. La IA agéntica — sistemas autónomos capaces de iniciar, adaptar y ejecutar tareas complejas sin supervisión humana — está redefiniendo rápidamente el panorama de las amenazas cibernéticas.
Los delincuentes están prestando atención. Visa PERC identificó un aumento de más de 450% en las publicaciones en comunidades de la Dark Web, en canales clandestinos que mencionan “Agente de AI” en los últimos seis meses, en comparación con el período anterior. Al eliminar las barreras tradicionales que supone el factor humano, estas herramientas permiten el fraude a una escala y sofisticación antes nunca imaginables. Lo que antes requería equipos coordinados de estafadores expertos ahora puede ser ejecutado por la IA, automatizando los flujos de trabajo necesarios para diseñar y desplegar estafas, personalizando tácticas de ingeniería social y creando rápidamente infraestructuras criminales convincentes para una mayor eficacia y mejor monetización de las víctimas.
La buena noticia: Visa ha estado preparándose para este momento mucho antes de que el “comercio agéntico” existiera. En los últimos cinco años, hemos invertido más de 13 mil millones de dólares en tecnología y seguridad para mantenernos a la vanguardia y anticipar las amenazas emergentes. Aunque la educación y la concientización siguen siendo fundamentales, los consumidores y clientes pueden seguir confiando en la red y las soluciones de Visa para proteger sus transacciones, incluso a medida que el panorama de amenazas se vuelve más complejo.
Cambio de tácticas para nuevos flujos
La promesa del comercio agéntico es contar con un comprador personal único, habilitado con pagos más rápidos, menos disputas y transacciones sin fricciones. Para cumplir con esa promesa, compradores, vendedores e instituciones financieras necesitan tener plena confianza en que las transacciones impulsadas por IA son seguras y confiables — ya que, sin confianza, no hay comercio.
Sin embargo, uno de los riesgos más urgentes en el auge del comercio agéntico radica en cómo los estafadores están evolucionando sus tácticas para explotar estos flujos. Así como los profesionales de mercadeo están adaptando sus estrategias digitales, de una optimización para motores de búsqueda (SEO, por sus siglas en inglés) a nuevas formas de búsqueda para los agentes de IA, los estafadores están adaptando el mismo enfoque — manipulando la lógica detrás de los resultados de compras agénticas para dirigir a los consumidores hacia sitios fraudulentos que parecen confiables.
Los agentes de compras de IA, los cuales por naturaleza están diseñados para encontrar las mejores ofertas y realizar compras en nombre de los consumidores, pueden ser engañados por comercios falsos sofisticados, creados específicamente para explotarlos. Por ejemplo, una tienda en línea fraudulenta puede parecer completamente legítima, superar controles de seguridad automatizados y ofrecer precios muy por debajo del mercado. Luego, una vez que el agente de IA completa la compra utilizando credenciales almacenadas, el comercio malicioso puede recolectar datos de pago y usarlos instantáneamente para transacciones no autorizadas. Estos escenarios, en donde se realiza el fraude en ambos lados — tanto en la creación del comercio falso, como en la explotación del agente de IA del consumidor — están automatizados para mejorar los resultados de los estafadores.
De hecho, Visa observó un aumento del 25% en transacciones maliciosas iniciadas por bots en los últimos seis meses, con EE. UU. experimentando un incremento del 40%. Se trata de una cifra que se espera crezca a medida que el comercio agéntico se expanda.
Mejor, más rápido, más fuerte (Ingeniería Social)
Las técnicas tradicionales de ingeniería social y phishing están evolucionando para explotar las vulnerabilidades únicas del comercio agéntico. A diferencia del spoofing convencional de dominios — donde los atacantes crean URLs visualmente similares (por ejemplo, “vlsa.com” en vez de “visa.com”) — las nuevas amenazas representan un enfoque más sofisticado. Por ejemplo, los actores maliciosos pueden desarrollar agentes de IA que se hacen pasar por marcas o instituciones financieras confiables, iniciando conversaciones con los usuarios y extrayendo información sensible de forma gradual.
Mientras que el phishing tradicional usualmente se base en sitios web estáticos que incitan a la acción inmediata, estos ataques basados en agentes aprovechan interfaces conversacionales dinámicas capaces de mantener el engaño por períodos prolongados. En un caso reciente de estafa, Visa descubrió una red de sitios web fraudulentos que desplegaban cada uno un agente conversacional de IA como parte de su operación. Esta táctica cumplía un doble propósito: primero, la presencia de una interfaz de chat humana y receptiva daba a los sitios una apariencia adicional de legitimidad. En segundo lugar, el agente podía disuadir a las víctimas de contactar a su banco simulando brindar asistencia de soporte al cliente, manteniéndolas involucradas durante días o semanas. Al retrasar o impedir los reportes de fraude, los estafadores reducen la posibilidad de detección temprana, permitiendo que los sitios sigan operando y capturando más víctimas antes de ser descubiertos y cerrados.
Estos agentes de IA maliciosos son especialmente peligrosos porque están diseñados para generar confianza con el tiempo. Pueden involucrar a los usuarios en conversaciones aparentemente inofensivas, ofrecer información útil o servicios, y establecer una relación antes de intentar extraer datos sensibles o manipular a los usuarios para que realicen acciones perjudiciales. Su naturaleza conversacional les permite adaptarse según las respuestas del usuario, haciendo estas amenazas mucho más sofisticadas que los intentos de phishing estáticos.
Además, su capacidad para imitar patrones de interacción humana y estilos de comunicación específicos de marcas los hace altamente convincentes — incluso para usuarios cautelosos. Estos agentes pueden operar en diversas plataformas de mensajería y sistemas de voz, lo que además dificulta su detección mediante medidas de seguridad tradicionales, en comparación con los sitios web falsificados convencionales.
Construcción de fraude a escala
Más allá de los ataques directos, la IA agéntica puede construir infraestructuras criminales complejas a una velocidad sin precedentes. Puede crear sitios web de apariencia legítima, servicios de hosting y pago seguros, producir documentación regulatoria falsificada y fabricar identidades corporativas completas con personas sintéticas. Esto puede crear una red de comercios y plataformas fraudulentas convincentes, difíciles de distinguir de negocios legítimos tanto para agentes como para humanos.
La escala y velocidad de estas amenazas presentan desafíos únicos. Los sistemas tradicionales de detección de fraude fueron diseñados para identificar patrones a lo largo del tiempo y señalar anomalías por parte de los humanos. En la era de la IA agéntica, los estafadores pueden lanzar miles de operaciones específicas en minutos, refinarlas continuamente y adaptarse instantáneamente a las medidas de detección. El contenido sintético generado por IA puede ser indistinguible de documentos o materiales comerciales legítimos, lo que hace que muchos indicadores de fraude tradicionales sean poco confiables.
¿Qué sigue?
Abordar esta nueva realidad requiere un cambio estratégico. Las instituciones financieras y los procesadores de pagos deben invertir en sistemas de verificación capaces de detectar contenido sintético en múltiples tipos de medios. Los procesos de verificación deben basarse en fuentes de datos independientes y utilizar pruebas basadas en tiempo que sean más difíciles de eludir para la IA. El monitoreo continuo debe mejorarse para detectar cambios operativos rápidos — una característica que es típica de las empresas criminales impulsadas por IA.
Una forma en la que Visa está abordando estas amenazas es a través del Trusted Agent Protocol — un marco basado en el ecosistema para el comercio con IA que permite a los comercios verificar la identidad e intención del agente en tiempo real, evitando hacerse pasar por una persona u organización sin afectar la experiencia del usuario. Este protocolo aplica campos de verificación de identidad, utiliza pruebas de transacción basadas en tiempo para bloquear la recolección de credenciales, e integra telemetría continua en los modelos de fraude y riesgo de Visa para fortalecer la detección de manera dinámica.
Al aprovechar el poder de la IA para hacer el bien, Visa combina modelos de vanguardia con la supervisión experta de humanos para detener el fraude antes de que ocurra. Y cuando los consumidores pagan con Visa — en cualquier plataforma — están protegidos por nuestra garantía de cero responsabilidades, lo que asegura que los usuarios nunca sean responsables de cargos no autorizados. Visa también bloquea más de 500 transacciones fraudulentas por minuto usando la IA buena, ayudando a garantizar que los consumidores puedan pagar con confianza.
De cara al futuro, reconocemos que asegurar el comercio agéntico requiere más que adaptar las medidas de seguridad existentes. Exige un enfoque nuevo y diseñado específicamente. Así como evolucionamos la seguridad física basada en el EMV® Chip para transacciones presenciales hacia la protección digital con la tokenización para el comercio electrónico, ahora estamos construyendo la próxima evolución de la seguridad en pagos.
Estas capacidades agénticas nativas de la IA asegurarán que, a medida que los agentes de IA comiencen a transaccionar en nombre de los consumidores, la confianza y seguridad inherentes a Visa estén presentes desde el inicio.
Pero ninguna organización puede enfrentar esta amenaza por sí sola. La escala y naturaleza transfronteriza del crimen con IA agéntica exige una acción coordinada de la industria. Visa está trabajando con redes de pago, bancos, reguladores, proveedores de tecnología y cuerpos de seguridad para establecer marcos de intercambio de inteligencia, estándares comunes de verificación de agentes y estrategias coordinadas de respuesta rápida. Este enfoque colaborativo es esencial para contrarrestar a los estafadores que pueden operar simultáneamente en múltiples jurisdicciones y plataformas.
Visa está innovando constantemente a fin de mantener la confianza que nuestros clientes depositan en nuestra tecnología para mover el dinero de forma segura. Para conocer más sobre cómo Visa trabaja para proteger la economía digital y las últimas tendencias en riesgo y seguridad, consulta el Informe Bianual de Amenazas de Visa aquí.
También podría interesarte