México es uno de los países más afectados por los fraudes con Inteligencia Artificial

Un reporte internacional advierte que las “deepfakes” y documentos falsos dominan las estafas; expertos recomiendan verificar antes de actuar.

 

Ciudad de México (Marcrix Noticias).- Los fraudes con Inteligencia Artificial en México han escalado al punto de ubicar al país como el segundo más afectado en América Latina y el octavo a nivel mundial, de acuerdo con el Identity Fraud Report 2025-2026 elaborado por la firma de verificación de identidad Sumsub. El documento advierte que los métodos de engaño son cada vez más sofisticados, con herramientas que permiten falsificar identidades y manipular imágenes o videos para burlar los controles de seguridad.

Según el informe, una de las principales modalidades de fraude durante el 2025 fue la creación de documentos falsos con apoyo de sistemas de IA, utilizados para producir pasaportes, credenciales y comprobantes de domicilio. Sumsub reportó que el 2% de los documentos apócrifos detectados en 2025 fueron generados con inteligencia artificial y la tendencia va al alza.

Otro método señalado son los deepfakes, es decir, rostros o videos generados con IA que buscan engañar a los sistemas de reconocimiento facial en bancos, Fintech o aplicaciones. También se usan en estafas directas cuando alguien simula ser un familiar o una persona conocida para pedir dinero o información. El reporte indica que el año anterior, más de 81% de los casos de fraude con IA a nivel mundial involucraron esta modalidad.

 

Identidades sintéticas y ataques automatizados

 

Sumsub también advierte sobre el uso de identidades sintéticas, donde se combinan datos reales filtrados con información inventada para abrir cuentas, solicitar créditos o cometer fraudes a nombre de otra persona. A esto se suma una tendencia emergente de ataques automatizados, en los que sistemas de IA pueden generar documentos, enviar solicitudes y contestar preguntas de forma automática, coordinando intentos de fraude sin intervención humana directa.

De acuerdo con la firma de ciberseguridad Norton, la IA también se emplea en engaños basados en imágenes, como perfiles románticos falsos en aplicaciones de citas, supuestas pruebas visuales de emergencias o compras, chantajes con imágenes alteradas, suplantación de ejecutivos o figuras públicas y anuncios de productos inexistentes en el comercio electrónico, con fotografías hiperrealistas.

Norton y Sumsub recomiendan reducir la exposición de imágenes personales en redes abiertas, desconfiar de mensajes que presionen con urgencia o pidan dinero, verificar el origen y el contexto antes de reaccionar y evitar reenviar contenido sin confirmar. También sugieren activar la autenticación de dos pasos, revisar configuraciones de privacidad, usar herramientas que detecten manipulación y compartir estas alertas con adultos mayores y menores.

Leave a Reply

Your email address will not be published. Required fields are marked *

No puedes copiar el contenido de esta página