Delincuentes utilizan inteligencia artificial para imitar la voz de familiares y amigos, creando mensajes urgentes para solicitar dinero.
Estados Unidos (Marcrix Noticias)-Un nuevo esquema de estafa está causando alarma entre los usuarios de WhatsApp. Delincuentes emplean tecnología de inteligencia artificial para clonar la voz de familiares o amigos, simulando emergencias y solicitando ayuda económica de manera urgente.
Este método fraudulento funciona mediante el uso de grabaciones de voz reales obtenidas a través de redes sociales o videos públicos. Con tan solo una breve muestra de audio, los estafadores logran crear réplicas casi exactas del timbre y ritmo de la voz de una persona, engañando a los receptores de los mensajes.
Cómo opera la estafa:
- Mensajes angustiantes: Los audios incluyen frases como «Estoy en un problema grave» o «Necesito dinero urgentemente».
- Hackeo de cuentas: En algunos casos, los estafadores hackean la cuenta de WhatsApp de la persona imitada para aumentar la credibilidad.
- Técnicas de manipulación emocional: Utilizan la confianza y el temor para presionar a las víctimas a enviar dinero rápidamente.
- Establecer códigos de seguridad: Acuerda una palabra o frase clave con tus contactos para confirmar emergencias reales.
- Verificar la situación: Llama directamente a la persona en cuestión para confirmar cualquier solicitud urgente.
- Limitar la privacidad en redes sociales: Evita compartir audios o videos que puedan ser utilizados para clonar tu voz.
- Desconfiar de mensajes urgentes: No respondas inmediatamente a solicitudes sospechosas, especialmente aquellas que impliquen transferencias de dinero.
El creciente uso de inteligencia artificial en actividades delictivas subraya la importancia de ser cauteloso en el uso de tecnologías digitales. Las autoridades exhortan a los usuarios a denunciar cualquier intento de fraude y a compartir estas recomendaciones para prevenir que más personas sean víctimas.