La nueva modalidad de estafa que aprovecha unos pocos segundos de tu voz para engañar a tus contactos con inteligencia artificial.
¿Atendiste una llamada y nadie respondió? Aunque parezca inofensivo, podría ser parte de una nueva técnica usada por estafadores para clonar tu voz mediante inteligencia artificial.
Expertos en ciberseguridad advierten que el verdadero riesgo no está en atender, sino en hablar. Solo basta con que digas frases como “hola” o “sí” para que los delincuentes capten tu voz y la usen para suplantar tu identidad.
Con apenas unos segundos de audio claro, los estafadores pueden recrear tu voz con tecnología de IA y utilizarla en fraudes. Así, llaman a tus familiares o contactos haciéndose pasar por ti para pedir dinero o datos personales.
¿Cómo protegerte?
• Si recibes una llamada en silencio o sospechosa, cuelga de inmediato y bloqueá el número.
• No digas “hola” ni “sí” si no conoces a quien te llama.
La clonación de voz con fines delictivos ya no es ciencia ficción. Está ocurriendo y puede pasarle a cualquiera. Estar informado y actuar con cautela puede hacer la diferencia.