Compartir
Suscríbete al NEWSLETTER
Cerrar
¿Qué estas buscando?

Hackers pueden usar tu voz para cometer fraudes, cuídate de la IA

MIT Sloan México
23 Ago 2024 5:45 pm
Hackers pueden usar tu voz para cometer fraudes, cuídate de la IA
Foto: ¿Sabías que los hackers ya pueden llevar a cabo fraudes usando tu voz? Esto lo hacen con ayuda de la IA, conoce distintas formas de protegerte. / Especial

¿Sabías que los hackers ya pueden llevar a cabo fraudes usando tu voz? Esto lo hacen con ayuda de la IA, conoce distintas formas de protegerte.

El avance de la Inteligencia Artificial (IA) ha traído consigo innumerables beneficios en diversos campos, desde la medicina hasta el entretenimiento. Sin embargo, también ha abierto la puerta a nuevas formas de realizar distintos fraudes.

De acuerdo con McAfee, la tecnología está impulsando un aumento en las estafas de voz en línea, con Sólo se necesitan tres segundos de audio para clonar la voz de una persona.

Te recomendamos este video

La empresa descubrió que una cuarta parte de los adultos que encuestó había experimentado previamente algún tipo de fraude de voz con IA. Uno de cada 10 había sido atacado personalmente y el 15 por ciento dijo que le había sucedido a alguien que conocía.

“El 77 por ciento de las víctimas dijeron que habían perdido dinero como resultado”.

Fraude a través de tu banca móvil, ¿es posible que los hackers secuestren tu app?

Así es como los hackers raptan tu voz con IA para acceder a tu bolsillo

La compañía desarrolladora de productos de ciberseguridad añadió que, a pesar de que la voz de cada persona es única, es fácil clonar esta característica.

“El 53 por ciento de los adultos comparte sus datos de voz en línea al menos una vez por semana a través de redes sociales, notas de voz y más. El 49 por ciento lo hace hasta 10 veces por semana”, mencionó.

Gracias a este tipo de archivos, es más fácil para los estafadores acceder a este tipo de huella digital. Además aprovechan la tecnología de IA para clonar voces y luego enviar un mensaje de voz falso o llamar a los contactos de la víctima fingiendo estar en peligro.

El 70 por ciento de las personas que reciben los audios no están seguros de poder identificar la versión clonada de la real, por esto no sorprende que la técnica gane impulso.

El costo de caer en un fraude de voz de IA puede ser significativo. Más de un tercio de las personas que habían perdido dinero dijeron que les había costado más de mil dólares. Mientras el 7 por ciento de las víctimas perdieron entre 5 mil y 15 mil dólares.

Cómo detectar transferencias bancarias falsas y evitar caer en las trampas de los cibercriminales

Dos medidas básicas para protegerte ante este fraude

Si bien cada vez es más difícil diferenciar entre lo que es real y lo que puede ser un deepfake generado por IA , hay un par de medidas que puedes tomar para protegerte.

1. Verifica y comprueba los hechos

Cuando se trata de estafas de voz con IA, se debe verificar dos veces que lo que la potencial víctima escucha sea correcto, dice Adrianus Warmenhoven, experto en ciberseguridad de NordVPN.

Si sospecha que está siendo atacado por un ciberdelincuente, también puede verificar en línea para ver si ha habido informes recientes de estafas de voz generadas por IA.

2. Cuelga la llamada

Si se decide responder una llamada de un número desconocido y suena como si un familiar en pánico le estuviera pidiendo dinero, lo mejor es no entrar en pánico.

En lugar de eso, finalizar la llamada e intentar llamar o enviar un mensaje de texto a la persona usando el número que le dio, en lugar del que llamó.

Lo mismo ocurre si se recibe una llamada de un estafador que se hace pasar por un banco. No se debe de creer de inmediato sus afirmaciones.

En lugar de eso, se debe finalizar la llamada y llamar al número que aparece en el sitio web de tu banco o en el reverso de tu tarjeta de débito o crédito.

Es especialmente importante dejar de hablar por teléfono con este tipo de estafadores, porque no necesitan un clip especialmente largo de tu voz para usar IA para clonar cualquier voz, según Warmenhoven.

“Incluso si usted simplemente dice ‘¿Hola? ¿Hay alguien ahí?’ o murmura algo, perderá muchas palabras e inflexiones en su voz y luego [un estafador] podrá clonar su voz”, explicó.

Ahora que ya sabes cómo debes proteger tu voz de la IA, te puede interesar ¿Cómo se integró la Inteligencia Artificial en los Juegos Olímpicos de París 2024?

MIT Sloan México
MIT Sloan México La guía en español para los tomadores de decisiones Marca internacional de gran renombre con contenidos de alta calidad que cuenta con el respaldo de la prestigiosa MIT Sloan School of Management del MIT. Cualquier persona que influye en su entorno es un líder.
Suscríbete al Newsletter
¡SUSCRÍBETE!
Descarga GRATIS nuestro especial del mes
Descargables Somos News

Cocina de Marisquería ¡Descárgalo GRATIS!