Ni Lucero o Verónica Castro promocionan pastillas; conoce la nueva estafa con IA
Verónica Castro, Lucero y Arturo Elías Ayub ya fueron ‘clonados’ por la IA. Conoce estos nuevos ataques de los ciberdelincuentes.
De acuerdo con McAfee, la voz de una cuarta parte de los adultos a nivel mundial a sido clonada y el 77 por ciento de estas personas fueron víctimas de estafas de voz con Inteligencia Artificial (IA). Como consecuencia, perdieron dinero.
Para hacer este tipo de fraudes los hackers solo deben de tener acceso a tres segundos de un audio que contenga la voz original del afectado. Este tipo de archivos no son difíciles de hallar ya que más de la mitad de los internautas comparten su voz al menos una vez a la semana en línea o en las redes sociales.
Modelos creadas con Inteligencia Artificial triunfan en redes sociales y revistas
Te recomendamos este videoVarios famosos han sido víctimas de estafas similares que incluye tecnología IA. Uno de los casos más recientes fue el de la famosa actriz mexicana, Verónica Castro. Sin embargo, su voz no fue la única clonada, su imagen también fue falsificada.
En un clip la supuesta primera actriz mencionó que tuvo problemas de diabetes y que buscando tratamiento de médicos. No obstante, logró vencer la enfermedad con productos naturales. Así lo reportó el periodista de espectáculos Alex Kaffie.
Ver esta publicación en Instagram
“El video de tres minutos en el que Verónica Castro recomienda un tratamiento contra la diabetes es falso. Fue hecho con ‘delincuencia artificial’”, comentó a través de sus redes sociales.
¿Qué otros famosos han sido clonados?
En junio de 2024 circuló un video en donde Lucero, una famosa cantante mexicana, dijo que era víctima de una grave enfermedad y que había logrado curarse con ayuda de un medicamento.
Al poco tiempo de que comenzó a circular este video, fue la misma estrella de televisión que lanzó un comunicado en el que desmentía.
“Esta carta es para aclararles que dicho video fue creado con Inteligencia Artificial y no refleja para nada la realidad. Es muy delicado y preocupante que se utilicen estas tecnologías para difundir información falsa”.
Ver esta publicación en Instagram
En 2023, Arturo Elías Ayub, uno de los tiburones más conocido por los mexicanos denunció públicamente que en redes sociales circulaba un video donde supuestamente afirmaba que las inversiones en petróleo son las más rentables. Sin embargo, todo fue falso, el clip fue creado por IA.
Lo que va a empezar a pasar con la inteligencia artificial al manipular las voces y movimiento de labios de las personas va a ser GRAVISIMO.
De por si ya es una bronca saber q es cierto y q es fake
PORFA antes de tomar decisiones de cualquier tipo ASEGÚRATE que es verdad lo…— Arturo Elias Ayub (@arturoelias) September 13, 2023
“De por sí ya es una bronca saber que es cierto y que es fake. Porfa antes de tomar decisiones de cualquier tipo asegúrate que es verdad lo que ves”, comentó.
Fraudes con tu e.firma, por esta razón no debes compartir tu rúbrica digital
¿Cómo funciona este tipo de ‘clonación con IA’?
Las estafas no son nada nuevo, pero con la ayuda de la IA se han vuelto más realistas y un arma más poderosa para los delincuentes. Los criminales utilizarán la IA para robarle sus fondos a las personas comunes a través de estos pasos:
- Toman vídeos, fotos y otra información de tus perfiles de redes sociales y otros sitios web y utilizar la IA para crear falsificaciones profundas realistas para sus esquemas fraudulentos
- Una vez que han creado una falsificación profunda de una voz real de un ser querido, le llamarán a una persona cercana a la víctima para decirle que tiene problemas y necesita dinero
- Los criminales juegan con la sensación de urgencia y gravedad de la situación para conseguir que los familiares y amigos actúen rápidamente y sin pensar
- Los estafadores pedirán el pago en efectivo, tarjetas de regalo o criptomonedas para intentar que sus estafas sean ilocalizables
Así puedes evitar caer en este tipo de fraudes
Según WSFS Bank, para protegerte de este tipo de amenazas, debes de:
- Marcar las perfiles de redes sociales como privados y vigilar cuánta información es compartida
- Tener cuidado al responder a llamadas de números de teléfono desconocidos. Se sabe que los estafadores también falsifican números de teléfono legítimos de empresas y particulares
- Respirar hondo antes de actuar e intentar ponerse en contacto directamente con su ser querido al que pudieron haber clonado de forma digital
- Mantener contacto con la policía
- Comunicarse con las instituciones financieras con las que guarde relación la víctima
La IA puede ser una herramienta útil en muchos casos. Con el conocimiento y la vigilancia adecuados, puede protegerse cuando esta poderosa tecnología es utilizada por los criminales.