Alerta en México: crecen las extorsiones con inteligencia artificial dirigidas a familias de desaparecidos

Un nuevo tipo de crimen digital está creciendo silenciosamente en México. Se trata de extorsiones con inteligencia artificial, una modalidad sofisticada en la que los delincuentes utilizan audios falsificados con tecnología avanzada para manipular emocionalmente a familias de personas desaparecidas y exigir pagos inmediatos.
La alerta fue lanzada por organizaciones civiles y autoridades en varios estados del país, quienes han documentado un patrón creciente de llamadas y mensajes personalizados, generados con inteligencia artificial, que simulan ser la voz o imagen de un familiar perdido. En muchos casos, estas extorsiones han logrado vulnerar profundamente a las víctimas, generando no solo pérdidas económicas, sino también un trauma emocional devastador.
¿Cómo operan las extorsiones con inteligencia artificial?
Los criminales recolectan datos públicos disponibles en redes sociales, plataformas de búsqueda o incluso filtraciones de bases de datos. Con esta información, pueden recrear la voz o incluso el rostro de una persona desaparecida, utilizando herramientas de clonación por IA.
Posteriormente, realizan llamadas o envían mensajes donde, a través de audios o videos falsificados, simulan que la persona está viva y en peligro. En estos mensajes, la supuesta víctima pide ayuda con voz temblorosa y da instrucciones para realizar un depósito urgente. Todo es falso.
“La voz parecía de mi hija, me decía ‘mamá, sácame de aquí’. Era igual. Caímos en la trampa porque ya llevábamos meses sin saber nada de ella”, relató una madre en entrevista con colectivos de búsqueda.
Este tipo de extorsiones con inteligencia artificial están diseñadas para golpear donde más duele: la esperanza.

Aumento preocupante de casos
Organizaciones como R3D (Red en Defensa de los Derechos Digitales) y familiares de colectivos de búsqueda han alertado que estas prácticas han tenido un repunte en los últimos seis meses. Solo en el primer trimestre de 2025 se han detectado al menos 120 casos documentados de extorsiones con inteligencia artificial contra familias de desaparecidos, aunque el número real podría ser mucho mayor, ya que muchas víctimas no denuncian por miedo o culpa.
Las entidades más afectadas hasta ahora incluyen Jalisco, Estado de México, Tamaulipas y Guanajuato, aunque el fenómeno se ha detectado también en CDMX y zonas fronterizas.
¿Qué hacen las autoridades?
A pesar de la gravedad del fenómeno, la respuesta institucional ha sido limitada. La mayoría de las fiscalías estatales no cuentan con personal capacitado para detectar manipulación digital, y los protocolos de atención a víctimas de extorsión no contemplan el uso de inteligencia artificial en estos delitos.
Sin embargo, la Guardia Nacional y la Unidad de Policía Cibernética han comenzado a trabajar en una campaña informativa para alertar a la población y ofrecer líneas de ayuda especializadas.
Recomendaciones para protegerse
Expertos en ciberseguridad sugieren estas medidas ante la amenaza de extorsiones con inteligencia artificial:
- No compartir audios ni videos personales en redes sociales, especialmente si tienes un familiar desaparecido.
- Verificar siempre la fuente de las llamadas o mensajes antes de actuar.
- Grabar las llamadas y denunciar a las autoridades correspondientes.
- Buscar asesoría legal y psicológica en caso de haber sido víctima.
Además, es fundamental que colectivos de búsqueda, medios de comunicación y autoridades generen conciencia sobre este nuevo tipo de violencia digital que, al explotar el dolor humano, se convierte en uno de los crímenes más crueles de la era tecnológica.
Fuente: Infobae. (2025, mayo 4). Detectan nuevas extorsiones con inteligencia artificial que vulneran a familias de personas desaparecidas.
https://www.infobae.com/mexico/2025/05/04/detectan-nuevas-extorsiones-con-inteligencia-artificial-que-vulneran-a-familias-de-personas-desaparecidas