En 2025, los ciberataques ya no se limitan a robar dinero o datos. Ahora, también quieren meterse en tu cabeza y en tu corazón. Bienvenidos a la era de la ciberseguridad afectiva, donde los «hackeos» no atacan dispositivos, sino vínculos emocionales.
Imagínate esto, conoces a alguien por internet, pero tiene gustos parecidos, responde como nadie antes, te entiende, te apoya. Pero en realidad es un bot entrenado para manipular emociones.
En México, la inteligencia artificial conversacional se ha vuelto cada vez más sofisticada. Hay bots sentimentales que usando datos de tus redes sociales, construyen una personalidad irresistible, no buscan venderte algo de inmediato quieren que confíes, que te abras, que compartas tus miedos y luego, con esa información, se vuelven armas de manipulación, a esto se lo conoce como el fenómeno de los “deepfakes” Esta tecnología, que combina «deep learning» (aprendizaje profundo) y «fake» (falso) ya no se limita a videos falsos de celebridades. En nuestro país, se han registrado casos donde familiares o parejas «aparecen» en videollamadas pidiendo ayuda urgente. Voz, cara, tono: todo simulado con IA. Es tan creíble, que no necesitas ser ingenuo para caer. Solo necesitas querer ayudar.
En 2024, la Guardia Nacional reportó un incremento en los fraudes donde se usaron voces clonadas para pedir préstamos o transferencias entre familiares. ¿Lo peor? No hackearon tu dispositivo: hackearon tus emociones, según datos de la Asociación de Internet MX (2023), el 18% de los usuarios mexicanos ha sido víctima de algún intento de estafa emocional digital, hay bots diseñados para hacerse pasar por amigos, terapeutas o en plataformas como Free Fire, League of Legends o Roblox, muchos jugadores se conectan con desconocidos. Ahí es donde entran estos bots o cuentas automatizadas
¿Por qué los videojuegos? aquí son refugios emocionales para millones de jóvenes. Especialmente en México, donde muchos adolescentes encuentran en los juegos una forma de socializar o escapar de entornos complicados.
¿Cómo reconocer a un bot emocional?
Suelen responder con demasiada rapidez, como si siempre estuvieran disponibles y pendientes de ti, usan frases genéricas y motivacionales del tipo “Eres increíble” o “Me alegra tanto hablar contigo”, que funcionan con cualquiera pero se sienten vacías. Cuando intentas llevar la conversación al plano real por ejemplo, proponiendo una videollamada evaden el tema o ponen excusas. Además, hablan mucho de emociones, pero evitan compartir detalles personales verificables, como fotos reales, lugares específicos o datos concretos sobre su vida.
La ciberseguridad ya no es solo tener un buen antivirus. Es también aprender a proteger tus afectos, tus emociones, tu vulnerabilidad. Porque en la era digital, el robo más común no es de dinero, sino de confianza y si alguien controla tus emociones, controla tus decisiones.
Por: Erick Canul Rodríguez










