¿Qué pasa si la IA no siempre es buena?

Cómo puede servir no solo a nosotros... sino también a quien quiera hacer el mal.

¿Te han contado el lado oscuro de la IA?

Siempre hablamos del potencial de la IA: cómo nos ayuda, nos hace más creativos, productivos, más humanos... Pero rara vez nos detenemos a pensar en el otro lado del espejo.

Piénsalo: si tú puedes usar un modelo de IA para escribir textos, generar imágenes, o soñar aplicaciones, un criminal también puede hacerlo. Y cada vez lo hace mejor.

Hoy las estafas ya no son solo errores de ortografía y mensajes urgentes mal escritos. Son deepfakes casi perfectos, voces sintéticas que suenan igual a la tía o el jefe, campañas de phishing tan pulidas que parecen mensajes auténticos del banco o de un amigo. La IA está amplificando los delitos clásicos, volviéndolos más rápidos, más creíbles, más peligrosos.

En Hong Kong, un ejecutivo transfirió 25 millones de dólares tras una videollamada con un deepfake que parecía su director financiero. La voz, los gestos, todo era tan convincente que nadie sospechó hasta que ya era demasiado tarde.

En Estados Unidos, solo en el primer trimestre de 2025, los crímenes con deepfake causaron pérdidas superiores a 200 millones de dólares.

Estas estafas se están industrializando: agentes conversacionales alimentados por IA pueden generar guiones falsos que se adaptan a cada víctima, y luego convertir esa conversación en llamadas de voz realistas.

Por si fuera poco, los fraudes en criptomonedas impulsados por IA aumentaron un 456 % entre mayo de 2024 y abril de 2025. Se usan deepfakes de celebridades, voces robadas, rostros conocidos… todo para engañar y vaciar billeteras.

Esto ya no es algo “del futuro”

No hace falta imaginar futuros distópicos. Con lo que ya hay, basta para estar atentos.

Pero estar atentos no es vivir con miedo. Es aprender a reconocer lo que suena raro, lo que no cuadra, lo que huele a trampa. Porque aunque la IA pueda ser usada para engañar, también nosotros podemos usar el sentido común (y algunas buenas prácticas) para protegernos.

Aquí algunas recomendaciones simples:

  • Desconfía de lo urgente. Si alguien te apura, pide dinero o acceso rápido, detente.

  • Verifica por otro canal. Si recibes un mensaje raro de un familiar, jefe o banco, llama o escribe por otro medio.

  • No compartas datos sensibles por voz o chat sin estar 100 % seguro.

  • Cuidado con lo que publicas. Una foto o audio inocente puede ser usado para suplantarte.

  • Cuando dudes, no actúes. Esperar unos minutos puede ahorrarte muchos problemas.

La IA no tiene moral propia, pero nosotros sí. Aprender a convivir con estas herramientas también implica aprender a reconocer cuándo algo no está bien.

Noticias sobre IA

💡 Prompt del día

¿Y si pudieras crear tu propio escudo digital?

Actúa como un experto en ciberseguridad para personas no técnicas. Escribe un manual express con 5 consejos claros, simples y actuales para evitar fraudes con inteligencia artificial. El estilo debe ser cercano, sin tecnicismos y fácil de entender. Imagina que se lo estás explicando a alguien que no sabe nada de tecnología.

¿Te animas a probarlo esta semana?

Si llegaste hasta aquí, te agradezco por leer este newsletter, espero que inicie nuevas conversaciones e ideas en tu mente sobre la Inteligencia Artificial y el futuro.

Esta publicación fue escrita con ayuda de la Inteligencia Artificial, siempre supervisado por un humano.