Por Dra. Margarita Mendoza Burgos
En 2023, un video de Will Smith comiendo espaguetis generado por inteligencia artificial recorrió internet. Las imperfecciones eran evidentes: movimientos torpes, texturas irreales, una sensación inequívoca de falsedad digital. Casi tres años después, una nueva versión del mismo actor consumiendo pasta provocó una reacción distinta: escalofríos. La imagen resultaba tan convincente que, sin el contexto de su producción, nadie se atrevería a calificarla de falsa.
Esa evolución en menos de tres años resume uno de los fenómenos tecnológicos más inquietantes de nuestra época. La inteligencia artificial ha transformado radicalmente la producción, el consumo y la distribución de información.

Hoy existen herramientas capaces de generar texto, imágenes, audio y video con un realismo que habría parecido ciencia ficción hace apenas una década. Esto ha abierto oportunidades reales en educación, entretenimiento y periodismo, pero también ha creado riesgos que la sociedad aún no sabe cómo gestionar.
¿Esto es real o lo generó una IA? La pregunta, que antes era retórica, se ha convertido en un ejercicio necesario y cada vez más difícil ante cualquier contenido digital.
Uno de los usos más preocupantes es la creación de los llamados «deepfakes». Así se les llama a los videos manipulados en los que una persona aparece diciendo o haciendo algo que nunca ocurrió. Estos contenidos pueden ser extraordinariamente convincentes y resistentes a la detección, lo que los convierte en instrumentos de desinformación de alto impacto.
En contextos políticos, el riesgo es especialmente grave. Un video falsificado puede moldear la opinión pública, destruir reputaciones o interferir en procesos electorales. No se trata de un escenario hipotético: ya existen casos documentados en distintos países.
La amenaza no se limita a la política. Los delincuentes utilizan voces clonadas mediante IA para suplantar la identidad de familiares o figuras de autoridad y solicitar dinero o datos confidenciales. Los correos y mensajes fraudulentos generados con estas herramientas son cada vez más elaborados y difíciles de identificar a simple vista.
Frente a este panorama, existen señales de alerta que todavía resultan útiles. Las imágenes generadas por IA suelen presentar fallos recurrentes: manos con dedos de más, textos ilegibles, simetrías extrañas o fondos con detalles borrosos. Aunque estos errores se vuelven menos frecuentes con cada nueva generación de modelos, siguen siendo pistas valiosas.
En cuanto a las noticias, verificar la misma información en varios medios reconocidos sigue siendo el hábito más eficaz. Si un contenido aparece únicamente en una fuente de dudosa credibilidad, la probabilidad de que sea falso es alta.
La irrupción de la IA ha llegado más rápido de lo que muchos anticipaban y plantea un desafío cultural tanto como tecnológico. La herramienta que usamos para simplificar tareas cotidianas es la misma que otros emplean para manipular la realidad. El verdadero riesgo no está en la tecnología en sí, sino en la confianza ciega: aceptar sus resultados sin cuestionarlos ni corregirlos.