logo Lawwwing

La IA está haciendo cada vez más difícil distinguir lo real de lo falso

Las imágenes y vídeos generados por inteligencia artificial están alcanzando un nivel de realismo que hace cada vez más difícil distinguir lo verdadero de lo falso. Herramientas como Nano Banana permiten crear escenas completamente creíbles en cuestión de minutos, lo que plantea nuevos riesgos de desinformación y pérdida de confianza en el contenido digital.
Núria Moreno Ambel
26 de enero de 2026

En el mundo digital actual, tenemos que pensar dos veces todo lo que vemos. Esto se debe a que la cantidad de imágenes, vídeos, textos y contenidos falsos crece cada día.
¿El origen de todo esto? El software de inteligencia artificial.

Cuanto más evolucionan estas herramientas, más complicado se vuelve navegar por internet y redes sociales. Hoy en día, la IA es capaz de generar contenido tan avanzado que resulta casi imposible saber si algo es real o no. Esto solo va a empeorar, especialmente en el caso de fotos y vídeos.

Nano Banana y el nuevo nivel de realismo

En agosto de 2025, Google lanzó Nano Banana, un generador de imágenes impulsado por Gemini. Nano Banana tiene la capacidad de crear imágenes increíblemente precisas y creíbles, incluso más que otras plataformas similares.

¿En qué se diferencia Nano Banana de herramientas como Sora, Grok u otros generadores de imágenes?
Principalmente en dos aspectos.

Por un lado, destaca por su capacidad para leer una descripción en texto y generar una imagen extremadamente fiel a lo que se le pide. Es algo que muchas otras herramientas todavía no han logrado dominar.
Por otro lado, también sobresale al editar imágenes existentes, añadiendo elementos o cambios que resultan casi imposibles de detectar como generados por IA, incluso para profesionales.

Aunque en los últimos meses Gemini ha empezado a limitar ciertos usos de Nano Banana (por ejemplo, se niega a generar imágenes con figuras públicas para evitar deepfakes), las imágenes que produce siguen siendo muy difíciles de diferenciar de contenido real.

Decidimos probarlo nosotros mismos para ver hasta qué punto podía describir y recrear una escena.

Un experimento sencillo, pero preocupante

Con todo lo que está ocurriendo actualmente en Estados Unidos en relación con ICE, le pedimos a Nano Banana que creara una escena de protesta en la calle. Solicitamos una gran multitud, presencia policial y que la localización fuera Minnesota, donde estos eventos están teniendo lugar.

Imagen creada con nano banana de una protesta

La imagen inicial ya resultaba creíble. A medida que pedíamos más cambios y añadíamos detalles, la escena se volvía cada vez más realista.
El resultado final (la imagen mostrada) es casi imposible de identificar como falso, especialmente teniendo en cuenta que este tipo de contenido suele verse de forma rápida y sin demasiado contexto.

Cualquiera puede crear una escena falsa

El hecho de que hayamos podido crear una escena completamente falsa con tanta facilidad, y que muchas personas podrían creer real, es realmente alarmante. Cualquiera podría hacer algo similar en cualquier momento y pedir a la IA que genere prácticamente cualquier situación.

Además, hay un punto importante: no somos expertos en la creación de imágenes con IA.
Ahora imagina lo que podría hacer alguien con experiencia y malas intenciones.

Cuando ya no sabemos qué creer

Hoy en día, con la tecnología a la que cualquiera puede acceder en cuestión de segundos, resulta cada vez más difícil saber si las imágenes, vídeos o historias que vemos online son reales o generados por IA. Por eso es fundamental ser cuidadosos, no solo al consumir contenido, sino también al compartirlo.

La confusión empieza cuando dejamos de cuestionar lo que vemos. El problema al que siempre volvemos es el mismo: ya no es fácil saber en qué confiar.

Por qué la verificación es clave

En un entorno donde lo falso puede parecer completamente real, contar solo con la intuición ya no es suficiente. Necesitamos herramientas que ayuden a verificar la autenticidad del contenido digital.

Descubre Vericta, una solución diseñada para detectar si imágenes y vídeos han sido generados o manipulados con inteligencia artificial, y ayudar a devolver la confianza al contenido online.

En este artículo
¿En qué podemos ayudarte?
Si tienes dudas, nuestros especialistas te ayudarán siempre que lo necesites.
Chat en vivo
Compartir artículo
Blog

Consulta artículos relacionados

Las empresas confían en Lawwwing para asegurar su cumplimiento legal, manteniendo sus documentos actualizados y evitando sanciones.
cross