🧠 ¿Estamos idolatrando una ilusión tecnológica?

La inteligencia artificial (IA) domina titulares, titulares que prometen máquinas superinteligentes, sistemas que razonan como humanos y tecnologías que pronto reemplazarán casi cualquier profesión. Pero ¿cuánto hay de verdad y cuánto de hype en estas narrativas? Ramón López de Mántaras, una de las máximas autoridades en inteligencia artificial en España y pionero en su campo, se atreve a dar una respuesta incómoda: estamos viviendo una mentira masiva.

En este artículo analizamos en profundidad su crítica demoledora, que parte de una premisa clara: la inteligencia artificial actual no es ni inteligencia ni artificial en el sentido que los medios nos hacen creer. Desmontamos los mitos, repasamos los riesgos reales, y ofrecemos una visión más lúcida (y útil) del futuro de la IA.


📌 ¿Qué es realmente la IA hoy en día?

Para López de Mántaras, la IA que hoy utilizamos —como ChatGPT, DALL·E, Midjourney o cualquier otro sistema basado en deep learning— no es inteligencia. Son sistemas de correlación masiva entrenados con cantidades ingentes de datos. No comprenden, no razonan, no tienen objetivos propios ni conciencia. Solo predicen.

“Lo que hace un modelo como GPT es calcular cuál es la palabra más probable que viene a continuación de otra, basándose en patrones estadísticos. Nada más.”

Estamos, por tanto, ante sistemas estadísticos muy potentes, pero no conscientes ni capaces de entender el mundo. Compararlos con la inteligencia humana es, en palabras del propio López de Mántaras, una “proyección ideológica interesada”.


💸 ¿Por qué se exageran tanto sus capacidades?

La respuesta está en la economía del hype. A las grandes tecnológicas les interesa que pensemos que sus sistemas son cuasi-mágicos. Cuanto más temible, impresionante o “inteligente” parezca una IA, más fácil es captar inversores, vender servicios, obtener portadas y justificar despidos masivos bajo la bandera de la automatización.

Los medios de comunicación alimentan esta narrativa. Titulares como “Una IA descubre una ley de la física” o “GPT supera a humanos en lógica” se comparten sin contexto, sin explicar que esas tareas están acotadas, prediseñadas o incluso directamente manipuladas para mostrar resultados impactantes.

“Los modelos actuales solo hacen bien aquello que ya está incluido en su base de entrenamiento. No generalizan. No crean. No razonan. Regurgitan.”


🧠 GPT, DALL·E, Midjourney… ¿comprenden lo que hacen?

No. Ni siquiera un poco. El hecho de que ChatGPT mantenga conversaciones coherentes o que DALL·E genere imágenes impresionantes no significa que comprendan nada. Es el resultado de calcular estadísticas sobre millones de ejemplos, sin conciencia del significado detrás de las palabras o los píxeles.

Ramón lo resume así: “Confundimos apariencia con esencia”. Si un modelo escribe un poema, no significa que sienta lo que escribe. Si traduce un texto, no quiere decir que haya entendido los idiomas.

Además, todos los prompts con los que hoy interactuamos ya están, de un modo u otro, en su conjunto de entrenamiento. No improvisan: repiten. Lo hacen muy bien, eso sí. Pero eso no los hace inteligentes.


⚠️ El verdadero peligro de la IA: nosotros

¿Entonces no hay que preocuparse? Sí, pero no por lo que la IA pueda hacer por sí sola, sino por cómo los humanos la usamos, confiamos en ella y permitimos que se infiltre en decisiones importantes sin comprender sus limitaciones.

Entre los riesgos más graves que menciona López de Mántaras están:

  • Automatización acrítica: Usar sistemas que no entienden lo que hacen en contextos delicados como sanidad, justicia, educación o política.
  • Sesgos invisibles: Modelos entrenados con datos históricos cargados de racismo, machismo, elitismo, etc., que perpetúan y amplifican discriminaciones.
  • Opacidad técnica: Ni siquiera sus creadores entienden por qué toman ciertas decisiones. ¿Cómo las vamos a auditar?
  • Desinformación masiva: Una IA puede generar textos falsos, vídeos deepfake o manipulaciones con un realismo que pone en jaque la noción misma de “verdad”.
  • Pérdida de control social: Si confiamos en algoritmos para decidir qué ver, qué comprar, con quién hablar o a quién votar, dejamos de ser ciudadanos para convertirnos en autómatas predecibles.

“El problema no es que la IA se vuelva consciente. Es que la tratamos como si ya lo fuera.”


🛠 ¿Qué IA queremos construir entonces?

Ramón propone un enfoque diferente: una IA útil, ética y colaborativa. Es decir, sistemas que ayuden a mejorar tareas concretas (diagnóstico médico, traducción, logística, etc.) pero sin pretensiones grandilocuentes.

Reclama transparenciarigurosidad científica y menos marketing. Que la IA esté al servicio de la sociedad, y no del capital. Que respete derechos humanos, y no los pise en nombre de la eficiencia. Y, sobre todo, que no sustituya el juicio humano en contextos donde la comprensión, la empatía o la ética son insustituibles.


📉 El peligro de una fe ciega en la tecnología

Una de las reflexiones más potentes del vídeo es que la IA, tal y como se presenta, se convierte casi en una nueva religión tecnológica. Se le atribuyen poderes, se le otorgan voluntades, se proyectan sobre ella miedos y esperanzas.

Y eso es peligroso. Porque cuando delegamos en ella decisiones críticas —como ya se hace en justicia predictiva en EE.UU., o en recursos humanos en grandes multinacionales— estamos deshumanizando los procesos.

“El futuro no lo decidirá una máquina. Lo decidiremos nosotros. Si sabemos usarla bien.”


🧩 Desmontar el mito para avanzar mejor

La gran mentira de la inteligencia artificial no es que no funcione. Es que nos han vendido que piensa, siente y decide como nosotros, cuando en realidad es una herramienta estadística muy sofisticada.

López de Mántaras nos invita a recuperar el sentido crítico, a desmontar el mito para poder construir una IA verdaderamente útil, democrática y ética. Una IA que complemente, no sustituya. Que colabore, no domine. Que funcione como un espejo de nuestras capacidades, no como su reemplazo.

Porque si seguimos creyendo que estas máquinas son más listas de lo que son, el problema no será que tomen el control, sino que se lo entreguemos voluntariamente.


Marketing Audiovisual, blog de videomarketing, marketing digital e inteligencia artificial:

En la era digital, entender realmente lo que hay detrás del concepto de inteligencia artificial se ha vuelto crucial para profesionales del marketing, creadores de contenido y empresas. No basta con seguir la tendencia: hay que saber cuándo una tecnología es útil y cuándo se ha mitificado.

En Marketing Audiovisual, apostamos por una visión crítica y formativa del uso de la IA, con artículos que te ayuden a tomar decisiones más informadas y estrategias más éticas. Te invitamos a reflexionar sobre este tema y a compartir tu experiencia con herramientas basadas en IA. ¿Te has sentido alguna vez engañado por lo que prometía una IA? ¿Has implementado soluciones realmente útiles? Cuéntanoslo en los comentarios.

Para seguir aprendiendo sobre IA, videomarketing y marketing digital, no dejes de visitar nuestro blog. Un ejemplo de lectura imprescindible es: Cómo aplicar IA de forma ética en campañas digitales.

Porque juntos, podemos construir un marketing más humano, más responsable… y más inteligente.

Recuerda nuestro lema: «Siempre tienes algo que aportar».
¡Hasta pronto! 💡

Por último, echa un vistazo a nuestro anterior post y ya sí, os dejamos el vídeo de la entrevista al completo: