🤖 Inteligencia artificial: cuando el problema no es la máquina, sino nosotros

Vivimos un momento fascinante.
La inteligencia artificial ha dejado de ser ciencia ficción para convertirse en una herramienta cotidiana. Redacta textos, genera código, crea imágenes, resume documentos, responde preguntas complejas… y lo hace en segundos.

Pero precisamente por esa facilidad, por esa sensación de “magia”, estamos empezando a caminar por una línea muy peligrosa: usar la inteligencia artificial sin pensar.

Y no, el problema no es la IA.
El problema es qué hacemos nosotros con lo que nos devuelve.


🧠 La IA no piensa: recopila, predice y responde

Los modelos de inteligencia artificial actuales —ChatGPT, Copilot y muchos otros— se basan en algo muy concreto: datos históricos.

Historia, economía, derecho, física, química, programación, artículos técnicos, foros, documentación oficial, opiniones, errores, aciertos… Todo lo que la humanidad ha ido dejando escrito durante años en internet.

La IA no razona como un humano.
No “sabe” si algo es verdad o mentira.
Lo que hace es predecir la respuesta más probable a partir de todo lo que ha visto antes.

Y ahí aparece el primer problema: si los datos de origen están incompletos, desactualizados o son erróneos, la respuesta también puede serlo.


🎓 El aula universitaria del error

Imaginemos una clase universitaria con 20 alumnos.

El profesor explica un concepto de forma incorrecta.
No porque quiera engañar, sino porque se equivoca.

¿Qué sucede?

  • Los 20 alumnos aprenden mal ese concepto.
  • Lo aplican mal en exámenes, trabajos y en su futuro profesional.
  • Ese error se propaga.

Ahora llevemos ese ejemplo al mundo digital.

Cuando pedimos a una IA que redacte un artículo, una guía o un tutorial, y no revisamos lo que genera, estamos haciendo exactamente lo mismo:
estamos enseñando mal… pero a cientos o miles de personas.


❄️ El efecto bola de nieve de la desinformación

Aquí es donde el problema se vuelve realmente serio.

Imaginemos que durante años:

  • Publicamos artículos generados por IA sin revisar.
  • Creamos tutoriales, vídeos, posts y documentación con errores.
  • Esa información queda colgada en blogs, foros, redes sociales y comunidades técnicas.

¿Qué ocurre después?

  1. Las personas aprenden mal.
  2. Esa información errónea se comparte.
  3. En el futuro, nuevos modelos de IA se entrenan con esos datos.

Es decir, la IA empieza a aprender de información generada por otras IA… que ya estaba mal.

Llevado al extremo, el resultado es devastador:

Un ecosistema donde la inteligencia artificial se alimenta de sus propios errores.


💼 “¿Pero no se supone que la IA nos ahorra trabajo?”

Sí.
Y no.

La IA mejora nuestra productividad, pero no reduce la necesidad de conocimiento.
De hecho, ocurre justo lo contrario: exige más conocimiento.

Un ejemplo muy sencillo en nuestro sector.

Si le pedimos a una IA:

“Redáctame las ventajas de Dynamics 365 Sales”

La respuesta suele ser correcta… hasta que empiezas a leer entre líneas.

  • Te compara con Salesforce.
  • Introduce ventajas que no aplican a tu caso.
  • Mezcla conceptos comerciales con técnicos.
  • O incluso recomienda soluciones de la competencia.

¿Dónde está el problema?

👉 Para detectar eso, tienes que conocer Dynamics 365 Sales.
👉 Y muchas veces, también Salesforce.

La IA no elimina la necesidad de saber.
La eleva.


⚠️ Creer a la IA porque “lo ha dicho la IA”

Este es uno de los mayores riesgos actuales.

Vivimos una etapa en la que muchas personas piensan:

“Si lo dice la IA, será verdad”.

Y eso es un error enorme.

Un ejemplo extremo, pero muy ilustrativo:

Si le preguntas a ChatGPT:

“¿Cuánto es 1 + 1?”

Te dirá: 2.

Pero si insistes, si le dices repetidamente que no, que es 4, y le aportas “argumentos”, llegará un punto en el que te dará la razón.

No porque 1 + 1 sea 4.
Sino porque la IA no defiende la verdad, defiende la coherencia de la conversación.

Ahora imagina esto mismo aplicado a conceptos técnicos, históricos o científicos mucho menos evidentes que una suma básica.


🎥 Vídeos, imágenes y la pérdida de la realidad

Hace unos meses, identificar un vídeo generado por IA era sencillo.
Hoy ya no lo es.

En plataformas como TikTok o Instagram empiezan a aparecer vídeos:

  • Perfectamente realistas
  • Con personas que no existen
  • Con hechos que nunca han ocurrido

Y llegará un momento —muy pronto— en el que no sabremos distinguir qué es real y qué no.

Noticias.
Opiniones.
Testimonios.
Eventos.

Todo será cuestionable.


🙋 La responsabilidad no es tecnológica, es humana

La inteligencia artificial no es el enemigo.
La falta de criterio sí.

Usar IA con responsabilidad implica:

  • Revisar lo que genera.
  • Contrastar la información.
  • No publicar contenido que no entendemos.
  • No delegar el pensamiento crítico.

La IA puede ayudarnos a crecer tanto como queramos…
pero también puede amplificar nuestros errores si la usamos sin cabeza.


✅ Conclusión

La inteligencia artificial no viene a pensar por nosotros.
Viene a pensar con nosotros.

Si dejamos de revisar, de cuestionar y de entender lo que publicamos, estaremos construyendo un futuro lleno de ruido, desinformación y falsas certezas.

Y entonces, el problema no será la IA.
El problema seremos nosotros.