Cuando la inteligencia artificial responde, pero nosotros dejamos de pensar
“¿Por qué voy a buscar en diez sitios si ChatGPT me lo explica en uno solo?”
La frase parece lógica. Hasta cómoda.
Pero detrás de esa comodidad se esconde algo mucho más profundo —y más riesgoso— que una simple evolución tecnológica:
👉 una renuncia colectiva al acto de buscar, comparar, desconfiar y pensar.
Lo que está en juego no es la calidad de la respuesta.
Es la desaparición del proceso.
Del buscador al oráculo
Abril de 2025: Según SimilarWeb, ChatGPT fue el único sitio entre los 10 más visitados del mundo que creció en tráfico: +13,04 % respecto a marzo.
Google, Wikipedia, YouTube, Facebook, WhatsApp… todos en caída.
Lo que era una herramienta se está convirtiendo en fuente única de información, criterio y decisión.
Y cuando dejamos de buscar por nosotros mismos, la pregunta ya no es si la respuesta es correcta.
Es: ¿de quién es la mirada que estoy repitiendo sin saberlo?
El sesgo no se ve. Pero estructura todo.
La mayoría de los usuarios no sabe —ni pregunta— con qué datos fue entrenado el modelo que usa cada día.
Tampoco distingue entre una respuesta precisa y una respuesta bien escrita.
📊 El Foundation Model Transparency Index de Stanford (2024) muestra que:
- Solo 2 de los 10 principales modelos de IA detallan su dataset de entrenamiento.
- Ninguno revela qué visiones ideológicas o culturales predominan en su entrenamiento.
- Y sin embargo, más del 80 % de las respuestas reflejan marcos anglosajones estandarizados.
No hay mentira.
Hay una sola versión.
Y eso es más peligroso: porque no parece una imposición, parece sentido común.
Dejar de contrastar es el nuevo riesgo cognitivo
La IA responde con seguridad.
Y cuanto más convincente es el formato, menos cuestionamos el contenido.
🔍 Investigadores de Harvard (2024) alertaron que los LLMs tienden a suavizar controversias, evitar ambigüedades y ofrecer respuestas “socialmente aceptables”, no necesariamente completas.
Estamos reemplazando el pensamiento crítico por una fe nueva:
la confianza automática en el modelo que mejor redacta.
No es la IA. Somos nosotros bajando la guardia.
Lo preocupante no es que la IA avance.
Es que estamos retrocediendo en nuestra capacidad de sostener el juicio propio.
📊 En un estudio global de KPMG y la Universidad de Melbourne (2025):
- El 58 % de los trabajadores ya usa IA a diario.
- Pero solo el 47 % recibió formación formal.
- Y el 57 % admite que oculta ese uso a sus jefes.
Estamos integrando modelos…
sin integrarlos a la cultura, ni a la conciencia, ni al criterio.
Autoevaluación: ¿pensás o repetís?
Sumá un punto por cada afirmación que te represente:
- Uso IA aunque no entienda del todo cómo genera sus respuestas.
- Rara vez reviso otras fuentes después de consultarla.
- Me resulta suficiente una respuesta clara, aunque no sepa si es completa.
- No sabría detectar si una respuesta está sesgada.
- Uso IA en decisiones clave sin verificación externa.
Resultados:
- 0–1 puntos: Pensás con IA. Sos el piloto.
- 2–3 puntos: Vas en automático. Empezá a frenar.
- 4–5 puntos: Estás repitiendo respuestas sin procesarlas. Es hora de volver a pensar.
Lo que está en juego
No es solo información.
Es el hábito de buscar.
La capacidad de contrastar.
La libertad de pensar desde otra lógica.
💬 Si te incomodó este artículo, bien. A mí también.
Porque no lo escribo para criticar la IA.
Lo escribo porque veo cómo nos estamos volviendo consumidores pasivos de una verdad bien escrita.
Y si eso se normaliza, el mayor riesgo no será lo que responda la IA.
Será todo lo que dejamos de preguntarnos nosotros.
Soy Diego San Esteban, e intento despertar tus alertas
Autor de 3 newsletters en LinkedIn:
• IA en Serio | Avances, riesgos y oportunidades reales
• Banco Invisible | Estrategia e innovación bancaria
• Verdades Incómodas | Lo que nadie dice sobre ventas complejas