"The Illusion of Thinking"
Los límites de la IA según Apple: Cuando la simulación se hace pasar por pensamiento
Vale mucho la pena leer el nuevo estudio del equipo de Machine Learning de Apple, titulado precisamente “The Illusion of Thinking”. El título ya lo dice todo.
Llevamos años asombrándonos con modelos capaces de escribir poemas, resumir documentos complejos o generar imágenes hiperrealistas, y casi sin darnos cuenta les atribuimos algo muy cercano al pensamiento. El artículo de Apple, sin embargo, nos ayuda a no caer en el error: los grandes modelos de IA no piensan; “sólo” calculan la respuesta estadísticamente más probable.
Para demostrarlo, los investigadores sometieron a varios modelos a puzzles clásicos (las torres de Hanoi, el problema de cruzar el río, un mundo de bloques, etc.) cuya dificultad puede graduarse paso a paso.

El patrón se repite: en tareas simples los modelos se defienden, ante complejidades medias los “modelos razonando” ganan algo de terreno, y en cuanto el problema exige muchos pasos lógicos todos se hunden. Peor aún, cuanto más difícil es el reto, más corta se vuelve su supuesta “cadena de pensamiento”; es como si abandonaran antes de terminar la frase. El famoso mantra de que escalar lo arregla todo queda entredicho.

La conclusión no es sólo técnica. Al “antropomorfizar” la IA reducimos nuestra vigilancia crítica: hay el peligro de confiar en diagnósticos médicos porque “lo dijo el algoritmo”, de aceptar despidos automáticos o sentencias judiciales sin la revisión que exigiríamos a un humano. Los investigadores de Apple lo formulan con crudeza: confundir correlación y causalidad es el caballo de Troya que abre la puerta a la dependencia acrítica.
Que esta advertencia venga de Apple hace el mensaje aún más potente. Nadie puede acusarles de “ludismo”: diseñan los chips y frameworks que alimentan buena parte de la IA actual. Su postura envía tres señales claras: el hype es un riesgo reputacional real, los creadores reconocen los límites de su propia criatura y el debate sobre la “verdadera” inteligencia artificial apenas ha empezado.
El estudio no clausura la búsqueda de la AGI, ni tampoco pone en duda la tremenda potencia de la IA actual; simplemente redefine el mapa. Señala caminos prometedores (arquitecturas híbridas, verificadores de razonamiento, ecosistemas de agentes cooperantes) y, sobre todo, nos sugiere ser un poco más humildes en la valoración de lo que la IA puede hacer. Un LLM es, por ahora, un Large Pattern Fitter: útil, asombroso, pero no consciente.
Así que la próxima vez que un chatbot te deslumbre, detente un segundo. Detrás del “wow” hay correlaciones matemáticas, no causalidad consciente.
Cualquiera que sepa un poco sobre el funcionamiento de los modelos de lenguaje sabe todo esto que Apple, según muchos gurús, “ha descubierto”. Sin duda, la IA generativa es una potente herramienta que, además, es una excelente máquina de simulación.
De todos modos, a Apple le interesa mucho que todo esto se popularice porque va claramente atrasada en este campo. Es una forma de contrarrestar el marketing de otros.
Si esta empresa, aficionada al marketing más grandilocuente, tuviera una herramienta como ChatGPT, ¿no estarían hablando de modelos que razones o que piensan? Seguro que sí.
En cualquier caso, gracias por explicarlo tan claro Pep. Con tu permiso, te cuelo un post que hace poco publiqué sobre este tema.
https://www.edgarotero.es/p/como-funciona-chatgpt-ia