Iman Mirzadeh, ingeniero de Apple, sobre la IA: "No es solo que no resuelva un puzzle, es que ni sabe razonar"
El investigador apunta a todos los modelos de IA en general, sin excepción. Asegura que aún queda mucho camino por recorrer y que es un error pensar que es realmente inteligente
:format(jpg)/f.elconfidencial.com%2Foriginal%2Fb38%2F3bf%2F9ff%2Fb383bf9ff12b3f872991b0306efec04b.jpg)
- Riad Gydien, vicepresidente ejecutivo de SAS: “Las empresas todavía tienen dificultades para encontrar cómo obtener valor real de la IA generativa”
- Gregorio Gómez Pina, ingeniero oceanográfico: “En caso de tsunami en el Mediterráneo, tenemos 20 minutos para huir”
Apple ha revelado los resultados de un estudio que pone en duda la supuesta capacidad intelectual de los modelos de inteligencia artificial más avanzados. Herramientas como ChatGPT, Claude o DeepSeek se enfrentaron a problemas básicos de lógica y, sorprendentemente, fueron incapaces de resolverlos adecuadamente.
El análisis, llevado a cabo por un equipo de expertos en computación, demostró que estas IA apenas alcanzan un 80% de aciertos en tareas consideradas sencillas. En cuanto aumenta la dificultad o se introducen variables nuevas, su rendimiento cae de forma abrupta. El ingeniero Iman Mirzadeh, coautor del estudio, afirmó: "No es solo que no resuelvan un puzzle, es que ni siquiera siguen el razonamiento correcto".
Apple study reveals major flaws in billion-dollar AI models#AppleAI #AIResearch #MachineLearning #ArtificialIntelligence #AIReasoning #PatternRecognition #TechInsights #AIFlaws #InnovationInAI #FutureOfAIhttps://t.co/l0UJL944rP
— Eastern Eye (@EasternEye) June 10, 2025
Este tipo de declaraciones subrayan una realidad incómoda: las IA actuales son hábiles reconociendo patrones, pero carecen de una estructura de pensamiento similar a la humana. Su aparente inteligencia se tambalea ante cualquier situación que se salga del entrenamiento previo.
El problema de los LLM
Uno de los experimentos más relevantes fue la Torre de Hanói, resuelta con técnicas simbólicas en 1957. A pesar de los avances tecnológicos, los modelos actuales no lograron replicar ese éxito. Este hecho desafía la idea de que aumentar el tamaño del modelo garantiza mejoras en el razonamiento.
Según los investigadores, muchos de estos sistemas siguen un enfoque superficial y rígido. Si se altera mínimamente el contexto del problema, su respuesta pierde coherencia. Este comportamiento reafirma la advertencia de expertos como Subbarao Kambhampati, que alertan sobre la tendencia a humanizar herramientas que no piensan como nosotros.
:format(jpg)/f.elconfidencial.com%2Foriginal%2F8ce%2F552%2F460%2F8ce552460a8d8443b1a16eed2f9af76d.jpg)
El estudio no solo pone en entredicho a las propias herramientas, sino también a quienes las utilizan de forma sistemática. De hecho, llega a afirmar que su uso excesivo puede mermar la capacidad de pensamiento crítico y la autonomía intelectual del usuario.
Esta dependencia, cada vez más común, puede tener consecuencias negativas a medio y largo plazo. Dejar que una máquina tome decisiones o resuelva problemas de manera continua limita el desarrollo de habilidades cognitivas humanas esenciales. El reto ahora es reconocer sus límites y redefinir su papel en el día a día.
- Riad Gydien, vicepresidente ejecutivo de SAS: “Las empresas todavía tienen dificultades para encontrar cómo obtener valor real de la IA generativa”
- Gregorio Gómez Pina, ingeniero oceanográfico: “En caso de tsunami en el Mediterráneo, tenemos 20 minutos para huir”
Apple ha revelado los resultados de un estudio que pone en duda la supuesta capacidad intelectual de los modelos de inteligencia artificial más avanzados. Herramientas como ChatGPT, Claude o DeepSeek se enfrentaron a problemas básicos de lógica y, sorprendentemente, fueron incapaces de resolverlos adecuadamente.