
ARTDEPARTMENT

Cada mes de junio, los focos de la industria tecnológica se dirigen a Cupertino: su evento WWDC (Apple Worldwide Developers Conference) no sólo define tendencias de hardware y software, sino que acostumbra a marca una pauta cultural y económica en la industria tecnológica. Este año, sin confiscación, Apple ha hecho poco poco habitual en la misma antesala del esperado evento: transmitir un documento de investigación.
Un 'paper' que por otra parte, acullá de celebrar avances en inteligencia químico, pretende desmontar el optimismo que rodea a los modelos actuales de IA generativa y de razonamiento.
El artículo, titulado "The Illusion of Thinking", ofrece una revisión crítica de los denominados Large Reasoning Models (LRMs), una nueva categoría de modelos de idioma diseñados para fingir procesos de razonamiento humano. Su conclusión es tajante: incluso los modelos más avanzados colapsan cuando se enfrentan a problemas complejos, poniendo en prevención la idea de que estemos cerca de una auténtica revolución cognitiva químico que nos sitúe a las puertas de la AGI.
En contraste con la visión crítica de Apple, empresas como OpenAI y Anthropic han hecho declaraciones audaces en los últimos meses. Sam Altman afirmaba el pasado mes de septiembre que la AGI llegará "en unos pocos miles de días". Dario Amodei, CEO de Anthropic, fue más lejos: predijo la arribada de una AGI con capacidades superiores a las humanas entre 2026 y 2027.
Sin confiscación, el trabajo de Apple ofrece una postura contrapuesta, en ocupación de acercarnos a la AGI, llevamos tiempo afinando modelos que son cada vez más persuasivos, pero no más inteligentes.
Cómo DESINSTALAR APPS al completo en un Mac GRATIS Los Tutoriales de Applesfera
En los últimos dos abriles, hemos presenciado una carrera acelerada con destino a la inteligencia químico común (AGI), esa hipotética forma de IA capaz de realizar cualquier tarea intelectual humana. Como parte de esa proceso, las grandes tecnológicas han presentado modelos mejorados que no sólo generan texto, sino que intentan 'pensar' ayer de contestar.
Esto ha poliedro ocupación al auge de los Large Reasoning Models, como Claude 3.7 Sonnet Thinking de Anthropic, o los modelos de la serie 'o-' de OpenAI, entrenados para desarrollar 'cadenas de pensamiento' ayer de emitir una respuesta.
Estos modelos simulan un proceso juicioso: generan pasos intermedios, evalúan sus propias ideas, descartan caminos erróneos y, en teoría, convergen con destino a una opción más robusta. Sin confiscación, Apple se ha encargado de desinflar este punto de tino.
El estudio fue desarrollado por investigadores de Apple, incluyendo a Samy Bengio, Parshin Shojaee e Iman Mirzadeh, y se zócalo en una metodología rigurosa: en ocupación de utilizar benchmarks tradicionales como problemas matemáticos contaminados por datos de entrenamiento, el equipo diseñó entornos de rompecabezas controlados, donde es posible aumentar sistemáticamente la complejidad sin cambiar la dialéctica interna del problema.
Los resultados son reveladores:
Este colapso, incluso cuando se les proporcionan algoritmos explícitos para seguir paso a paso, indica que estos modelos no razonan de forma genuina: replican patrones aprendidos pero no comprenden ni internalizan dialéctica ni causalidad.
"En la sección 4.4 del 'paper', tenemos un test donde le damos el operación de opción al maniquí, y todo lo que tiene que hacer es seguir los pasos. Sin confiscación, esto no está ayudando en rotundo a su rendimiento".
La publicación del estudio no ha sido admisiblemente recibida por todos. Stephen E. Arnold, corrido analista tecnológico y financiero, sugiere que Apple utiliza este trabajo como coartada para alegar su posición rezagada en el campo de la IA (y, previsiblemente, su partida de novedades en este campo en el propio WWDC). En su análisis, señala que mientras otras empresas ya ofrecen asistentes con razonamiento progresista, Apple aún capea con una Siri que no ha mejorado sustancialmente desde hace abriles.
Arnold ve en este estudio un intento de encubrir una reorganización interna de su equipo de IA y el fracaso de lanzamientos previamente anunciados como 'Apple Intelligence'. Desde su puntos de tino, presentar 'gráficos en tonos pastel' y diagnósticos técnicos no es una forma válida de contrarrestar el hecho de que los usuarios aún no tienen acercamiento actual a innovaciones palpables desde el ecosistema Apple.
Una de las críticas más virales provino del analista Pierre Ferragu, de New Street Research, para quien el documento de Apple está atiborrado de "disparates ontológicos", ya que intenta cuantificar el razonamiento humano —un engendro inherentemente subjetivo— con métricas objetivas.
Para Ferragu, mientras el mundo se mueve con destino a sistemas de IA con capacidades cognitivas emergentes, Apple corre el aventura de quedarse a espaldas por adoptar una visión excesivamente escéptica. Incluso cuestionó la validez del concepto de 'colapso de precisión', insinuando que los desafíos planteados por Apple no reflejan aplicaciones reales, donde los modelos de idioma han demostrado una utilidad creciente.
El normativo y divulgador Gary Marcus, obligado por su postura crítica con destino a los límites del enseñanza profundo, sí ha dado la bienvenida al trabajo de Apple como un 'rebelión demoledor' contra las ilusiones que rodean los modelos de IA actuales. En su blog Marcus on AI, expone que estos modelos pueden fingir razonamiento, pero no son capaces de inducir ni internacionalizar fuera de su distribución de entrenamiento.
Marcus advierte que 'las cadenas de pensamiento' generadas por los LRMs no siempre corresponden con lo que los modelos verdaderamente hacen. A menudo, la respuesta final es incorrecta aunque el razonamiento parezca inductivo. Esto, para él, pone en evidencia que seguimos en una etapa donde confundimos gestación de idioma con pensamiento auténtico.
Imagen | Marcos Merino mediante IA
En Genbeta | 'Razonamiento intuitivo' para inteligencias artificiales: así promete mejorarlas Microsoft con esta técnica de entrenamiento
Compartir este artículo
Consultoria Personalizada
¡Si aun no tienes presencia en internet o
necesitas ayuda con tus proyectos, por favor, escribenos!