# La creación de una IA AGI aún está lejos 12 de febrero de 2026 — Alessandro Caprai --- En los últimos meses, el debate sobre la Inteligencia Artificial General (AGI) ha alcanzado tonos casi mesiánicos. Entre proclamas de CEOs visionarios y titulares sensacionalistas, parece que la singularidad tecnológica está a la vuelta de la esquina, lista para materializarse de un momento a otro. Sin embargo, quienes como yo trabajamos cotidianamente en el campo de la inteligencia artificial, sabemos bien que la realidad es muy diferente de las narrativas que dominan el discurso público. La AGI, esa forma de inteligencia artificial capaz de comprender, aprender y aplicar conocimientos en cualquier dominio con la misma versatilidad de la inteligencia humana, permanece como un horizonte lejano. No por falta de ambición o de inversiones, desde luego, sino por razones profundamente arraigadas en los límites estructurales y técnicos de las arquitecturas que hoy definimos, quizás demasiado generosamente, como "inteligentes". ## El espejismo de la singularidad Hablar de singularidad tecnológica se ha convertido casi en un rito en Silicon Valley. La idea de que la inteligencia artificial pueda alcanzar y superar la humana, desencadenando un ciclo de automejora exponencial, fascina a inversores y tecnólogos. Pero esta narrativa, por más sugestiva que sea, ignora una verdad fundamental: nuestras IA actuales no son inteligentes en el sentido que comúnmente atribuimos a este término. Los Grandes Modelos de Lenguaje, por más impresionantes que sean en sus capacidades lingüísticas, permanecen como sistemas de predicción estadística extraordinariamente sofisticados. No comprenden el mundo, no poseen intencionalidad, no construyen modelos mentales de la realidad. Procesan patrones en los datos con una eficiencia que puede parecer mágica, pero permanecen fundamentalmente anclados a su naturaleza probabilística. ## Los límites estructurales que ignoramos Cuando hablamos de los límites de las IA actuales, no nos referimos simplemente a cuestiones de potencia computacional o tamaño de los datasets. El problema es más profundo y concierne a la arquitectura misma de estos sistemas. Las redes neuronales transforman, operan transformaciones matemáticas sobre vectores de números. No razonan en el sentido causal del término, no construyen representaciones abstractas del mundo, no poseen lo que podríamos llamar "comprensión situada". Cuando ChatGPT responde a una pregunta sobre física, no está aplicando una comprensión de los principios físicos, está navegando un espacio probabilístico de secuencias de tokens que estadísticamente se asocian con respuestas correctas. Esta distinción no es pedantería académica. Es el corazón del problema. La inteligencia humana emerge de una compleja interacción entre cognición encarnada, experiencia sensorial, memoria episódica, capacidad de abstracción simbólica y razonamiento causal. Nuestras IA, por más sofisticadas que sean, carecen de casi todos estos elementos. ## La cuestión de la generalización Uno de los argumentos más utilizados por los defensores de la inminente AGI es la creciente capacidad de generalización de los modelos. Es cierto, los sistemas modernos muestran sorprendentes capacidades de transfer learning, de aplicar conocimientos aprendidos en un dominio a situaciones aparentemente diferentes. Pero esta generalización permanece superficial, ligada a la similitud estadística de los patrones más que a una verdadera comprensión de los principios subyacentes. Un niño de tres años puede comprender el concepto de causalidad, construir teorías intuitivas sobre la física del mundo, aprender las bases del lenguaje con una fracción de los datos necesarios para un LLM. Esta eficiencia no es solo una cuestión de mejores algoritmos, es el resultado de una arquitectura cognitiva radicalmente diferente, forjada por millones de años de evolución. ## La brecha entre percepción y realidad Lo que hace particularmente problemático el debate actual sobre la AGI es la brecha entre la percepción pública de las capacidades de la IA y su real naturaleza. Cuando un sistema como GPT-4 produce textos que parecen pensados, es fácil caer en el antropomorfismo, atribuir intencionalidad y comprensión donde existe solo correlación estadística. Esta confusión no es inocua. Alimenta expectativas irrealistas, distorsiona las prioridades de investigación, desvía recursos y atención de problemas más inmediatos y solucionables. Peor aún, crea un sentido de inevitabilidad que paraliza el debate sobre las implicaciones éticas y sociales de la IA, como si fuéramos pasajeros inermes en un tren en marcha hacia la singularidad. ## Los verdaderos progresos y las falsas promesas No me malinterpreten: los progresos en inteligencia artificial de los últimos años han sido extraordinarios. Hemos creado sistemas capaces de tareas que hasta hace poco parecían exclusivo patrimonio de la inteligencia humana. La traducción automática, el reconocimiento de imágenes, la generación de textos coherentes, todo esto representa un salto cualitativo innegable. Pero estos progresos, por más impresionantes que sean, son incrementales respecto al objetivo de la AGI. No estamos simplemente escalando una montaña con pasos cada vez más veloces, estamos escalando una montaña mientras la verdadera cumbre, la AGI, se encuentra en otra cadena montañosa, alcanzable solo a través de senderos que aún no conocemos. Las arquitecturas actuales, basadas en deep learning y transformadores, han mostrado su potencia pero también sus límites intrínsecos. El aprendizaje requiere cantidades enormes de datos, la comprensión causal es limitada, la robustez ante escenarios no vistos en los datos de entrenamiento permanece problemática. Estos no son bugs a corregir con la próxima versión, son características estructurales de nuestras implementaciones actuales. ## La necesidad de honestidad intelectual Como profesional del sector, siento la responsabilidad de aportar al debate público una dosis de honestidad intelectual que con demasiada frecuencia falta. El hype sobre la AGI inminente sirve a los intereses de quienes buscan financiamiento o titulares sensacionalistas, pero no sirve a la comprensión pública ni al progreso científico. Debemos ser claros: no sabemos cómo construir una AGI. No es cuestión de más GPUs, más datos, más parámetros. Faltan intuiciones fundamentales sobre cómo replicar aspectos esenciales de la inteligencia: el razonamiento causal, la comprensión situada, el aprendizaje eficiente, la generalización robusta, por no hablar de dimensiones como la conciencia o la intencionalidad. Esto no significa que la AGI sea imposible, significa que es prematura cualquier predicción sobre cuándo y cómo la alcanzaremos. Podría requerir descubrimientos fundamentales en neurociencias, nuevos paradigmas computacionales, arquitecturas que hoy no podemos ni siquiera imaginar. ## Dónde deberíamos concentrar la atención Mientras la quimera de la AGI captura la imaginación, corremos el riesgo de descuidar desafíos más inmediatos y concretos. La IA de hoy, por más lejos que esté de ser general, ya tiene un impacto profundo en la sociedad. Plantea cuestiones urgentes de sesgo algorítmico, privacidad, concentración de poder, impacto en el trabajo, desinformación. Estas no son preocupaciones para un futuro hipotético, son problemas del presente que requieren atención, regulación, investigación. Concentrarse obsesivamente en la singularidad corre el riesgo de hacernos perder de vista los desafíos concretos que la IA ya plantea. Además, hay una enorme cantidad de trabajo por hacer para volver los sistemas actuales más robustos, interpretables, confiables, equitativos. Son desafíos técnicos y éticos que merecen nuestras mejores energías, aunque sean menos glamorosos que la promesa de una inteligencia sobrehumana. ## Una perspectiva más equilibrada Lo que se necesita, hoy más que nunca, es una perspectiva equilibrada sobre la inteligencia artificial. Ni catastrofismo ni tecno-optimismo acrítico, sino una evaluación sobria de qué pueden y no pueden hacer estos sistemas, de sus beneficios y sus riesgos. La inteligencia artificial es una herramienta poderosa, quizás la más poderosa que nuestra especie haya creado jamás. Pero permanece como una herramienta, creada por humanos, para propósitos humanos, con límites humanos incorporados en su diseño. Reconocer estos límites no es pesimismo, es realismo. El camino hacia la AGI, si alguna vez lo recorremos, será largo y lleno de sorpresas. Requerirá breakthroughs que hoy no podemos prever, superación de obstáculos que quizás ni siquiera hemos identificado. Mientras tanto, tenemos una IA poderosa pero limitada, capaz de transformar industrias y sociedades, pero lejos de ser esa forma de inteligencia general que puebla nuestros imaginarios. ## Conclusión: la virtud de la paciencia En una época dominada por la velocidad y el hype, la paciencia se ha convertido en una virtud rara. Sin embargo, ante el desafío de la AGI, la paciencia es exactamente lo que se necesita. No la paciencia pasiva de la espera, sino aquella activa de la investigación rigurosa, de la experimentación metódica, del progreso incremental. La singularidad tecnológica podrá llegar algún día, o quizás no. Pero ciertamente no llegará simplemente escalando los enfoques actuales. Requerirá algo fundamentalmente diferente, una revolución no solo cuantitativa sino cualitativa en nuestra manera de concebir y construir sistemas inteligentes. Hasta entonces, tenemos el deber, como investigadores y profesionales del sector, de comunicar con honestidad tanto las posibilidades como los límites de esta tecnología. De resistir la tentación del hype, de anclar las expectativas a la realidad técnica, de concentrarnos en los problemas solucionables en lugar de perseguir quimeras futuribles. La inteligencia artificial ya es suficientemente extraordinaria sin necesidad de envolverla en promesas mesiánicas. Celebrémosla por lo que es, trabajemos para mejorarla, regulémosla para proteger los valores humanos. Y reconozcamos, con la humildad que la ciencia requiere, que el sendero hacia la AGI aún está por trazarse.