He pasado los últimos años tratando de entender el ruido alrededor de la Inteligencia Artificial, y si hay un sentimiento que define la experiencia, es el de un latigazo. Una semana, leo un artículo que promete que la IA curará enfermedades y desbloqueará una abundancia inimaginable; la siguiente, veo titulares sobre el colapso civilizatorio. Este ciclo vertiginoso de primaveras de IA, períodos de inversión masiva y bombo, seguidos por la escalofriante duda de los inviernos de IA, no es nuevo. Ha sido el motor del campo durante décadas.
Después de años de esto, he tenido que desarrollar mi propio marco solo para mantenerme en tierra. No se trata de ser optimista o pesimista; se trata de rechazar ambos extremos. Para mí, es un compromiso con una reevaluación incansable de la tecnología que tenemos delante; de usar la razón y la evidencia para encontrar un camino a seguir, porque creo que tenemos tanto el poder como la responsabilidad de dar forma al futuro de esta tecnología. Eso comienza con un diagnóstico claro del presente.
Una de las herramientas de diagnóstico más útiles que he encontrado para esto proviene de la científica informática Melanie Mitchell. En un artículo seminal de 2021, identificó lo que ella afirma son cuatro falacias fundamentales, cuatro suposiciones profundamente arraigadas que explican en gran medida nuestra confusión colectiva sobre la IA, y lo que puede y no puede hacer.
Mi objetivo en este artículo no es convencerte de que Mitchell tiene 100% razón. Tampoco creo que lo tenga, y proporcionaré mis propias críticas y contraargumentos a algunos puntos. Lo que quiero es usar sus ideas como una lente para diseccionar el bombo, explorar los contraargumentos y mostrar por qué este tira y afloja intelectual tiene consecuencias en el mundo real para nuestra sociedad, nuestra economía y nuestra seguridad.
Deconstruyendo las Cuatro Falacias
Para mí, la prueba más importante de cualquier idea es su validación empírica. Ningún plan, por brillante que sea, sobrevive a su primer encuentro con la realidad. Encuentro que las cuatro falacias de Mitchell son la herramienta perfecta para esto. Nos permiten tomar las grandes y amplias afirmaciones hechas sobre la IA y probarlas rigurosamente contra la realidad desordenada y complicada de lo que estos sistemas realmente pueden hacer.
Falacia 1: La Ilusión de un Continuo Suave
La falacia más común y seductora es la suposición de que cada hazaña impresionante de la IA estrecha es un paso incremental en un camino suave hacia la Inteligencia Artificial General (IAG) a nivel humano. Es decir, que la inteligencia es una métrica única y unidimensional en un continuo que va de lo estrecho a lo general.
Lo vemos en todas partes. Cuando Deep Blue de IBM venció a Garry Kasparov en ajedrez, fue aclamado como un primer paso hacia la IAG. La misma narrativa surgió cuando AlphaGo de DeepMind derrotó a Lee Sedol. Esta forma de pensar crea, según Mitchell, un mapa de progreso defectuoso, engañándonos para que creamos que estamos mucho más cerca de la IAG de lo que estamos. Ignora el desafío colosal y sin resolver conocido como el *problema del conocimiento de sentido común*, la vasta comprensión implícita del mundo que los humanos usan para navegar la realidad.
Como dijo el filósofo Hubert Dreyfus, esto es como afirmar que el primer mono que trepó a un árbol estaba progresando hacia el aterrizaje en la luna. Bueno, en cierto sentido, tal vez lo sea, pero entiendes el punto. No llegamos a la luna hasta que inventamos cohetes de combustión. Trepar árboles cada vez más altos no nos acerca en absoluto, es solo una distracción. En el mismo sentido, dominar un juego de sistema cerrado puede ser un desafío fundamentalmente diferente a comprender el mundo abierto y ambiguo.
Pero aquí está el matiz. Si bien vencer a Kasparov no es un paso directo para tener una conversación, los métodos desarrollados pueden ser sorprendentemente generalizables. La arquitectura que impulsó a AlphaGo fue adaptada más tarde a MuZero, un sistema que dominó Go, ajedrez y juegos de Atari sin que se le dijeran las reglas. Además, ¿podemos realmente decir que un Modelo de Lenguaje Grande es IA estrecha de la misma manera? Su capacidad para escribir código y resumir texto se siente como un salto cualitativo en la generalidad que la analogía del mono y la luna no captura del todo.
Esto nos deja con una pregunta con visión de futuro: ¿Cómo ponen a prueba los avances recientes en multimodalidad y IA agéntica los límites de esta falacia? ¿Un modelo que puede ver y actuar comienza a cerrar la brecha hacia el sentido común, o es solo una versión más sofisticada de la misma inteligencia estrecha? ¿Son los modelos del mundo un verdadero paso hacia la IAG o solo una rama más alta en un árbol de inteligencia lingüística estrecha?
Falacia 2: La Paradoja de la Dificultad
Tenemos la terrible costumbre de proyectar nuestro propio paisaje cognitivo en las máquinas, asumiendo que lo que es difícil para nosotros es difícil para ellas, y lo que es fácil para nosotros es fácil para ellas. Durante décadas, ha sido al revés.
Esta es la Paradoja de Moravec, nombrada así por el roboticista Hans Moravec, quien señaló que es más fácil hacer que una computadora exhiba un rendimiento a nivel adulto en una prueba de coeficiente intelectual que darle las habilidades sensoriales y motoras de un niño de un año.
Esto explica por qué tenemos IA que puede dominar el juego ridículamente complejo de Go, mientras que un coche totalmente autónomo permanece obstinadamente justo en el horizonte. Las cosas "fáciles" se construyen sobre lo que Mitchell llama la "complejidad invisible de lo mundano". Esta paradoja causa una descalibración crónica de nuestro progreso y prioridades, lo que nos lleva a estar demasiado impresionados por el rendimiento en dominios formales mientras subestimamos la asombrosa dificultad del mundo real.
Por supuesto, algunos argumentarán que esto no es una barrera fundamental, sino un obstáculo de ingeniería temporal. Dirían que con suficientes datos y computación, la "complejidad invisible" del mundo real se puede aprender, al igual que se aprendió la complejidad de Go.
Desde esta perspectiva, el problema no es de tipo, sino de escala. Esto nos obliga a preguntar: a medida que la tecnología de sensores y la robótica mejoran, ¿estamos finalmente empezando a superar la Paradoja de Moravec? ¿O estamos simplemente descubriendo capas aún más profundas de complejidad que nunca supimos que existían?
Falacia 3: La Seducción de los "Mnemónicos Deseables"
El lenguaje no solo describe la realidad; la crea. En IA, usamos constantemente atajos antropomórficos, diciendo que un sistema "aprende", "entiende" o tiene "metas". Mitchell argumenta que esta práctica de usar "mnemónicos deseables" es profundamente engañosa, engañando no solo al público sino a los propios investigadores.
Cuando un *benchmark* se llama "Evaluación General de Comprensión del Lenguaje" (GLUE) y un modelo supera la línea base humana, los titulares declaran que la IA ahora entiende el lenguaje mejor que los humanos. ¿Pero lo hace?
El término "loro estocástico" fue acuñado como un poderoso antídoto, redefiniendo lo que hacen los LLM como una imitación sofisticada en lugar de comprensión. Esto no es solo un juego semántico, argumenta Mitchell; crea un modelo mental defectuoso que lleva a una confianza equivocada, animándonos a implementar sistemas en situaciones de alto riesgo donde la falta de verdadera comprensión puede tener graves consecuencias.
Una crítica justa es que estos términos son un atajo cognitivo necesario. A cierto nivel de complejidad, el comportamiento emergente de un sistema se vuelve funcionalmente indistinguible de la "comprensión", y discutir si realmente comprende es una distracción filosófica incomprobable.
Pero eso todavía deja una pregunta crucial: ¿podemos desarrollar un vocabulario más preciso y menos antropomórfico para describir las capacidades de la IA? ¿O es nuestro lenguaje centrado en el ser humano la única herramienta que tenemos para razonar sobre estas nuevas formas de inteligencia, con todo el bagaje que eso implica?
Falacia 4: El Mito de la Mente Virtual
Esta es la falacia más filosófica y, en mi opinión, la más importante. Es la suposición profundamente arraigada de que la inteligencia es, como el software, una forma de procesamiento de información pura que puede separarse de su cuerpo.
Esta metáfora del "cerebro como computadora" lleva a la creencia de que la IAG es simplemente una cuestión de escalar la computación para igualar el poder de procesamiento bruto del cerebro. Es desafiada por Mitchell y muchos otros con la tesis de la cognición encarnada, una visión de la ciencia cognitiva que sostiene que la inteligencia está inextricablemente ligada a tener un cuerpo que interactúa con el mundo. Si esto es correcto, entonces nuestro enfoque actual podría estar creando sistemas cada vez más sofisticados que son fundamentalmente frágiles porque carecen de una comprensión fundamentada.
Aquí es donde llegamos a la gran línea de batalla intelectual en la IA moderna. El principal contraargumento se puede enmarcar en términos del famoso ensayo de Rich Sutton, "La Lección Amarga", que argumenta que toda la historia de la IA nos ha enseñado que los intentos de construir estructuras cognitivas similares a las humanas (como la encarnación) siempre son superados por métodos generales que simplemente aprovechan la computación a gran escala.
Desde este punto de vista, la encarnación no es un requisito previo mágico para la inteligencia; es solo otro problema endiabladamente complejo que cederá a más datos y poder de procesamiento.
Esta tensión plantea una pregunta crítica para el futuro: ¿los modelos multimodales que pueden procesar imágenes y texto representan un paso significativo hacia la resolución del problema de la encarnación? ¿O son solo una versión más sofisticada de la misma mente desencarnada, un cerebro en una cuba digital ligeramente más grande?
¿Qué es la Inteligencia, Realmente?
A medida que profundizamos en estas falacias, emerge un patrón más profundo. No son solo cuatro errores aislados; son síntomas de un cisma fundamental en cómo el mundo de la IA piensa sobre la inteligencia misma. De nuevo, mi objetivo no es tomar partido, sino evitar caer en heurísticas baratas o banderas ideológicas, y en su lugar evaluar cuál de estos paradigmas nos da un mapa más útil de la realidad.
Por un lado, tienes lo que llamaré el Paradigma Cognitivo, defendido por pensadores como Mitchell y su mentor, el superestrella investigador y filósofo de IA Douglas Hofstadter. Esta visión ve la inteligencia como un fenómeno complejo, integrado y encarnado. Asume que las cosas que asociamos con la inteligencia humana —el sentido común, las emociones, los valores, un sentido de sí mismo— son probablemente componentes inseparables del todo, que emergen de una rica interacción con un mundo físico y social.
Desde esta perspectiva, el camino hacia la IAG requiere una comprensión científica profunda de estos componentes integrados, no solo más poder de procesamiento.
Por otro lado está el Paradigma Computacionalista, que es la filosofía implícita detrás de muchos de los laboratorios y empresas líderes de hoy, y mejor capturada por La Lección Amarga. Este postula que los mayores avances siempre han venido de métodos generales que aprovechan la computación a gran escala, en otras palabras, de escalar las cosas.
En este paradigma, la inteligencia es una cualidad más abstracta e independiente del sustrato de optimización. Problemas como la encarnación no son barreras fundamentales; son solo tareas computacionales increíblemente complejas que eventualmente serán resueltas por modelos cada vez más grandes y chips cada vez más rápidos.
Por supuesto, no es una dicotomía perfecta. La mayoría de los investigadores son pragmáticos, como yo, trabajando en algún lugar en el medio. Pero estos dos paradigmas representan los polos del debate, y la tensión entre ellos define todo el campo. Da forma a qué investigación se financia, qué sistemas se construyen y, en última instancia, a qué visión del futuro estamos corriendo colectivamente.
Por Qué Importa Este Debate
Este debate no es solo un juego de salón académico. Estas falacias tienen un efecto dominó masivo en toda la sociedad porque oscurecen una regla fundamental de la tecnología y la economía: no hay almuerzo gratis, solo compensaciones.
El bombo generado por el pensamiento falaz no es solo un error inocente; es el combustible de un poderoso motor económico. La intensa competencia entre los gigantes tecnológicos, la avalancha de capital de riesgo y la carrera geopolítica de la IA dependen de una narrativa constante de avances inminentes que cambiarán el mundo. Esta economía política del bombo nos obliga a una serie de compensaciones peligrosas.
Primero, cambiamos el progreso a largo plazo por el bombo a corto plazo.
Las falacias crean un ciclo de financiación inestable, de auge y caída. Durante una primavera de IA, el capital fluye hacia proyectos que pueden producir demostraciones impresionantes, a menudo basadas en *benchmarks* estrechos. Esto priva de recursos a la investigación lenta, metódica y fundamental necesaria para resolver los problemas difíciles como el sentido común y el razonamiento. El resultado es un campo que se tambalea de una burbuja de bombo a la siguiente, dejando un rastro de proyectos abandonados y promesas incumplidas que desencadenan el inevitable invierno de la IA.
Segundo, cambiamos la confianza pública por la emoción del mercado.
El ciclo de prometer demasiado y cumplir poco es profundamente corrosivo. Cuando usamos mnemónicos deseables para describir un sistema que "entiende", y luego falla de maneras espectaculares y sin sentido en el mundo real, genera ansiedad y escepticismo públicos. Estudios recientes muestran que el público percibe a los científicos de IA de manera más negativa que a casi cualquier otro campo, específicamente debido a una percibida falta de prudencia. Esto no es un sentimiento vago; es una reacción directa a las consecuencias no deseadas de implementar sistemas frágiles y sobrevalorados.
Finalmente, y lo más crítico, cambiamos la validación responsable por la velocidad de comercialización.
Aquí es donde las consecuencias se vuelven más graves. Creer que un sistema está en un continuo con la inteligencia general, o que realmente "entiende" el lenguaje, lleva a su implementación prematura en dominios de alto riesgo.
Cuando un chatbot de salud mental, que es fundamentalmente, al menos hoy, un sofisticado emparejador de patrones, da consejos dañinos a una persona en crisis, es un resultado directo de estas falacias. Cuando dependemos demasiado de sistemas frágiles en la atención médica, las finanzas o los vehículos autónomos, estamos haciendo una apuesta peligrosa, cambiando la seguridad del mundo real por la ilusión de progreso.
Conclusión
Entonces, ¿dónde nos deja esto? El valor de las falacias de Mitchell no radica solo en detectar el bombo, sino en exponer la profunda y productiva tensión entre estas dos poderosas formas de pensar sobre la inteligencia. No podemos ignorar las falacias, pero tampoco podemos negar el increíble poder que altera el mundo del paradigma de escalado que las alimenta.
Mitchell en su artículo compara la IA moderna con la alquimia. Produce resultados deslumbrantes e impresionantes, pero a menudo carece de una teoría profunda y fundamental de la inteligencia.
Es una metáfora poderosa, pero creo que una conclusión más pragmática es ligeramente diferente. El desafío no es abandonar nuestra poderosa alquimia en busca de una ciencia pura de la inteligencia. El objetivo, al menos desde un punto de vista pragmático, debería ser infundir nuestra alquimia actual con los principios de la ciencia, para hacer que el escalado sea más inteligente, seguro y fundamentado, integrando los conocimientos obtenidos con tanto esfuerzo sobre cómo funciona realmente la inteligencia.
El camino a seguir, creo, requiere más que solo humildad intelectual. También requiere la voluntad de sintetizar estas cosmovisiones aparentemente opuestas y un compromiso con una reevaluación incansable de la tecnología que tenemos delante. La pregunta final no es si debemos elegir el camino del escalado o el camino de la ciencia cognitiva, sino cómo podemos entrelazarlos para guiar el poder bruto de nuestra alquimia moderna de IA con la profunda comprensión de una verdadera ciencia de la inteligencia.