<?xml version="1.0" encoding="UTF-8"?><rss xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:atom="http://www.w3.org/2005/Atom" version="2.0" xmlns:itunes="http://www.itunes.com/dtds/podcast-1.0.dtd" xmlns:googleplay="http://www.google.com/schemas/play-podcasts/1.0"><channel><title><![CDATA[AI Cuba]]></title><description><![CDATA[Comunidad de Inteligencia Artificial de Cuba]]></description><link>https://www.aicuba.org</link><image><url>https://substackcdn.com/image/fetch/$s_!prWS!,w_256,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F6557e140-a1f1-4e42-84b5-daffdc7777ab_1024x1024.png</url><title>AI Cuba</title><link>https://www.aicuba.org</link></image><generator>Substack</generator><lastBuildDate>Fri, 24 Apr 2026 13:09:47 GMT</lastBuildDate><atom:link href="https://www.aicuba.org/feed" rel="self" type="application/rss+xml"/><copyright><![CDATA[AI Cuba (c) UIC]]></copyright><language><![CDATA[es]]></language><webMaster><![CDATA[aicuba@substack.com]]></webMaster><itunes:owner><itunes:email><![CDATA[aicuba@substack.com]]></itunes:email><itunes:name><![CDATA[Alejandro Piad Morffis]]></itunes:name></itunes:owner><itunes:author><![CDATA[Alejandro Piad Morffis]]></itunes:author><googleplay:owner><![CDATA[aicuba@substack.com]]></googleplay:owner><googleplay:email><![CDATA[aicuba@substack.com]]></googleplay:email><googleplay:author><![CDATA[Alejandro Piad Morffis]]></googleplay:author><itunes:block><![CDATA[Yes]]></itunes:block><item><title><![CDATA[El Mito de la Inteligencia General]]></title><description><![CDATA[Por qu&#233; la IA General ser&#225; un Programador, no un Or&#225;culo]]></description><link>https://www.aicuba.org/p/el-mito-de-la-inteligencia-general</link><guid isPermaLink="false">https://www.aicuba.org/p/el-mito-de-la-inteligencia-general</guid><dc:creator><![CDATA[Alejandro Piad Morffis]]></dc:creator><pubDate>Sat, 04 Oct 2025 14:48:27 GMT</pubDate><enclosure url="https://images.unsplash.com/photo-1537655780520-1e392ead81f2?crop=entropy&amp;cs=tinysrgb&amp;fit=max&amp;fm=jpg&amp;ixid=M3wzMDAzMzh8MHwxfHNlYXJjaHw3fHxraWRzfGVufDB8fHx8MTc1OTUyNDY4Mnww&amp;ixlib=rb-4.1.0&amp;q=80&amp;w=1080" length="0" type="image/jpeg"/><content:encoded><![CDATA[<div class="captioned-image-container"><figure><a class="image-link image2 is-viewable-img" target="_blank" href="https://images.unsplash.com/photo-1537655780520-1e392ead81f2?crop=entropy&amp;cs=tinysrgb&amp;fit=max&amp;fm=jpg&amp;ixid=M3wzMDAzMzh8MHwxfHNlYXJjaHw3fHxraWRzfGVufDB8fHx8MTc1OTUyNDY4Mnww&amp;ixlib=rb-4.1.0&amp;q=80&amp;w=1080" data-component-name="Image2ToDOM"><div class="image2-inset"><picture><source type="image/webp" srcset="https://images.unsplash.com/photo-1537655780520-1e392ead81f2?crop=entropy&amp;cs=tinysrgb&amp;fit=max&amp;fm=jpg&amp;ixid=M3wzMDAzMzh8MHwxfHNlYXJjaHw3fHxraWRzfGVufDB8fHx8MTc1OTUyNDY4Mnww&amp;ixlib=rb-4.1.0&amp;q=80&amp;w=1080 424w, https://images.unsplash.com/photo-1537655780520-1e392ead81f2?crop=entropy&amp;cs=tinysrgb&amp;fit=max&amp;fm=jpg&amp;ixid=M3wzMDAzMzh8MHwxfHNlYXJjaHw3fHxraWRzfGVufDB8fHx8MTc1OTUyNDY4Mnww&amp;ixlib=rb-4.1.0&amp;q=80&amp;w=1080 848w, https://images.unsplash.com/photo-1537655780520-1e392ead81f2?crop=entropy&amp;cs=tinysrgb&amp;fit=max&amp;fm=jpg&amp;ixid=M3wzMDAzMzh8MHwxfHNlYXJjaHw3fHxraWRzfGVufDB8fHx8MTc1OTUyNDY4Mnww&amp;ixlib=rb-4.1.0&amp;q=80&amp;w=1080 1272w, https://images.unsplash.com/photo-1537655780520-1e392ead81f2?crop=entropy&amp;cs=tinysrgb&amp;fit=max&amp;fm=jpg&amp;ixid=M3wzMDAzMzh8MHwxfHNlYXJjaHw3fHxraWRzfGVufDB8fHx8MTc1OTUyNDY4Mnww&amp;ixlib=rb-4.1.0&amp;q=80&amp;w=1080 1456w" sizes="100vw"><img src="https://images.unsplash.com/photo-1537655780520-1e392ead81f2?crop=entropy&amp;cs=tinysrgb&amp;fit=max&amp;fm=jpg&amp;ixid=M3wzMDAzMzh8MHwxfHNlYXJjaHw3fHxraWRzfGVufDB8fHx8MTc1OTUyNDY4Mnww&amp;ixlib=rb-4.1.0&amp;q=80&amp;w=1080" width="5616" height="3744" data-attrs="{&quot;src&quot;:&quot;https://images.unsplash.com/photo-1537655780520-1e392ead81f2?crop=entropy&amp;cs=tinysrgb&amp;fit=max&amp;fm=jpg&amp;ixid=M3wzMDAzMzh8MHwxfHNlYXJjaHw3fHxraWRzfGVufDB8fHx8MTc1OTUyNDY4Mnww&amp;ixlib=rb-4.1.0&amp;q=80&amp;w=1080&quot;,&quot;srcNoWatermark&quot;:null,&quot;fullscreen&quot;:null,&quot;imageSize&quot;:null,&quot;height&quot;:3744,&quot;width&quot;:5616,&quot;resizeWidth&quot;:null,&quot;bytes&quot;:null,&quot;alt&quot;:&quot;two toddler playing letter cubes&quot;,&quot;title&quot;:null,&quot;type&quot;:&quot;image/jpg&quot;,&quot;href&quot;:null,&quot;belowTheFold&quot;:false,&quot;topImage&quot;:true,&quot;internalRedirect&quot;:null,&quot;isProcessing&quot;:false,&quot;align&quot;:null,&quot;offset&quot;:false}" class="sizing-normal" alt="two toddler playing letter cubes" title="two toddler playing letter cubes" srcset="https://images.unsplash.com/photo-1537655780520-1e392ead81f2?crop=entropy&amp;cs=tinysrgb&amp;fit=max&amp;fm=jpg&amp;ixid=M3wzMDAzMzh8MHwxfHNlYXJjaHw3fHxraWRzfGVufDB8fHx8MTc1OTUyNDY4Mnww&amp;ixlib=rb-4.1.0&amp;q=80&amp;w=1080 424w, https://images.unsplash.com/photo-1537655780520-1e392ead81f2?crop=entropy&amp;cs=tinysrgb&amp;fit=max&amp;fm=jpg&amp;ixid=M3wzMDAzMzh8MHwxfHNlYXJjaHw3fHxraWRzfGVufDB8fHx8MTc1OTUyNDY4Mnww&amp;ixlib=rb-4.1.0&amp;q=80&amp;w=1080 848w, https://images.unsplash.com/photo-1537655780520-1e392ead81f2?crop=entropy&amp;cs=tinysrgb&amp;fit=max&amp;fm=jpg&amp;ixid=M3wzMDAzMzh8MHwxfHNlYXJjaHw3fHxraWRzfGVufDB8fHx8MTc1OTUyNDY4Mnww&amp;ixlib=rb-4.1.0&amp;q=80&amp;w=1080 1272w, https://images.unsplash.com/photo-1537655780520-1e392ead81f2?crop=entropy&amp;cs=tinysrgb&amp;fit=max&amp;fm=jpg&amp;ixid=M3wzMDAzMzh8MHwxfHNlYXJjaHw3fHxraWRzfGVufDB8fHx8MTc1OTUyNDY4Mnww&amp;ixlib=rb-4.1.0&amp;q=80&amp;w=1080 1456w" sizes="100vw" fetchpriority="high"></picture><div class="image-link-expand"><div class="pencraft pc-display-flex pc-gap-8 pc-reset"><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container restack-image"><svg role="img" width="20" height="20" viewBox="0 0 20 20" fill="none" stroke-width="1.5" stroke="var(--color-fg-primary)" stroke-linecap="round" stroke-linejoin="round" xmlns="http://www.w3.org/2000/svg"><g><title></title><path d="M2.53001 7.81595C3.49179 4.73911 6.43281 2.5 9.91173 2.5C13.1684 2.5 15.9537 4.46214 17.0852 7.23684L17.6179 8.67647M17.6179 8.67647L18.5002 4.26471M17.6179 8.67647L13.6473 6.91176M17.4995 12.1841C16.5378 15.2609 13.5967 17.5 10.1178 17.5C6.86118 17.5 4.07589 15.5379 2.94432 12.7632L2.41165 11.3235M2.41165 11.3235L1.5293 15.7353M2.41165 11.3235L6.38224 13.0882"></path></g></svg></button><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container view-image"><svg xmlns="http://www.w3.org/2000/svg" width="20" height="20" viewBox="0 0 24 24" fill="none" stroke="currentColor" stroke-width="2" stroke-linecap="round" stroke-linejoin="round" class="lucide lucide-maximize2 lucide-maximize-2"><polyline points="15 3 21 3 21 9"></polyline><polyline points="9 21 3 21 3 15"></polyline><line x1="21" x2="14" y1="3" y2="10"></line><line x1="3" x2="10" y1="21" y2="14"></line></svg></button></div></div></div></a><figcaption class="image-caption">Photo by <a href="https://unsplash.com/@marisahowenstine">Marisa Howenstine</a> on <a href="https://unsplash.com">Unsplash</a></figcaption></figure></div><p>La idea de una "Inteligencia General" es seductora. Nos imaginamos una capacidad cognitiva &#250;nica y omnipotente, una especie de navaja suiza mental capaz de resolver cualquier problema, desde la f&#237;sica cu&#225;ntica hasta la poes&#237;a, con la misma eficacia. Esta noci&#243;n, a menudo llamada AGI (Inteligencia Artificial General), se ha convertido en el santo grial de la IA, prometiendo (o amenazando con) una superinteligencia que superar&#225; a los humanos en todos los campos.</p><p>Pero, &#191;y si toda esta premisa est&#225; fundamentalmente equivocada?</p><p>En este art&#237;culo, sostendr&#233; que esta noci&#243;n popular de "Inteligencia General" es un mito. Es un vestigio de ideas anticuadas de la psicometr&#237;a que no resiste el escrutinio te&#243;rico ni la evidencia biol&#243;gica. Argumentar&#233; que ni los humanos poseemos una inteligencia tan monol&#237;tica, ni el camino hacia una IA avanzada consiste en escalar los modelos actuales. </p><p>En su lugar, propondr&#233; una redefinici&#243;n: la verdadera inteligencia no es poseer habilidades, sino la eficiencia para adquirir nuevas habilidades. Y desde esta perspectiva, la AGI del futuro se parecer&#225; menos a una vasta enciclopedia y m&#225;s a un programador de prop&#243;sito general, un sistema capaz de sintetizar nuevos algoritmos para resolver problemas que nunca ha visto antes.</p><p class="button-wrapper" data-attrs="{&quot;url&quot;:&quot;https://www.aicuba.org/subscribe?&quot;,&quot;text&quot;:&quot;Suscr&#237;bete ahora&quot;,&quot;action&quot;:null,&quot;class&quot;:null}" data-component-name="ButtonCreateButton"><a class="button primary" href="https://www.aicuba.org/subscribe?"><span>Suscr&#237;bete ahora</span></a></p><h2>Desmitificando la Noci&#243;n de Inteligencia General</h2><p>Antes de construir una nueva idea de inteligencia, primero debemos demoler la antigua. El mito de la inteligencia general es la creencia en una capacidad cognitiva &#250;nica que se aplica a todos los dominios. La realidad, sin embargo, es que el rendimiento en cualquier tarea depende de una habilidad espec&#237;fica, que es la capacidad de tomar decisiones efectivas en ese dominio concreto. No existe una "inteligencia" universal que las englobe a todas.</p><p>Curiosamente, a menudo usamos a los humanos como el arquetipo de la "inteligencia general", pero una mirada m&#225;s cercana revela que nosotros tampoco encajamos en ese molde.</p><p><strong>La Especializaci&#243;n como Norma Humana</strong></p><p>Lejos de poseer una inteligencia universal, la cognici&#243;n humana es un claro ejemplo de especializaci&#243;n. No existe un "humano est&#225;ndar" que sea uniformemente competente en todas las &#225;reas. Cada uno de nosotros desarrolla un conjunto &#250;nico de habilidades profundas pero a menudo estrechas. Un neurocirujano brillante puede ser un p&#233;simo escritor, y un abogado de primera puede ser incapaz de reparar un motor. Nuestra sociedad y nuestras carreras se basan en esta heterogeneidad, demostrando que prosperamos gracias a una colecci&#243;n de inteligencias espec&#237;ficas y diversas, no a una capacidad general y monol&#237;tica.</p><p><strong>El Mito de la Superioridad Cognitiva</strong></p><p>La idea de que los humanos estamos en la cima de una escalera de inteligencia lineal es simplemente incorrecta. La biolog&#237;a comparada nos muestra que muchas especies nos superan en dominios cognitivos espec&#237;ficos. Los chimpanc&#233;s, por ejemplo, superan sistem&#225;ticamente a los humanos en ciertas tareas de memoria de trabajo visual. Esto se explica por la hip&#243;tesis del "trade-off" cognitivo: a medida que nuestros ancestros evolucionaron el lenguaje, probablemente sacrificaron otras capacidades, como la memoria visual de alta fidelidad. La evoluci&#243;n no optimiza para una "inteligencia" abstracta, sino para un conjunto de herramientas cognitivas adaptadas a un nicho ecol&#243;gico espec&#237;fico, refutando la noci&#243;n de una superioridad humana generalizada.</p><p><strong>La Supremac&#237;a de los Algoritmos Espec&#237;ficos</strong></p><p>Incluso en dominios que consideramos inherentemente "humanos", como el razonamiento estrat&#233;gico, los algoritmos especializados nos dejan muy atr&#225;s. AlphaZero aprendi&#243; a dominar el ajedrez a un nivel sobrehumano en cuesti&#243;n de horas, y una simple calculadora supera al matem&#225;tico m&#225;s r&#225;pido en aritm&#233;tica. Esto no demuestra su "inteligencia general", sino que ilustra una verdad fundamental: una habilidad altamente optimizada (un algoritmo) siempre superar&#225; a un enfoque generalista en un dominio bien definido.</p><p>La refutaci&#243;n te&#243;rica final proviene de la inform&#225;tica. El Teorema "No Free Lunch" (NFLT) establece matem&#225;ticamente que ning&#250;n algoritmo puede ser el mejor en todos los problemas posibles. Si un algoritmo A supera a B en un conjunto de problemas, necesariamente tendr&#225; un rendimiento inferior a B en el resto de problemas. Las ganancias de rendimiento siempre tienen un coste. Una inteligencia que fuera "superior en pr&#225;cticamente todos los campos" violar&#237;a esta ley fundamental.</p><h3>Entonces, &#191;por qu&#233; persiste el mito?</h3><p>Por un simple sesgo de medici&#243;n. Percibimos la inteligencia humana como "general" porque evaluamos el rendimiento en un subconjunto muy estrecho de problemas que, como especie, hemos decidido que son "interesantes" o valiosos.</p><p>Esta visi&#243;n sesgada, de hecho, no es nueva, sino que tiene profundas ra&#237;ces en la tradici&#243;n filos&#243;fica occidental. Se remonta a una l&#237;nea de pensamiento que va desde la exaltaci&#243;n de la raz&#243;n l&#243;gica de Arist&#243;teles hasta la cuantificaci&#243;n de la cognici&#243;n en el factor 'g' y las pruebas de IQ. Esta tradici&#243;n cre&#243; una jerarqu&#237;a de valor donde las habilidades l&#243;gico-matem&#225;ticas y verbales, apreciadas hist&#243;ricamente por ciertas &#233;lites acad&#233;micas y sociales, fueron coronadas como la esencia de la "inteligencia". </p><p>Mientras tanto, otras capacidades humanas cruciales &#8212;como la inteligencia emocional, la creatividad art&#237;stica, la destreza f&#237;sica o la intuici&#243;n social&#8212; fueron relegadas a un segundo plano, consideradas "habilidades blandas" o simplemente no "inteligencia" en absoluto. Por lo tanto, el mito de la inteligencia general no es solo un error cient&#237;fico, sino tambi&#233;n el producto de un sesgo cultural que confunde una definici&#243;n estrecha y elitista de la cognici&#243;n con una verdad universal.</p><h2>Redefiniendo la Inteligencia</h2><p>Si la "inteligencia general" como capacidad universal es un mito, &#191;qu&#233; es la inteligencia entonces?</p><p>El investigador de Fran&#231;ois Chollet propone una definici&#243;n mucho m&#225;s &#250;til y rigurosa: la <em>inteligencia es la eficiencia con la que un sistema adquiere nuevas habilidades en un nuevo dominio.</em></p><p>Este cambio de perspectiva es crucial. La inteligencia no es lo que sabes hacer, sino lo r&#225;pido que aprendes a hacer cosas nuevas. Esta redefinici&#243;n resuelve una paradoja moderna: &#191;por qu&#233; un LLM, que ha memorizado casi todo el conocimiento humano escrito, nos parece menos "inteligente" que un ni&#241;o peque&#241;o? La respuesta es la eficiencia.</p><p>Un ni&#241;o puede aprender una nueva habilidad, como jugar a un juego nuevo, con poqu&#237;simos ejemplos y en cuesti&#243;n de minutos. El LLM necesit&#243; una fracci&#243;n considerable de toda la energ&#237;a del planeta para adquirir su conocimiento. El cerebro del ni&#241;o es una m&#225;quina de aprendizaje de una eficiencia asombrosa.</p><p>Esto nos lleva a una distinci&#243;n clave de la psicolog&#237;a: la inteligencia cristalizada frente a la inteligencia fluida. La cristalizada es el conocimiento acumulado, los hechos y las habilidades que ya posees. La fluida es la capacidad de resolver problemas nuevos, de razonar y de aprender. Cuando en la vida cotidiana decimos que alguien es "inteligente", raramente nos referimos a la cantidad de datos que ha memorizado; nos referimos a su capacidad de adaptaci&#243;n y aprendizaje, es decir, a su inteligencia fluida.</p><p>La definici&#243;n de Chollet alinea formalmente el concepto de inteligencia con esta noci&#243;n intuitiva y pr&#225;ctica.</p><p>Bajo este prisma, los actuales Modelos de Lenguaje Masivos (LLMs) son los amos absolutos de la inteligencia cristalizada. Son sistemas de "memoria interpolativa" que recuperan y recombinan patrones de su gigantesco conjunto de datos de entrenamiento. Sin embargo, carecen de inteligencia fluida. No son eficientes adquiriendo habilidades verdaderamente nuevas, como demuestra su fracaso en benchmarks como ARC, dise&#241;ados espec&#237;ficamente para medir la adaptaci&#243;n a la novedad. Su conocimiento es una habilidad pre-adquirida, no la meta-habilidad de la adquisici&#243;n.</p><p>Si llevamos esta idea un paso m&#225;s all&#225;, podemos conectar la inteligencia con la computaci&#243;n:</p><p>En cualquier problema puramente cognitivo, una habilidad es, en esencia, un <strong>algoritmo</strong>: una serie de pasos para resolverlo.</p><p>Por lo tanto, aprender una nueva habilidad es fundamentalmente un acto de <strong>s&#237;ntesis</strong> de un nuevo algoritmo.</p><p>La Inteligencia General, bajo esta nueva definici&#243;n, se convierte en la capacidad de inventar o <strong>sintetizar</strong> nuevos y eficientes algoritmos sobre la marcha cada vez que nos enfrentamos a un problema novedoso.</p><p>Esto nos da una imagen completamente diferente de lo que ser&#237;a una AGI. No ser&#237;a un sistema que ya sabe todo, sino un agente aut&#243;nomo capaz de <em>explorar eficientemente el vasto espacio de todos los programas posibles para encontrar soluciones</em>.</p><p>Ser&#237;a un "programador de prop&#243;sito general" que experimenta, prueba y refina sus propios algoritmos a medida que aprende.</p><p>Finalmente, esta s&#237;ntesis de algoritmos no puede ocurrir en el vac&#237;o. La eficiencia requiere atajos. Necesitamos sesgos inductivos fuertes &#8212;principios heur&#237;sticos como la Navaja de Ockham o conocimientos b&#225;sicos sobre el mundo&#8212; que nos gu&#237;en hacia las soluciones m&#225;s probables sin tener que explorar cada posibilidad. La generalidad no es la ausencia de sesgos, sino la posesi&#243;n de un conjunto de sesgos potentes y adaptables.</p><h2>De la AGI a la GPAI</h2><p>Si el objetivo final es una AGI que pueda sintetizar programas, &#191;c&#243;mo llegamos all&#237;?</p><p>Sostengo que el camino no es escalar los LLMs hasta el infinito, sino construir la infraestructura que permita la emergencia de tal sistema. Este es el salto del concepto abstracto de AGI (Inteligencia Artificial General) al concepto de ingenier&#237;a de GPAI (IA de Prop&#243;sito General).</p><p>La GPAI no es la AGI. Es el andamiaje tecnol&#243;gico: las herramientas, plataformas y componentes que permiten a los desarrolladores aplicar IA a problemas espec&#237;ficos con facilidad. Una futura AGI-programadora no reinventar&#225; la rueda; utilizar&#225; la infraestructura GPAI para construir y probar sus propias soluciones algor&#237;tmicas.</p><p>Un ecosistema GPAI maduro necesitar&#237;a, como m&#237;nimo, cinco componentes clave</p><p><strong>Modelos Fundacionales para M&#250;ltiples Modalidades</strong></p><p>El primer pilar son colecciones de modelos pre-entrenados que proporcionan una base de "inteligencia" lista para usar, reduciendo dr&#225;sticamente la necesidad de entrenar sistemas complejos desde cero. Sin embargo, este ecosistema no puede limitarse al lenguaje. Debe expandirse para incluir modelos fundacionales robustos para modalidades mucho m&#225;s complejas y diversas, como la comprensi&#243;n de escenas 3D, el an&#225;lisis de datos tabulares, la predicci&#243;n de series temporales o la interpretaci&#243;n de grafos.</p><p><strong>Interoperabilidad Integral y Universal</strong></p><p>Para que una IA pueda actuar en el mundo digital, necesita hablar el mismo idioma que el resto del software. Un componente crucial de la GPAI es el desarrollo de m&#233;todos estandarizados y APIs robustas que permitan a los sistemas de IA conectarse sin problemas con componentes tradicionales como bases de datos, sistemas operativos y navegadores web. Esto transforma a la IA de una caja negra aislada a un agente que puede utilizar el software existente como herramientas.</p><p></p><p>AutoML Simplificado e Integrado</p><p>El entrenamiento y ajuste fino de modelos de Machine Learning debe dejar de ser un arte oscuro reservado para especialistas. La GPAI requiere herramientas de AutoML (Aprendizaje Autom&#225;tico Automatizado) que sean asombrosamente simples de usar e est&#233;n integradas directamente en los entornos de desarrollo est&#225;ndar. El objetivo es que cualquier programador pueda, con unas pocas l&#237;neas de c&#243;digo, especializar un modelo para una tarea concreta.</p><p><strong>GOFAI Accesible y Modernizada</strong></p><p>Contrariamente a la creencia popular, la IA simb&#243;lica cl&#225;sica &#8212;a menudo llamada "Good Old-Fashioned AI" (GOFAI)&#8212; no est&#225; obsoleta. M&#233;todos como los algoritmos de b&#250;squeda, la planificaci&#243;n o los solucionadores de restricciones son extremadamente potentes para problemas que requieren un razonamiento estructurado. Un ecosistema GPAI maduro debe rescatar estas t&#233;cnicas, empaquetarlas en librer&#237;as modernas y f&#225;ciles de usar, y ponerlas a disposici&#243;n de los desarrolladores.</p><p><strong>Soporte Pervasivo de Hardware y Sistema Operativo</strong></p><p>Finalmente, la IA debe ser ubicua. Esto requiere un soporte robusto a nivel de hardware y de sistema operativo para la inferencia y, eventualmente, el entrenamiento en el propio dispositivo (on-device). Cuando los chips y los sistemas operativos est&#233;n dise&#241;ados desde cero para ejecutar modelos de IA de manera eficiente, se abrir&#225; la puerta a aplicaciones verdaderamente inteligentes y aut&#243;nomas que no dependan de la nube.</p><h2>Palabras Finales</h2><p>Este enfoque tiene implicaciones profundas. Cambia nuestro foco de la b&#250;squeda lejana y filos&#243;fica de una "superinteligencia" a un objetivo de ingenier&#237;a pragm&#225;tico y alcanzable.</p><p>En lugar de debatir sobre los riesgos existenciales de una AGI m&#237;tica, podemos centrarnos en construir herramientas &#250;tiles y democratizar el acceso a la IA hoy.</p><p>El desarrollo de un ecosistema GPAI robusto es el camino m&#225;s pr&#225;ctico y productivo. Sienta las bases tecnol&#243;gicas y, al hacerlo, crea el entorno del que podr&#237;a surgir una verdadera IA General, no como un or&#225;culo que todo lo sabe, sino como el programador definitivo que todo lo aprende.</p>]]></content:encoded></item><item><title><![CDATA[Inteligencia Artificial para Educadores y Estudiantes]]></title><description><![CDATA[Una Gu&#237;a Pragm&#225;tica para el Siglo XXI]]></description><link>https://www.aicuba.org/p/inteligencia-artificial-para-educadores</link><guid isPermaLink="false">https://www.aicuba.org/p/inteligencia-artificial-para-educadores</guid><dc:creator><![CDATA[Alejandro Piad Morffis]]></dc:creator><pubDate>Tue, 23 Sep 2025 13:11:15 GMT</pubDate><enclosure url="https://images.unsplash.com/photo-1635424239131-32dc44986b56?crop=entropy&amp;cs=tinysrgb&amp;fit=max&amp;fm=jpg&amp;ixid=M3wzMDAzMzh8MHwxfHNlYXJjaHw1fHxjbGFzc3Jvb218ZW58MHx8fHwxNzU4NjMxMjA0fDA&amp;ixlib=rb-4.1.0&amp;q=80&amp;w=1080" length="0" type="image/jpeg"/><content:encoded><![CDATA[<div class="captioned-image-container"><figure><a class="image-link image2 is-viewable-img" target="_blank" href="https://images.unsplash.com/photo-1635424239131-32dc44986b56?crop=entropy&amp;cs=tinysrgb&amp;fit=max&amp;fm=jpg&amp;ixid=M3wzMDAzMzh8MHwxfHNlYXJjaHw1fHxjbGFzc3Jvb218ZW58MHx8fHwxNzU4NjMxMjA0fDA&amp;ixlib=rb-4.1.0&amp;q=80&amp;w=1080" data-component-name="Image2ToDOM"><div class="image2-inset"><picture><source type="image/webp" srcset="https://images.unsplash.com/photo-1635424239131-32dc44986b56?crop=entropy&amp;cs=tinysrgb&amp;fit=max&amp;fm=jpg&amp;ixid=M3wzMDAzMzh8MHwxfHNlYXJjaHw1fHxjbGFzc3Jvb218ZW58MHx8fHwxNzU4NjMxMjA0fDA&amp;ixlib=rb-4.1.0&amp;q=80&amp;w=1080 424w, https://images.unsplash.com/photo-1635424239131-32dc44986b56?crop=entropy&amp;cs=tinysrgb&amp;fit=max&amp;fm=jpg&amp;ixid=M3wzMDAzMzh8MHwxfHNlYXJjaHw1fHxjbGFzc3Jvb218ZW58MHx8fHwxNzU4NjMxMjA0fDA&amp;ixlib=rb-4.1.0&amp;q=80&amp;w=1080 848w, https://images.unsplash.com/photo-1635424239131-32dc44986b56?crop=entropy&amp;cs=tinysrgb&amp;fit=max&amp;fm=jpg&amp;ixid=M3wzMDAzMzh8MHwxfHNlYXJjaHw1fHxjbGFzc3Jvb218ZW58MHx8fHwxNzU4NjMxMjA0fDA&amp;ixlib=rb-4.1.0&amp;q=80&amp;w=1080 1272w, https://images.unsplash.com/photo-1635424239131-32dc44986b56?crop=entropy&amp;cs=tinysrgb&amp;fit=max&amp;fm=jpg&amp;ixid=M3wzMDAzMzh8MHwxfHNlYXJjaHw1fHxjbGFzc3Jvb218ZW58MHx8fHwxNzU4NjMxMjA0fDA&amp;ixlib=rb-4.1.0&amp;q=80&amp;w=1080 1456w" sizes="100vw"><img src="https://images.unsplash.com/photo-1635424239131-32dc44986b56?crop=entropy&amp;cs=tinysrgb&amp;fit=max&amp;fm=jpg&amp;ixid=M3wzMDAzMzh8MHwxfHNlYXJjaHw1fHxjbGFzc3Jvb218ZW58MHx8fHwxNzU4NjMxMjA0fDA&amp;ixlib=rb-4.1.0&amp;q=80&amp;w=1080" width="6000" height="4000" data-attrs="{&quot;src&quot;:&quot;https://images.unsplash.com/photo-1635424239131-32dc44986b56?crop=entropy&amp;cs=tinysrgb&amp;fit=max&amp;fm=jpg&amp;ixid=M3wzMDAzMzh8MHwxfHNlYXJjaHw1fHxjbGFzc3Jvb218ZW58MHx8fHwxNzU4NjMxMjA0fDA&amp;ixlib=rb-4.1.0&amp;q=80&amp;w=1080&quot;,&quot;srcNoWatermark&quot;:null,&quot;fullscreen&quot;:null,&quot;imageSize&quot;:null,&quot;height&quot;:4000,&quot;width&quot;:6000,&quot;resizeWidth&quot;:null,&quot;bytes&quot;:null,&quot;alt&quot;:&quot;an empty classroom with wooden desks and windows&quot;,&quot;title&quot;:null,&quot;type&quot;:&quot;image/jpg&quot;,&quot;href&quot;:null,&quot;belowTheFold&quot;:false,&quot;topImage&quot;:true,&quot;internalRedirect&quot;:null,&quot;isProcessing&quot;:false,&quot;align&quot;:null,&quot;offset&quot;:false}" class="sizing-normal" alt="an empty classroom with wooden desks and windows" title="an empty classroom with wooden desks and windows" srcset="https://images.unsplash.com/photo-1635424239131-32dc44986b56?crop=entropy&amp;cs=tinysrgb&amp;fit=max&amp;fm=jpg&amp;ixid=M3wzMDAzMzh8MHwxfHNlYXJjaHw1fHxjbGFzc3Jvb218ZW58MHx8fHwxNzU4NjMxMjA0fDA&amp;ixlib=rb-4.1.0&amp;q=80&amp;w=1080 424w, https://images.unsplash.com/photo-1635424239131-32dc44986b56?crop=entropy&amp;cs=tinysrgb&amp;fit=max&amp;fm=jpg&amp;ixid=M3wzMDAzMzh8MHwxfHNlYXJjaHw1fHxjbGFzc3Jvb218ZW58MHx8fHwxNzU4NjMxMjA0fDA&amp;ixlib=rb-4.1.0&amp;q=80&amp;w=1080 848w, https://images.unsplash.com/photo-1635424239131-32dc44986b56?crop=entropy&amp;cs=tinysrgb&amp;fit=max&amp;fm=jpg&amp;ixid=M3wzMDAzMzh8MHwxfHNlYXJjaHw1fHxjbGFzc3Jvb218ZW58MHx8fHwxNzU4NjMxMjA0fDA&amp;ixlib=rb-4.1.0&amp;q=80&amp;w=1080 1272w, https://images.unsplash.com/photo-1635424239131-32dc44986b56?crop=entropy&amp;cs=tinysrgb&amp;fit=max&amp;fm=jpg&amp;ixid=M3wzMDAzMzh8MHwxfHNlYXJjaHw1fHxjbGFzc3Jvb218ZW58MHx8fHwxNzU4NjMxMjA0fDA&amp;ixlib=rb-4.1.0&amp;q=80&amp;w=1080 1456w" sizes="100vw" fetchpriority="high"></picture><div class="image-link-expand"><div class="pencraft pc-display-flex pc-gap-8 pc-reset"><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container restack-image"><svg role="img" width="20" height="20" viewBox="0 0 20 20" fill="none" stroke-width="1.5" stroke="var(--color-fg-primary)" stroke-linecap="round" stroke-linejoin="round" xmlns="http://www.w3.org/2000/svg"><g><title></title><path d="M2.53001 7.81595C3.49179 4.73911 6.43281 2.5 9.91173 2.5C13.1684 2.5 15.9537 4.46214 17.0852 7.23684L17.6179 8.67647M17.6179 8.67647L18.5002 4.26471M17.6179 8.67647L13.6473 6.91176M17.4995 12.1841C16.5378 15.2609 13.5967 17.5 10.1178 17.5C6.86118 17.5 4.07589 15.5379 2.94432 12.7632L2.41165 11.3235M2.41165 11.3235L1.5293 15.7353M2.41165 11.3235L6.38224 13.0882"></path></g></svg></button><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container view-image"><svg xmlns="http://www.w3.org/2000/svg" width="20" height="20" viewBox="0 0 24 24" fill="none" stroke="currentColor" stroke-width="2" stroke-linecap="round" stroke-linejoin="round" class="lucide lucide-maximize2 lucide-maximize-2"><polyline points="15 3 21 3 21 9"></polyline><polyline points="9 21 3 21 3 15"></polyline><line x1="21" x2="14" y1="3" y2="10"></line><line x1="3" x2="10" y1="21" y2="14"></line></svg></button></div></div></div></a><figcaption class="image-caption">Photo by <a href="https://unsplash.com/@2ykang">2y.kang</a> on <a href="https://unsplash.com">Unsplash</a></figcaption></figure></div><p>De todos los campos que est&#225;n siendo transformados por la inteligencia artificial, la educaci&#243;n es quiz&#225;s el m&#225;s cr&#237;tico. Hay mucho en juego y es fundamental hacerlo bien. Usada con sabidur&#237;a, la IA tiene el potencial de ser una fuerza masivamente positiva, aumentando el trabajo de los docentes y profundizando el aprendizaje de los estudiantes de maneras que apenas comenzamos a imaginar. Sin embargo, usada incorrectamente, podr&#237;a ser catastr&#243;fica, socavando el desarrollo del pensamiento cr&#237;tico y erosionando los cimientos mismos de la integridad acad&#233;mica. Este post es una gu&#237;a para navegar en ese entorno de alto riesgo.</p><p>Comenzaremos por desmitificar la popular idea de un tutor de IA personalizado, una visi&#243;n que, en mi opini&#243;n, va en contra de los principios del aprendizaje colaborativo y centrado en el ser humano. En su lugar, propondremos una soluci&#243;n m&#225;s sensata que ve la IA como una herramienta para <strong>aumentar, no para automatizar</strong>. A continuaci&#243;n, desmontaremos los mitos que rodean a las herramientas de detecci&#243;n de IA, argumentando que este enfoque no solo es in&#250;til, sino activamente perjudicial para el ambiente de aprendizaje. A partir de ah&#237;, ofreceremos estrategias pr&#225;cticas tanto para educadores como para estudiantes, enfatizando la responsabilidad compartida de fomentar una nueva alfabetizaci&#243;n en IA.</p><p class="button-wrapper" data-attrs="{&quot;url&quot;:&quot;https://www.aicuba.org/subscribe?&quot;,&quot;text&quot;:&quot;Suscr&#237;bete ahora&quot;,&quot;action&quot;:null,&quot;class&quot;:null}" data-component-name="ButtonCreateButton"><a class="button primary" href="https://www.aicuba.org/subscribe?"><span>Suscr&#237;bete ahora</span></a></p><h2>El Mito del Tutor Personalizado</h2><p>La llegada de la IA generativa ha reavivado un mito seductor que lleva d&#233;cadas entre nosotros: la idea de que el objetivo final de la tecnolog&#237;a en la educaci&#243;n es crear un tutor de IA personalizado y omnisciente para cada estudiante. Esta visi&#243;n promete una revoluci&#243;n, un futuro en el que un "tutor aristot&#233;lico personalizado" est&#233; disponible para todos, adapt&#225;ndose a su estilo, idioma y ritmo de aprendizaje &#250;nicos. Es una narrativa poderosa, pero est&#225; construida sobre un malentendido fundamental de c&#243;mo aprendemos y para qu&#233; sirve la educaci&#243;n.</p><p>Incluso si un tutor tan perfecto fuera posible, no es la revoluci&#243;n que deber&#237;amos desear. La idea de que el principal problema de la educaci&#243;n es la falta de personalizaci&#243;n o de una entrega eficiente de informaci&#243;n es una premisa defectuosa. Antes de poder aprovechar la IA de manera efectiva, primero debemos deconstruir este mito examinando tres razones fundamentales por las que el tutor personal automatizado es un ideal equivocado.</p><h3>Argumento 1: Confunde la Transferencia de Informaci&#243;n con el Aprendizaje</h3><p>El mito del tutor personalizado asume que el principal obst&#225;culo para aprender es la entrega ineficiente de informaci&#243;n. Este argumento podr&#237;a tener cierto m&#233;rito en contextos muy espec&#237;ficos, como en lugares donde la barrera principal es la falta de acceso a libros, internet y educadores. Sin embargo, esta no es la realidad para la mayor&#237;a de los estudiantes en los pa&#237;ses donde hay un sistema educacional p&#250;blico razonablemente funcional.</p><p>En una era de sobreabundancia de informaci&#243;n, el problema para el estudiante moderno no es la falta de acceso a los datos, sino la falta de habilidad para navegar, evaluar y sintetizar esa informaci&#243;n. Pedirle una respuesta a una IA es ligeramente m&#225;s conveniente que una b&#250;squeda en Google, pero no es cualitativamente mejor. Es m&#225;s, elimina la "dificultad deseable" que forja el conocimiento duradero. El esfuerzo de buscar informaci&#243;n, comparar fuentes y formar una conclusi&#243;n es un ejercicio cognitivo de incalculable valor. Un tutor de IA dise&#241;ado para eliminar esta lucha proporcionando respuestas inmediatas impide activamente que ocurran las partes m&#225;s valiosas del proceso de aprendizaje.</p><h3>Argumento 2: Promueve la Dependencia Intelectual</h3><p>El mito sugiere que una IA puede ser el compa&#241;ero perfecto para completar tareas, desde resolver problemas de matem&#225;ticas hasta escribir ensayos. Esto, sin embargo, corre el riesgo de crear una profunda dependencia intelectual. Cuando un estudiante usa una IA para evitar el trabajo duro de estructurar un argumento, recordar informaci&#243;n, sintetizar ideas o depurar una l&#237;nea de c&#243;digo, <em>aprende a hacer prompts, no a pensar</em>.</p><p>El prop&#243;sito de asignar un ensayo no es recibir un texto perfecto; los profesores ya conocen las respuestas. El prop&#243;sito es involucrar al estudiante en el <em>proceso</em> de creaci&#243;n, que es donde ocurre el aprendizaje. Al ofrecer un atajo directo al producto final, la IA generativa socava el aspecto m&#225;s valioso del ejercicio. Se convierte en un obst&#225;culo que obstaculiza el proceso educativo al permitir que los estudiantes eludan los mismos desaf&#237;os que ayudan a sus cerebros a aprender y crecer. El objetivo de la educaci&#243;n es construir pensadores cr&#237;ticos e independientes que puedan lidiar con problemas complejos y ambiguos por s&#237; mismos.</p><h3>Argumento 3: Fomenta el Aislamiento sobre la Comunidad</h3><p>La visi&#243;n del camino personalizado idealiza a un estudiante aprendiendo en una eficiencia perfecta y aislada, libre del ritmo de un grupo. Esto ignora por completo que el aprendizaje es una actividad fundamentalmente social y colaborativa. Estudiar de forma individual e independiente no es necesariamente una ventaja; de hecho, puede ser una gran desventaja.</p><p>Las dos cosas con las que m&#225;s luchan las personas autodidactas son la motivaci&#243;n y la retroalimentaci&#243;n. La motivaci&#243;n surge de forma natural en un aula porque est&#225;s rodeado de compa&#241;eros con objetivos similares. Ver a otros enfrentar desaf&#237;os y crecer crea un poderoso incentivo para superar las dificultades. La retroalimentaci&#243;n de mentores y compa&#241;eros es igualmente crucial para el crecimiento intelectual. Una comunidad de aprendices es clave. Un tutor de IA, por muy sofisticado que sea, no puede replicar la realidad din&#225;mica, motivadora y, a menudo, desordenada de una comunidad de aprendizaje humana. Aprender juntos siempre ser&#225; mejor que aprender solo.</p><h3>La Alternativa: Aumento, no Automatizaci&#243;n</h3><p>La alternativa al mito del tutor personalizado no es descartar la tecnolog&#237;a, sino reformular su prop&#243;sito: pasar de la automatizaci&#243;n al aumento dentro de una comunidad centrada en el ser humano. El objetivo no es una m&#225;quina que reemplace al profesor, sino una herramienta poderosa que mejore todo el ecosistema de aprendizaje.</p><p>Una IA verdaderamente efectiva no ser&#237;a una m&#225;quina de respuestas. Ser&#237;a un compa&#241;ero de aprendizaje dise&#241;ado para encarnar principios pedag&#243;gicos s&#243;lidos. En lugar de ofrecer atajos f&#225;ciles, estar&#237;a dise&#241;ado para guiar, desafiar y fomentar esa "dificultad deseable" esencial para el aprendizaje profundo. Una herramienta as&#237; actuar&#237;a como un socio socr&#225;tico haciendo preguntas, ofrecer&#237;a pr&#225;ctica interactiva y personalizada, y explicar&#237;a conceptos de m&#250;ltiples maneras para construir una comprensi&#243;n intuitiva. </p><p>Este enfoque apoya directamente modelos progresivos como el <em>aula invertida</em>, donde la IA puede encargarse de la instrucci&#243;n directa fuera de clase, liberando un tiempo precioso en el aula para lo que los humanos hacen mejor: proyectos colaborativos, debates en grupo y aprendizaje entre pares.</p><h2>La Futilidad de los Detectores de IA</h2><p>Antes de que los educadores puedan integrar eficazmente la IA, primero deben comprender que la detecci&#243;n de contenido generado por IA es una persecuci&#243;n sin esperanza. Cualquier intento de vigilar el uso de la IA a trav&#233;s de herramientas de detecci&#243;n es una carrera armamentista imposible de ganar, destinada a fracasar por varias razones pr&#225;cticas y pedag&#243;gicas.</p><p>En primer lugar, la tecnolog&#237;a en s&#237; es fundamentalmente defectuosa. Los detectores siempre estar&#225;n por detr&#225;s de los modelos generativos que buscan identificar. Las supuestas se&#241;ales del texto generado por IA &#8212;lenguaje demasiado formal, falta de voz personal, gram&#225;tica perfecta&#8212; son simplemente caracter&#237;sticas fugaces de modelos espec&#237;ficos en un momento dado. Un detector entrenado para identificar el estilo de GPT-4 es in&#250;til contra la pr&#243;xima generaci&#243;n de modelos.</p><p>En segundo lugar, estas herramientas son peligrosamente imprecisas. Sus tasas de falsos positivos, inaceptablemente altas, significan que inevitablemente se castigar&#225; a estudiantes honestos. Esta es una l&#237;nea &#233;tica que ning&#250;n educador deber&#237;a estar dispuesto a cruzar. Al mismo tiempo, las herramientas son f&#225;ciles de eludir, lo que significa que mientras se se&#241;ala a estudiantes inocentes, los que est&#225;n decididos a hacer trampa pueden salirse con la suya. El resultado es un sistema que es a la vez injusto e ineficaz.</p><p>En &#250;ltima instancia, una dependencia de las herramientas de detecci&#243;n <em>crea un ambiente de desconfianza que es t&#243;xico para el aprendizaje</em>. Enmarca la relaci&#243;n entre profesor y alumno como un enfrentamiento, reemplazando una asociaci&#243;n basada en la confianza por una basada en la sospecha. El fraude es un problema &#233;tico grave, pero no es un problema tecnol&#243;gico que se resuelva con software. Es un problema humano que debe discutirse en t&#233;rminos &#233;ticos, como una violaci&#243;n de la confianza compartida que hace posible una comunidad de aprendizaje.</p><h2>Gu&#237;a Pr&#225;ctica para Educadores</h2><p>El &#250;nico camino viable es cambiar nuestra mentalidad de la vigilancia a la integraci&#243;n, adaptando nuestros m&#233;todos para aprovechar las fortalezas de la IA mientras mitigamos sus debilidades.</p><h3>Redise&#241;ando las Tareas para la Era de la IA</h3><p>Dado que el tradicional ensayo para casa ahora es vulnerable a la automatizaci&#243;n, los educadores deben redise&#241;ar las tareas para incorporar la IA como una herramienta para pensar, no como una m&#225;quina de respuestas.</p><p>La estrategia m&#225;s efectiva es <strong>enfocarse en el proceso, no solo en el producto</strong>. En lugar de calificar &#250;nicamente el ensayo final, la evaluaci&#243;n puede ampliarse para incluir la interacci&#243;n del estudiante con la IA. Exigir a los estudiantes que presenten sus registros de chat o una reflexi&#243;n escrita sobre su proceso &#8212;detallando los <em>prompts</em> que usaron y c&#243;mo evaluaron la respuesta de la IA&#8212; hace visible su pensamiento.</p><p>Otro enfoque poderoso es convertir a los estudiantes en cr&#237;ticos de la IA. En lugar de pedirles que produzcan un texto, as&#237;gnales la tarea de deconstruir uno generado por IA. Por ejemplo, se le podr&#237;a pedir a un estudiante que le pida a una IA que escriba un ensayo sobre un evento hist&#243;rico y luego escriba su propio an&#225;lisis de los errores factuales, falacias l&#243;gicas y sesgos subyacentes.</p><p>Finalmente, es esencial enfatizar las evaluaciones centradas en el ser humano que son inherentemente resistentes a la automatizaci&#243;n: debates en clase, ex&#225;menes orales, ensayos escritos a mano y proyectos colaborativos.</p><h3>La IA como S&#250;per-Asistente del Profesor</h3><p>El mayor potencial de la IA puede residir en su capacidad para reducir la considerable carga administrativa de los profesores, liber&#225;ndolos para que se centren en el trabajo profundamente humano de ense&#241;ar y guiar.</p><p>Como herramienta para la planificaci&#243;n de lecciones, la IA puede ser un socio creativo invaluable. Un educador puede generar planes de lecci&#243;n, obtener sugerencias para actividades creativas o crear materiales adaptados para estudiantes con diversas necesidades de aprendizaje. Un <em>prompt</em> como: <em>"Act&#250;a como un dise&#241;ador instruccional. Crea un plan de lecci&#243;n de 45 minutos para estudiantes de secundaria sobre las causas de la Primera Guerra Mundial, incluyendo un gancho, una actividad colaborativa y una evaluaci&#243;n formativa"</em> puede ahorrar horas de trabajo.</p><p>Para la generaci&#243;n de r&#250;bricas y retroalimentaci&#243;n, la IA puede ser verdaderamente transformadora. Puede redactar r&#250;bricas de calificaci&#243;n claras y completas en segundos y, lo que es m&#225;s importante, puede ayudar a proporcionar una retroalimentaci&#243;n inicial y personalizada sobre el trabajo de los estudiantes, siempre bajo un modelo de <strong>"</strong>humano-en-el-ciclo<strong>" (</strong><em>human-in-the-loop</em><strong>)</strong> donde el profesor revisa y aprueba el feedback de la IA antes de enviarlo.</p><h3>Fomentando un Aula Preparada para la IA</h3><p>Crear un entorno de aprendizaje saludable en la era de la IA requiere un enfoque proactivo centrado en pol&#237;ticas claras, alfabetizaci&#243;n digital y comunicaci&#243;n abierta. La base es establecer una <strong>pol&#237;tica de uso de IA clara en el aula</strong>, que funcione como una gu&#237;a para el compromiso &#233;tico, no como una lista de prohibiciones.</p><p>M&#225;s all&#225; de las reglas, los educadores deben integrar la alfabetizaci&#243;n en IA en el plan de estudios. Una forma sencilla y eficaz de guiar a los estudiantes es crear y compartir <em>prompts</em> personalizados o IAs reutilizables. Al elaborar <em>prompts</em> adaptados a objetivos pedag&#243;gicos espec&#237;ficos, los educadores pueden modelar un uso eficaz de la IA. Una extensi&#243;n a&#250;n m&#225;s poderosa es crear IAs personalizadas (llamadas "Custom GPTs" en ChatGPT o "Gems" en Google Gemini), que son versiones especializadas de la IA precargadas con instrucciones y contexto espec&#237;ficos. Un educador podr&#237;a crear un "Ayudante de Tesis de Historia" experto en el material de su curso, o un "Formateador de Informes de Laboratorio" que gu&#237;e a los estudiantes.</p><p>Finalmente, es vital fomentar el di&#225;logo abierto. Es importante reconocer que el <strong>"</strong>agotamiento por IA<strong>" (</strong><em>AI burnout</em><strong>) es real</strong>. Muchos educadores sienten una presi&#243;n inmensa por adaptarse a todo a la vez. Pero no tenemos que cambiarlo todo de golpe. El camino m&#225;s sostenible es el de los peque&#241;os y deliberados experimentos. Al introducir la IA en las partes m&#225;s sencillas de nuestras tareas docentes primero, podemos lograr victorias f&#225;ciles y darnos tiempo para reflexionar.</p><h2>Gu&#237;a para el Estudiante Moderno</h2><p>Para los estudiantes, la IA puede ser la herramienta de aprendizaje m&#225;s poderosa jam&#225;s creada, pero solo si se usa con intenci&#243;n e integridad. El objetivo es <em>usar la IA para aprender, no para cortocircuitar tu propia comprensi&#243;n.</em></p><h3>Tus Responsabilidades como Usuario</h3><p>El uso &#233;tico de la IA comienza con una comprensi&#243;n clara de tus responsabilidades. Primero, <strong>verifica y aclara las pol&#237;ticas</strong> de cada curso e instituci&#243;n. Segundo, practica la <strong>divulgaci&#243;n transparente</strong>, siendo honesto sobre c&#243;mo y d&#243;nde has utilizado la IA. Finalmente, <strong>protege la informaci&#243;n sensible</strong> y nunca introduzcas datos personales o confidenciales en modelos de IA p&#250;blicos.</p><h3>Usando la IA para Iniciar tu Trabajo</h3><p>Una de las formas m&#225;s eficaces y &#233;ticas de usar la IA es como un socio de <em>brainstorming</em> para superar la inercia de la p&#225;gina en blanco. Puedes usar la IA para generar ideas iniciales para un proyecto, crear un esquema estructurado para un ensayo o sintetizar los puntos clave de un art&#237;culo largo. En este rol, la IA act&#250;a como un catalizador para tu propio pensamiento, proporcionando una base sobre la cual puedes construir tu trabajo original.</p><h3>Usando la IA para Profundizar tu Comprensi&#243;n</h3><p>En lugar de pedir una respuesta directa, usa la IA para que te gu&#237;e hacia tu propia comprensi&#243;n. Puedes convertir la IA en un socio socr&#225;tico que te haga preguntas en lugar de darte soluciones. Un <em>prompt</em> como <em>"Estoy tratando de entender las causas de la Revoluci&#243;n Francesa. No me las enumeres. En su lugar, hazme preguntas que me lleven a los factores clave"</em> transforma una consulta pasiva en un ejercicio de aprendizaje activo. Tambi&#233;n puedes pedirle que te explique conceptos complejos con analog&#237;as o en t&#233;rminos m&#225;s sencillos para construir una comprensi&#243;n intuitiva.</p><h3>Usando la IA para Refinar tus Habilidades</h3><p>La IA puede ser un entrenador invaluable para mejorar tus habilidades pr&#225;cticas a trav&#233;s de la retroalimentaci&#243;n iterativa. Como <strong>entrenador de escritura</strong>, puede ofrecer sugerencias sobre claridad, tono y estructura sin hacer el trabajo por ti. Puedes enviar un p&#225;rrafo que hayas escrito y pedir comentarios espec&#237;ficos, como <em>"&#191;Puedes sugerir tres verbos m&#225;s fuertes que podr&#237;a usar en esta oraci&#243;n?"</em>. Como <strong>compa&#241;ero de pr&#225;ctica</strong>, la IA puede generar un n&#250;mero infinito de problemas de pr&#225;ctica para materias como matem&#225;ticas, programaci&#243;n o vocabulario, y lo que es m&#225;s importante, proporcionar explicaciones detalladas de tus errores.</p><h3>Construye tus Propias Herramientas de IA</h3><p>M&#225;s all&#225; de los <em>prompts</em> puntuales, el siguiente nivel de alfabetizaci&#243;n en IA es aprender a crear tus propios asistentes de IA reutilizables. Las plataformas modernas te permiten crear agentes personalizados, como ya vimos. Por ejemplo, podr&#237;as construir un "Compa&#241;ero de Estudio" y subir todas las notas de tu curso, d&#225;ndole el poder de hacerte preguntas sobre el material espec&#237;fico. Al construir tus propias herramientas, pasas de ser un simple usuario a ser un creador.</p><h3>Desarrollando la Alfabetizaci&#243;n en IA</h3><p>En &#250;ltima instancia, la habilidad m&#225;s importante para un aprendiz del siglo XXI no es solo saber c&#243;mo usar la IA, sino saber c&#243;mo evaluar cr&#237;ticamente su resultado. Esta nueva "alfabetizaci&#243;n en IA" se basa en tres pilares:</p><ol><li><p><strong>S&#233; siempre esc&#233;ptico:</strong> Trata cada declaraci&#243;n que genera una IA como una afirmaci&#243;n, no como un hecho.</p></li><li><p><strong>Verifica todo:</strong> Los modelos de IA pueden "alucinar" y lo har&#225;n. T&#250; eres la autoridad final y responsable de la precisi&#243;n de tu trabajo.</p></li><li><p><strong>Aprende a buscar sesgos:</strong> Comprende que los datos de entrenamiento de la IA son un reflejo de internet, con todos sus sesgos y estereotipos humanos.</p></li></ol><h3>Poni&#233;ndolo todo en Pr&#225;ctica: Un Ejemplo de Flujo de Trabajo</h3><p>Aqu&#237; tienes un ejemplo paso a paso de c&#243;mo podr&#237;as usar &#233;ticamente la IA para ayudarte con un trabajo de investigaci&#243;n:</p><ol><li><p><strong>Brainstorming:</strong> Usa la IA para explorar temas potenciales y acotar tu enfoque.</p></li><li><p><strong>Esquema:</strong> Trabaja con la IA para estructurar tus argumentos principales y crear un esquema l&#243;gico.</p></li><li><p><strong>Investigaci&#243;n:</strong> Usa la IA para encontrar fuentes o resumir art&#237;culos, pero <strong>siempre</strong> ve a la fuente original para leerla t&#250; mismo y verificar cada afirmaci&#243;n.</p></li><li><p><strong>Redacci&#243;n:</strong> Escribe el borrador completo con tus propias palabras.</p></li><li><p><strong>Retroalimentaci&#243;n:</strong> Pide a la IA comentarios sobre la claridad, estructura y estilo de tu borrador.</p></li><li><p><strong>Lista de verificaci&#243;n final:</strong> Antes de entregar, revisa: &#191;He verificado cada dato? &#191;Puedo defender cada parte de este trabajo? &#191;He seguido la pol&#237;tica de IA de mi instructor? &#191;Mi declaraci&#243;n de uso es precisa?</p></li></ol><h2>Conclusi&#243;n: Hacia un Futuro de Aumento</h2><p>La filosof&#237;a tecno-pragm&#225;tica que gu&#237;a este texto se basa en una creencia fundamental: <em>el futuro no est&#225; predeterminado</em>. La tecnolog&#237;a es una herramienta cuyo impacto est&#225; profundamente moldeado por c&#243;mo elegimos emplearla.</p><p>El desaf&#237;o no es resistir esta nueva tecnolog&#237;a, sino aprovecharla con sabidur&#237;a. En lugar de perseguir el ideal defectuoso de la automatizaci&#243;n o caer en una relaci&#243;n de confrontaci&#243;n basada en la detecci&#243;n, debemos abrazar un cambio pedag&#243;gico necesario. El problema central en la educaci&#243;n moderna no es la falta de contenido, sino la escasez de retroalimentaci&#243;n oportuna y personalizada.</p><p>Aqu&#237; es donde la IA puede crear una verdadera revoluci&#243;n. Por lo tanto, el verdadero norte para la IA en la educaci&#243;n no es la automatizaci&#243;n, sino el <em>aumento</em>. Debemos aprovechar la IA para resolver el cuello de botella de la retroalimentaci&#243;n, us&#225;ndola para hacer lo que mejor sabe hacer &#8212;procesar informaci&#243;n y proporcionar feedback a escala&#8212; para que nosotros, educadores y estudiantes, podamos centrarnos en lo que mejor sabemos hacer: cuestionar, crear y colaborar dentro de una comunidad centrada en el ser humano.</p>]]></content:encoded></item><item><title><![CDATA[Las 4 Falacias de la IA Moderna]]></title><description><![CDATA[Entendiendo los ciclos de primavera e invierno de la IA]]></description><link>https://www.aicuba.org/p/las-4-falacias-de-la-ia-moderna</link><guid isPermaLink="false">https://www.aicuba.org/p/las-4-falacias-de-la-ia-moderna</guid><dc:creator><![CDATA[Alejandro Piad Morffis]]></dc:creator><pubDate>Sat, 13 Sep 2025 12:01:50 GMT</pubDate><enclosure url="https://images.unsplash.com/photo-1718241905462-56e7b9f722f3?crop=entropy&amp;cs=tinysrgb&amp;fit=max&amp;fm=jpg&amp;ixid=M3wzMDAzMzh8MHwxfHNlYXJjaHwzN3x8YWl8ZW58MHx8fHwxNzU3Njg5MDk2fDA&amp;ixlib=rb-4.1.0&amp;q=80&amp;w=1080" length="0" type="image/jpeg"/><content:encoded><![CDATA[<div class="captioned-image-container"><figure><a class="image-link image2 is-viewable-img" target="_blank" href="https://images.unsplash.com/photo-1718241905462-56e7b9f722f3?crop=entropy&amp;cs=tinysrgb&amp;fit=max&amp;fm=jpg&amp;ixid=M3wzMDAzMzh8MHwxfHNlYXJjaHwzN3x8YWl8ZW58MHx8fHwxNzU3Njg5MDk2fDA&amp;ixlib=rb-4.1.0&amp;q=80&amp;w=1080" data-component-name="Image2ToDOM"><div class="image2-inset"><picture><source type="image/webp" srcset="https://images.unsplash.com/photo-1718241905462-56e7b9f722f3?crop=entropy&amp;cs=tinysrgb&amp;fit=max&amp;fm=jpg&amp;ixid=M3wzMDAzMzh8MHwxfHNlYXJjaHwzN3x8YWl8ZW58MHx8fHwxNzU3Njg5MDk2fDA&amp;ixlib=rb-4.1.0&amp;q=80&amp;w=1080 424w, https://images.unsplash.com/photo-1718241905462-56e7b9f722f3?crop=entropy&amp;cs=tinysrgb&amp;fit=max&amp;fm=jpg&amp;ixid=M3wzMDAzMzh8MHwxfHNlYXJjaHwzN3x8YWl8ZW58MHx8fHwxNzU3Njg5MDk2fDA&amp;ixlib=rb-4.1.0&amp;q=80&amp;w=1080 848w, https://images.unsplash.com/photo-1718241905462-56e7b9f722f3?crop=entropy&amp;cs=tinysrgb&amp;fit=max&amp;fm=jpg&amp;ixid=M3wzMDAzMzh8MHwxfHNlYXJjaHwzN3x8YWl8ZW58MHx8fHwxNzU3Njg5MDk2fDA&amp;ixlib=rb-4.1.0&amp;q=80&amp;w=1080 1272w, https://images.unsplash.com/photo-1718241905462-56e7b9f722f3?crop=entropy&amp;cs=tinysrgb&amp;fit=max&amp;fm=jpg&amp;ixid=M3wzMDAzMzh8MHwxfHNlYXJjaHwzN3x8YWl8ZW58MHx8fHwxNzU3Njg5MDk2fDA&amp;ixlib=rb-4.1.0&amp;q=80&amp;w=1080 1456w" sizes="100vw"><img src="https://images.unsplash.com/photo-1718241905462-56e7b9f722f3?crop=entropy&amp;cs=tinysrgb&amp;fit=max&amp;fm=jpg&amp;ixid=M3wzMDAzMzh8MHwxfHNlYXJjaHwzN3x8YWl8ZW58MHx8fHwxNzU3Njg5MDk2fDA&amp;ixlib=rb-4.1.0&amp;q=80&amp;w=1080" width="3840" height="2400" data-attrs="{&quot;src&quot;:&quot;https://images.unsplash.com/photo-1718241905462-56e7b9f722f3?crop=entropy&amp;cs=tinysrgb&amp;fit=max&amp;fm=jpg&amp;ixid=M3wzMDAzMzh8MHwxfHNlYXJjaHwzN3x8YWl8ZW58MHx8fHwxNzU3Njg5MDk2fDA&amp;ixlib=rb-4.1.0&amp;q=80&amp;w=1080&quot;,&quot;srcNoWatermark&quot;:null,&quot;fullscreen&quot;:null,&quot;imageSize&quot;:null,&quot;height&quot;:2400,&quot;width&quot;:3840,&quot;resizeWidth&quot;:null,&quot;bytes&quot;:null,&quot;alt&quot;:&quot;a close up of a keyboard with a blue button&quot;,&quot;title&quot;:null,&quot;type&quot;:&quot;image/jpg&quot;,&quot;href&quot;:null,&quot;belowTheFold&quot;:false,&quot;topImage&quot;:true,&quot;internalRedirect&quot;:null,&quot;isProcessing&quot;:false,&quot;align&quot;:null,&quot;offset&quot;:false}" class="sizing-normal" alt="a close up of a keyboard with a blue button" title="a close up of a keyboard with a blue button" srcset="https://images.unsplash.com/photo-1718241905462-56e7b9f722f3?crop=entropy&amp;cs=tinysrgb&amp;fit=max&amp;fm=jpg&amp;ixid=M3wzMDAzMzh8MHwxfHNlYXJjaHwzN3x8YWl8ZW58MHx8fHwxNzU3Njg5MDk2fDA&amp;ixlib=rb-4.1.0&amp;q=80&amp;w=1080 424w, https://images.unsplash.com/photo-1718241905462-56e7b9f722f3?crop=entropy&amp;cs=tinysrgb&amp;fit=max&amp;fm=jpg&amp;ixid=M3wzMDAzMzh8MHwxfHNlYXJjaHwzN3x8YWl8ZW58MHx8fHwxNzU3Njg5MDk2fDA&amp;ixlib=rb-4.1.0&amp;q=80&amp;w=1080 848w, https://images.unsplash.com/photo-1718241905462-56e7b9f722f3?crop=entropy&amp;cs=tinysrgb&amp;fit=max&amp;fm=jpg&amp;ixid=M3wzMDAzMzh8MHwxfHNlYXJjaHwzN3x8YWl8ZW58MHx8fHwxNzU3Njg5MDk2fDA&amp;ixlib=rb-4.1.0&amp;q=80&amp;w=1080 1272w, https://images.unsplash.com/photo-1718241905462-56e7b9f722f3?crop=entropy&amp;cs=tinysrgb&amp;fit=max&amp;fm=jpg&amp;ixid=M3wzMDAzMzh8MHwxfHNlYXJjaHwzN3x8YWl8ZW58MHx8fHwxNzU3Njg5MDk2fDA&amp;ixlib=rb-4.1.0&amp;q=80&amp;w=1080 1456w" sizes="100vw" fetchpriority="high"></picture><div class="image-link-expand"><div class="pencraft pc-display-flex pc-gap-8 pc-reset"><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container restack-image"><svg role="img" width="20" height="20" viewBox="0 0 20 20" fill="none" stroke-width="1.5" stroke="var(--color-fg-primary)" stroke-linecap="round" stroke-linejoin="round" xmlns="http://www.w3.org/2000/svg"><g><title></title><path d="M2.53001 7.81595C3.49179 4.73911 6.43281 2.5 9.91173 2.5C13.1684 2.5 15.9537 4.46214 17.0852 7.23684L17.6179 8.67647M17.6179 8.67647L18.5002 4.26471M17.6179 8.67647L13.6473 6.91176M17.4995 12.1841C16.5378 15.2609 13.5967 17.5 10.1178 17.5C6.86118 17.5 4.07589 15.5379 2.94432 12.7632L2.41165 11.3235M2.41165 11.3235L1.5293 15.7353M2.41165 11.3235L6.38224 13.0882"></path></g></svg></button><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container view-image"><svg xmlns="http://www.w3.org/2000/svg" width="20" height="20" viewBox="0 0 24 24" fill="none" stroke="currentColor" stroke-width="2" stroke-linecap="round" stroke-linejoin="round" class="lucide lucide-maximize2 lucide-maximize-2"><polyline points="15 3 21 3 21 9"></polyline><polyline points="9 21 3 21 3 15"></polyline><line x1="21" x2="14" y1="3" y2="10"></line><line x1="3" x2="10" y1="21" y2="14"></line></svg></button></div></div></div></a><figcaption class="image-caption">Foto de <a href="https://unsplash.com/@boliviainteligente">BoliviaInteligente</a> en <a href="https://unsplash.com">Unsplash</a></figcaption></figure></div><p>He pasado los &#250;ltimos a&#241;os tratando de entender el ruido alrededor de la Inteligencia Artificial, y si hay un sentimiento que define la experiencia, es el de un latigazo. Una semana, leo un art&#237;culo que promete que la IA curar&#225; enfermedades y desbloquear&#225; una abundancia inimaginable; la siguiente, veo titulares sobre el colapso civilizatorio. Este ciclo vertiginoso de primaveras de IA, per&#237;odos de inversi&#243;n masiva y bombo, seguidos por la escalofriante duda de los inviernos de IA, no es nuevo. Ha sido el motor del campo durante d&#233;cadas.</p><p>Despu&#233;s de a&#241;os de esto, he tenido que desarrollar mi propio marco solo para mantenerme en tierra. No se trata de ser optimista o pesimista; se trata de rechazar ambos extremos. Para m&#237;, es un compromiso con una reevaluaci&#243;n incansable de la tecnolog&#237;a que tenemos delante; de usar la raz&#243;n y la evidencia para encontrar un camino a seguir, porque creo que tenemos tanto el poder como la responsabilidad de dar forma al futuro de esta tecnolog&#237;a. Eso comienza con un diagn&#243;stico claro del presente.</p><p>Una de las herramientas de diagn&#243;stico m&#225;s &#250;tiles que he encontrado para esto proviene de la cient&#237;fica inform&#225;tica Melanie Mitchell. En un art&#237;culo seminal de 2021, identific&#243; lo que ella afirma son cuatro falacias fundamentales, cuatro suposiciones profundamente arraigadas que explican en gran medida nuestra confusi&#243;n colectiva sobre la IA, y lo que puede y no puede hacer.</p><p>Mi objetivo en este art&#237;culo no es convencerte de que Mitchell tiene 100% raz&#243;n. Tampoco creo que lo tenga, y proporcionar&#233; mis propias cr&#237;ticas y contraargumentos a algunos puntos. Lo que quiero es usar sus ideas como una lente para diseccionar el bombo, explorar los contraargumentos y mostrar por qu&#233; este tira y afloja intelectual tiene consecuencias en el mundo real para nuestra sociedad, nuestra econom&#237;a y nuestra seguridad.</p><p class="button-wrapper" data-attrs="{&quot;url&quot;:&quot;https://www.aicuba.org/subscribe?&quot;,&quot;text&quot;:&quot;Suscr&#237;bete ahora&quot;,&quot;action&quot;:null,&quot;class&quot;:null}" data-component-name="ButtonCreateButton"><a class="button primary" href="https://www.aicuba.org/subscribe?"><span>Suscr&#237;bete ahora</span></a></p><h2>Deconstruyendo las Cuatro Falacias</h2><p>Para m&#237;, la prueba m&#225;s importante de cualquier idea es su validaci&#243;n emp&#237;rica. Ning&#250;n plan, por brillante que sea, sobrevive a su primer encuentro con la realidad. Encuentro que las cuatro falacias de Mitchell son la herramienta perfecta para esto. Nos permiten tomar las grandes y amplias afirmaciones hechas sobre la IA y probarlas rigurosamente contra la realidad desordenada y complicada de lo que estos sistemas realmente pueden hacer.</p><h3>Falacia 1: La Ilusi&#243;n de un Continuo Suave</h3><p>La falacia m&#225;s com&#250;n y seductora es la suposici&#243;n de que cada haza&#241;a impresionante de la IA estrecha es un paso incremental en un camino suave hacia la Inteligencia Artificial General (IAG) a nivel humano. Es decir, que la inteligencia es una m&#233;trica &#250;nica y unidimensional en un continuo que va de lo estrecho a lo general.</p><p>Lo vemos en todas partes. Cuando Deep Blue de IBM venci&#243; a Garry Kasparov en ajedrez, fue aclamado como un primer paso hacia la IAG. La misma narrativa surgi&#243; cuando AlphaGo de DeepMind derrot&#243; a Lee Sedol. Esta forma de pensar crea, seg&#250;n Mitchell, un mapa de progreso defectuoso, enga&#241;&#225;ndonos para que creamos que estamos mucho m&#225;s cerca de la IAG de lo que estamos. Ignora el desaf&#237;o colosal y sin resolver conocido como el *problema del conocimiento de sentido com&#250;n*, la vasta comprensi&#243;n impl&#237;cita del mundo que los humanos usan para navegar la realidad.</p><p>Como dijo el fil&#243;sofo Hubert Dreyfus, esto es como afirmar que el primer mono que trep&#243; a un &#225;rbol estaba progresando hacia el aterrizaje en la luna. Bueno, en cierto sentido, tal vez lo sea, pero entiendes el punto. No llegamos a la luna hasta que inventamos cohetes de combusti&#243;n. Trepar &#225;rboles cada vez m&#225;s altos no nos acerca en absoluto, es solo una distracci&#243;n. En el mismo sentido, dominar un juego de sistema cerrado puede ser un desaf&#237;o fundamentalmente diferente a comprender el mundo abierto y ambiguo.</p><p>Pero aqu&#237; est&#225; el matiz. Si bien vencer a Kasparov no es un paso directo para tener una conversaci&#243;n, los <em>m&#233;todos</em> desarrollados pueden ser sorprendentemente generalizables. La arquitectura que impuls&#243; a AlphaGo fue adaptada m&#225;s tarde a MuZero, un sistema que domin&#243; Go, ajedrez y juegos de Atari sin que se le dijeran las reglas. Adem&#225;s, &#191;podemos realmente decir que un Modelo de Lenguaje Grande es IA estrecha de la misma manera? Su capacidad para escribir c&#243;digo y resumir texto se siente como un salto cualitativo en la generalidad que la analog&#237;a del mono y la luna no captura del todo.</p><p>Esto nos deja con una pregunta con visi&#243;n de futuro: &#191;C&#243;mo ponen a prueba los avances recientes en multimodalidad y IA ag&#233;ntica los l&#237;mites de esta falacia? &#191;Un modelo que puede ver y actuar comienza a cerrar la brecha hacia el sentido com&#250;n, o es solo una versi&#243;n m&#225;s sofisticada de la misma inteligencia estrecha? &#191;Son los modelos del mundo un verdadero paso hacia la IAG o solo una rama m&#225;s alta en un &#225;rbol de inteligencia ling&#252;&#237;stica estrecha?</p><h3>Falacia 2: La Paradoja de la Dificultad</h3><p>Tenemos la terrible costumbre de proyectar nuestro propio paisaje cognitivo en las m&#225;quinas, asumiendo que lo que es dif&#237;cil para nosotros es dif&#237;cil para ellas, y lo que es f&#225;cil para nosotros es f&#225;cil para ellas. Durante d&#233;cadas, ha sido al rev&#233;s.</p><p>Esta es la Paradoja de Moravec, nombrada as&#237; por el roboticista Hans Moravec, quien se&#241;al&#243; que es m&#225;s f&#225;cil hacer que una computadora exhiba un rendimiento a nivel adulto en una prueba de coeficiente intelectual que darle las habilidades sensoriales y motoras de un ni&#241;o de un a&#241;o.</p><p>Esto explica por qu&#233; tenemos IA que puede dominar el juego rid&#237;culamente complejo de Go, mientras que un coche totalmente aut&#243;nomo permanece obstinadamente justo en el horizonte. Las cosas "f&#225;ciles" se construyen sobre lo que Mitchell llama la "complejidad invisible de lo mundano". Esta paradoja causa una descalibraci&#243;n cr&#243;nica de nuestro progreso y prioridades, lo que nos lleva a estar demasiado impresionados por el rendimiento en dominios formales mientras subestimamos la asombrosa dificultad del mundo real.</p><p>Por supuesto, algunos argumentar&#225;n que esto no es una barrera fundamental, sino un obst&#225;culo de ingenier&#237;a temporal. Dir&#237;an que con suficientes datos y computaci&#243;n, la "complejidad invisible" del mundo real se puede aprender, al igual que se aprendi&#243; la complejidad de Go.</p><p>Desde esta perspectiva, el problema no es de tipo, sino de escala. Esto nos obliga a preguntar: a medida que la tecnolog&#237;a de sensores y la rob&#243;tica mejoran, &#191;estamos finalmente empezando a superar la Paradoja de Moravec? &#191;O estamos simplemente descubriendo capas a&#250;n m&#225;s profundas de complejidad que nunca supimos que exist&#237;an?</p><h3>Falacia 3: La Seducci&#243;n de los "Mnem&#243;nicos Deseables"</h3><p>El lenguaje no solo describe la realidad; la crea. En IA, usamos constantemente atajos antropom&#243;rficos, diciendo que un sistema "aprende", "entiende" o tiene "metas". Mitchell argumenta que esta pr&#225;ctica de usar "mnem&#243;nicos deseables" es profundamente enga&#241;osa, enga&#241;ando no solo al p&#250;blico sino a los propios investigadores.</p><p>Cuando un *benchmark* se llama "Evaluaci&#243;n General de Comprensi&#243;n del Lenguaje" (GLUE) y un modelo supera la l&#237;nea base humana, los titulares declaran que la IA ahora entiende el lenguaje mejor que los humanos. &#191;Pero lo hace?</p><p>El t&#233;rmino "loro estoc&#225;stico" fue acu&#241;ado como un poderoso ant&#237;doto, redefiniendo lo que hacen los LLM como una imitaci&#243;n sofisticada en lugar de comprensi&#243;n. Esto no es solo un juego sem&#225;ntico, argumenta Mitchell; crea un modelo mental defectuoso que lleva a una confianza equivocada, anim&#225;ndonos a implementar sistemas en situaciones de alto riesgo donde la falta de verdadera comprensi&#243;n puede tener graves consecuencias.</p><p>Una cr&#237;tica justa es que estos t&#233;rminos son un atajo cognitivo necesario. A cierto nivel de complejidad, el comportamiento emergente de un sistema se vuelve funcionalmente indistinguible de la "comprensi&#243;n", y discutir si <em>realmente</em> comprende es una distracci&#243;n filos&#243;fica incomprobable.</p><p>Pero eso todav&#237;a deja una pregunta crucial: &#191;podemos desarrollar un vocabulario m&#225;s preciso y menos antropom&#243;rfico para describir las capacidades de la IA? &#191;O es nuestro lenguaje centrado en el ser humano la &#250;nica herramienta que tenemos para razonar sobre estas nuevas formas de inteligencia, con todo el bagaje que eso implica?</p><h3>Falacia 4: El Mito de la Mente Virtual</h3><p>Esta es la falacia m&#225;s filos&#243;fica y, en mi opini&#243;n, la m&#225;s importante. Es la suposici&#243;n profundamente arraigada de que la inteligencia es, como el software, una forma de procesamiento de informaci&#243;n pura que puede separarse de su cuerpo.</p><p>Esta met&#225;fora del "cerebro como computadora" lleva a la creencia de que la IAG es simplemente una cuesti&#243;n de escalar la computaci&#243;n para igualar el poder de procesamiento bruto del cerebro. Es desafiada por Mitchell y muchos otros con la tesis de la <em>cognici&#243;n encarnada</em>, una visi&#243;n de la ciencia cognitiva que sostiene que la inteligencia est&#225; inextricablemente ligada a tener un cuerpo que interact&#250;a con el mundo. Si esto es correcto, entonces nuestro enfoque actual podr&#237;a estar creando sistemas cada vez m&#225;s sofisticados que son fundamentalmente fr&#225;giles porque carecen de una comprensi&#243;n fundamentada.</p><p>Aqu&#237; es donde llegamos a la gran l&#237;nea de batalla intelectual en la IA moderna. El principal contraargumento se puede enmarcar en t&#233;rminos del famoso ensayo de Rich Sutton, "<em>La Lecci&#243;n Amarga</em>", que argumenta que toda la historia de la IA nos ha ense&#241;ado que los intentos de construir estructuras cognitivas similares a las humanas (como la encarnaci&#243;n) siempre son superados por m&#233;todos generales que simplemente aprovechan la computaci&#243;n a gran escala.</p><p>Desde este punto de vista, la encarnaci&#243;n no es un requisito previo m&#225;gico para la inteligencia; es solo otro problema endiabladamente complejo que ceder&#225; a m&#225;s datos y poder de procesamiento.</p><p>Esta tensi&#243;n plantea una pregunta cr&#237;tica para el futuro: &#191;los modelos multimodales que pueden procesar im&#225;genes y texto representan un paso significativo hacia la resoluci&#243;n del problema de la encarnaci&#243;n? &#191;O son solo una versi&#243;n m&#225;s sofisticada de la misma mente desencarnada, un cerebro en una cuba digital ligeramente m&#225;s grande?</p><h2>&#191;Qu&#233; es la Inteligencia, Realmente?</h2><p>A medida que profundizamos en estas falacias, emerge un patr&#243;n m&#225;s profundo. No son solo cuatro errores aislados; son s&#237;ntomas de un cisma fundamental en c&#243;mo el mundo de la IA piensa sobre la inteligencia misma. De nuevo, mi objetivo no es tomar partido, sino evitar caer en heur&#237;sticas baratas o banderas ideol&#243;gicas, y en su lugar evaluar cu&#225;l de estos paradigmas nos da un mapa m&#225;s &#250;til de la realidad.</p><p>Por un lado, tienes lo que llamar&#233; el <strong>Paradigma Cognitivo</strong>, defendido por pensadores como Mitchell y su mentor, el superestrella investigador y fil&#243;sofo de IA Douglas Hofstadter. Esta visi&#243;n ve la inteligencia como un fen&#243;meno complejo, integrado y encarnado. Asume que las cosas que asociamos con la inteligencia humana &#8212;el sentido com&#250;n, las emociones, los valores, un sentido de s&#237; mismo&#8212; son probablemente componentes inseparables del todo, que emergen de una rica interacci&#243;n con un mundo f&#237;sico y social.</p><p>Desde esta perspectiva, el camino hacia la IAG requiere una comprensi&#243;n cient&#237;fica profunda de estos componentes integrados, no solo m&#225;s poder de procesamiento.</p><p>Por otro lado est&#225; el <strong>Paradigma Computacionalista</strong>, que es la filosof&#237;a impl&#237;cita detr&#225;s de muchos de los laboratorios y empresas l&#237;deres de hoy, y mejor capturada por <em>La Lecci&#243;n Amarga</em>. Este postula que los mayores avances siempre han venido de m&#233;todos generales que aprovechan la computaci&#243;n a gran escala, en otras palabras, de escalar las cosas.</p><p>En este paradigma, la inteligencia es una cualidad m&#225;s abstracta e independiente del sustrato de optimizaci&#243;n. Problemas como la encarnaci&#243;n no son barreras fundamentales; son solo tareas computacionales incre&#237;blemente complejas que eventualmente ser&#225;n resueltas por modelos cada vez m&#225;s grandes y chips cada vez m&#225;s r&#225;pidos.</p><p>Por supuesto, no es una dicotom&#237;a perfecta. La mayor&#237;a de los investigadores son pragm&#225;ticos, como yo, trabajando en alg&#250;n lugar en el medio. Pero estos dos paradigmas representan los polos del debate, y la tensi&#243;n entre ellos define todo el campo. Da forma a qu&#233; investigaci&#243;n se financia, qu&#233; sistemas se construyen y, en &#250;ltima instancia, a qu&#233; visi&#243;n del futuro estamos corriendo colectivamente.</p><h2>Por Qu&#233; Importa Este Debate</h2><p>Este debate no es solo un juego de sal&#243;n acad&#233;mico. Estas falacias tienen un efecto domin&#243; masivo en toda la sociedad porque oscurecen una regla fundamental de la tecnolog&#237;a y la econom&#237;a: no hay almuerzo gratis, solo compensaciones.</p><p>El bombo generado por el pensamiento falaz no es solo un error inocente; es el combustible de un poderoso motor econ&#243;mico. La intensa competencia entre los gigantes tecnol&#243;gicos, la avalancha de capital de riesgo y la carrera geopol&#237;tica de la IA dependen de una narrativa constante de avances inminentes que cambiar&#225;n el mundo. Esta econom&#237;a pol&#237;tica del bombo nos obliga a una serie de compensaciones peligrosas.</p><p>Primero, <strong>cambiamos el progreso a largo plazo por el bombo a corto plazo</strong>.</p><p>Las falacias crean un ciclo de financiaci&#243;n inestable, de auge y ca&#237;da. Durante una primavera de IA, el capital fluye hacia proyectos que pueden producir demostraciones impresionantes, a menudo basadas en *benchmarks* estrechos. Esto priva de recursos a la investigaci&#243;n lenta, met&#243;dica y fundamental necesaria para resolver los problemas dif&#237;ciles como el sentido com&#250;n y el razonamiento. El resultado es un campo que se tambalea de una burbuja de bombo a la siguiente, dejando un rastro de proyectos abandonados y promesas incumplidas que desencadenan el inevitable invierno de la IA.</p><p>Segundo, <strong>cambiamos la confianza p&#250;blica por la emoci&#243;n del mercado</strong>.</p><p>El ciclo de prometer demasiado y cumplir poco es profundamente corrosivo. Cuando usamos mnem&#243;nicos deseables para describir un sistema que "entiende", y luego falla de maneras espectaculares y sin sentido en el mundo real, genera ansiedad y escepticismo p&#250;blicos. Estudios recientes muestran que el p&#250;blico percibe a los cient&#237;ficos de IA de manera m&#225;s negativa que a casi cualquier otro campo, espec&#237;ficamente debido a una percibida falta de prudencia. Esto no es un sentimiento vago; es una reacci&#243;n directa a las consecuencias no deseadas de implementar sistemas fr&#225;giles y sobrevalorados.</p><p>Finalmente, y lo m&#225;s cr&#237;tico, <strong>cambiamos la validaci&#243;n responsable por la velocidad de comercializaci&#243;n</strong>.</p><p>Aqu&#237; es donde las consecuencias se vuelven m&#225;s graves. Creer que un sistema est&#225; en un continuo con la inteligencia general, o que realmente "entiende" el lenguaje, lleva a su implementaci&#243;n prematura en dominios de alto riesgo.</p><p>Cuando un chatbot de salud mental, que es fundamentalmente, al menos hoy, un sofisticado emparejador de patrones, da consejos da&#241;inos a una persona en crisis, es un resultado directo de estas falacias. Cuando dependemos demasiado de sistemas fr&#225;giles en la atenci&#243;n m&#233;dica, las finanzas o los veh&#237;culos aut&#243;nomos, estamos haciendo una apuesta peligrosa, cambiando la seguridad del mundo real por la ilusi&#243;n de progreso.</p><h2>Conclusi&#243;n</h2><p>Entonces, &#191;d&#243;nde nos deja esto? El valor de las falacias de Mitchell no radica solo en detectar el bombo, sino en exponer la profunda y productiva tensi&#243;n entre estas dos poderosas formas de pensar sobre la inteligencia. No podemos ignorar las falacias, pero tampoco podemos negar el incre&#237;ble poder que altera el mundo del paradigma de escalado que las alimenta.</p><p>Mitchell en su art&#237;culo compara la IA moderna con la alquimia. Produce resultados deslumbrantes e impresionantes, pero a menudo carece de una teor&#237;a profunda y fundamental de la inteligencia.</p><p>Es una met&#225;fora poderosa, pero creo que una conclusi&#243;n m&#225;s pragm&#225;tica es ligeramente diferente. El desaf&#237;o no es abandonar nuestra poderosa alquimia en busca de una ciencia pura de la inteligencia. El objetivo, al menos desde un punto de vista pragm&#225;tico, deber&#237;a ser infundir nuestra alquimia actual con los principios de la ciencia, para hacer que el escalado sea m&#225;s inteligente, seguro y fundamentado, integrando los conocimientos obtenidos con tanto esfuerzo sobre c&#243;mo funciona realmente la inteligencia.</p><p>El camino a seguir, creo, requiere m&#225;s que solo humildad intelectual. Tambi&#233;n requiere la voluntad de sintetizar estas cosmovisiones aparentemente opuestas y un compromiso con una reevaluaci&#243;n incansable de la tecnolog&#237;a que tenemos delante. La pregunta final no es <em>si</em> debemos elegir el camino del escalado o el camino de la ciencia cognitiva, sino <em>c&#243;mo</em> podemos entrelazarlos para guiar el poder bruto de nuestra alquimia moderna de IA con la profunda comprensi&#243;n de una verdadera ciencia de la inteligencia.</p>]]></content:encoded></item><item><title><![CDATA[¿Es el cerebro una computadora?]]></title><description><![CDATA[Sobre el funcionalismo computacional, una de las m&#225;s extra&#241;as teor&#237;as filos&#243;ficas de la mente]]></description><link>https://www.aicuba.org/p/es-el-cerebro-una-computadora</link><guid isPermaLink="false">https://www.aicuba.org/p/es-el-cerebro-una-computadora</guid><dc:creator><![CDATA[Alejandro Piad Morffis]]></dc:creator><pubDate>Mon, 01 Sep 2025 09:48:37 GMT</pubDate><enclosure url="https://substackcdn.com/image/fetch/$s_!fa60!,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Ff8f35206-596f-4329-af4b-8e1e4c0eb68f_1152x640.jpeg" length="0" type="image/jpeg"/><content:encoded><![CDATA[<blockquote><p>Adaptado del <a href="http://blog.apiad.net/p/are-brains-and-computers-alike">original </a>con permiso expl&#237;cito del autor.</p></blockquote><div class="captioned-image-container"><figure><a class="image-link image2 is-viewable-img" target="_blank" href="https://substackcdn.com/image/fetch/$s_!fa60!,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Ff8f35206-596f-4329-af4b-8e1e4c0eb68f_1152x640.jpeg" data-component-name="Image2ToDOM"><div class="image2-inset"><picture><source type="image/webp" srcset="https://substackcdn.com/image/fetch/$s_!fa60!,w_424,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Ff8f35206-596f-4329-af4b-8e1e4c0eb68f_1152x640.jpeg 424w, https://substackcdn.com/image/fetch/$s_!fa60!,w_848,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Ff8f35206-596f-4329-af4b-8e1e4c0eb68f_1152x640.jpeg 848w, https://substackcdn.com/image/fetch/$s_!fa60!,w_1272,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Ff8f35206-596f-4329-af4b-8e1e4c0eb68f_1152x640.jpeg 1272w, https://substackcdn.com/image/fetch/$s_!fa60!,w_1456,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Ff8f35206-596f-4329-af4b-8e1e4c0eb68f_1152x640.jpeg 1456w" sizes="100vw"><img src="https://substackcdn.com/image/fetch/$s_!fa60!,w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Ff8f35206-596f-4329-af4b-8e1e4c0eb68f_1152x640.jpeg" width="1152" height="640" data-attrs="{&quot;src&quot;:&quot;https://substack-post-media.s3.amazonaws.com/public/images/f8f35206-596f-4329-af4b-8e1e4c0eb68f_1152x640.jpeg&quot;,&quot;srcNoWatermark&quot;:null,&quot;fullscreen&quot;:null,&quot;imageSize&quot;:null,&quot;height&quot;:640,&quot;width&quot;:1152,&quot;resizeWidth&quot;:null,&quot;bytes&quot;:null,&quot;alt&quot;:null,&quot;title&quot;:null,&quot;type&quot;:null,&quot;href&quot;:null,&quot;belowTheFold&quot;:false,&quot;topImage&quot;:true,&quot;internalRedirect&quot;:null,&quot;isProcessing&quot;:false,&quot;align&quot;:null,&quot;offset&quot;:false}" class="sizing-normal" alt="" srcset="https://substackcdn.com/image/fetch/$s_!fa60!,w_424,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Ff8f35206-596f-4329-af4b-8e1e4c0eb68f_1152x640.jpeg 424w, https://substackcdn.com/image/fetch/$s_!fa60!,w_848,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Ff8f35206-596f-4329-af4b-8e1e4c0eb68f_1152x640.jpeg 848w, https://substackcdn.com/image/fetch/$s_!fa60!,w_1272,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Ff8f35206-596f-4329-af4b-8e1e4c0eb68f_1152x640.jpeg 1272w, https://substackcdn.com/image/fetch/$s_!fa60!,w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Ff8f35206-596f-4329-af4b-8e1e4c0eb68f_1152x640.jpeg 1456w" sizes="100vw" fetchpriority="high"></picture><div class="image-link-expand"><div class="pencraft pc-display-flex pc-gap-8 pc-reset"><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container restack-image"><svg role="img" width="20" height="20" viewBox="0 0 20 20" fill="none" stroke-width="1.5" stroke="var(--color-fg-primary)" stroke-linecap="round" stroke-linejoin="round" xmlns="http://www.w3.org/2000/svg"><g><title></title><path d="M2.53001 7.81595C3.49179 4.73911 6.43281 2.5 9.91173 2.5C13.1684 2.5 15.9537 4.46214 17.0852 7.23684L17.6179 8.67647M17.6179 8.67647L18.5002 4.26471M17.6179 8.67647L13.6473 6.91176M17.4995 12.1841C16.5378 15.2609 13.5967 17.5 10.1178 17.5C6.86118 17.5 4.07589 15.5379 2.94432 12.7632L2.41165 11.3235M2.41165 11.3235L1.5293 15.7353M2.41165 11.3235L6.38224 13.0882"></path></g></svg></button><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container view-image"><svg xmlns="http://www.w3.org/2000/svg" width="20" height="20" viewBox="0 0 24 24" fill="none" stroke="currentColor" stroke-width="2" stroke-linecap="round" stroke-linejoin="round" class="lucide lucide-maximize2 lucide-maximize-2"><polyline points="15 3 21 3 21 9"></polyline><polyline points="9 21 3 21 3 15"></polyline><line x1="21" x2="14" y1="3" y2="10"></line><line x1="3" x2="10" y1="21" y2="14"></line></svg></button></div></div></div></a></figure></div><p>&#191;Es el cerebro una computadora? A primera vista, la respuesta podr&#237;a parecer un rotundo no. Los cerebros y las computadoras son muy diferentes. Los cerebros son biol&#243;gicos, hechos de material org&#225;nico &#8212;cosas viscosas&#8212;, mientras que las computadoras son dispositivos electr&#243;nicos hechos de materiales no org&#225;nicos &#8212;cosas que hacen clic&#8212;, pr&#225;cticamente lo opuesto a los cerebros. Asunto resuelto, &#191;verdad?</p><p>Pero, &#191;es esta una diferencia significativa? Cuando preguntamos si dos cosas son equivalentes, la respuesta puede variar enormemente dependiendo de c&#243;mo las estemos comparando. Podemos centrarnos en de qu&#233; est&#225;n hechas las cosas o en c&#243;mo se ven, pero a menudo estos son los criterios de comparaci&#243;n m&#225;s superficiales y menos interesantes.</p><p>Tomemos un enfoque diferente por un segundo y pregunt&#233;monos en qu&#233; se parecen dos cosas con respecto a <em>lo que pueden hacer</em>; es decir, comparando su <em>funcionalidad</em>. &#191;Es esta una comparaci&#243;n relevante? Aqu&#237; hay un ejemplo de por qu&#233; puede haber algo de sustancia en esto. Piensa en el concepto de <em>silla</em>. &#191;Cu&#225;ntas formas, materiales, colores, tama&#241;os y estilos puedes imaginar que podr&#237;a tener una silla?</p><p>Una silla de madera y una silla de acero son muy diferentes en composici&#243;n, proceso de fabricaci&#243;n, durabilidad, etc., pero siguen siendo equivalentes en t&#233;rminos de para qu&#233; se usan las sillas: para sentarse. &#191;Es un taburete una silla? &#191;Es una mecedora una silla? &#191;Qu&#233; tal una silla para <em>gamers</em>, o el asiento de tu auto, o en lo que se sientan los astronautas dentro de un cohete? Vaya, si hablamos de <em>cosas en las que te puedes sentar</em>, &#161;hasta una roca lo suficientemente plana es una silla!</p><p>Pero, &#191;por qu&#233; estamos hablando de sillas? &#191;Qu&#233; tiene que ver esto con los cerebros y las computadoras? Es una buena pregunta, y este es el punto que quiero destacar. Cuando comparamos cosas, un punto de comparaci&#243;n a menudo muy significativo es con respecto a <em>lo que las cosas pueden hacer</em>. Es decir, comparar las cosas en t&#233;rminos de su <em>funci&#243;n</em>. Si dos cosas realizan la misma funci&#243;n, son, en cierto sentido, equivalentes. Llamemos a esto un paradigma <em>funcionalista</em> y volvamos a la cuesti&#243;n de si los cerebros y las computadoras son equivalentes.</p><p>En este art&#237;culo, quiero abordar esta pregunta desde el punto de vista del <em>funcionalismo computacional</em>, una forma espec&#237;fica de funcionalismo que explicar&#233; con m&#225;s detalle m&#225;s adelante. Lo que quiero hacer aqu&#237; es, primero, convencerte de que esta pregunta es mucho m&#225;s profunda de lo que parece a primera vista y, segundo, darte algunos argumentos de ambos lados de la discusi&#243;n. Como es habitual en estos art&#237;culos filos&#243;ficos, no te dar&#233; (ni puedo darte) una respuesta definitiva, pero espero que al final est&#233;s mejor informado y, quiz&#225;s, te diviertas un poco en el proceso.</p><p class="button-wrapper" data-attrs="{&quot;url&quot;:&quot;https://www.aicuba.org/subscribe?&quot;,&quot;text&quot;:&quot;Suscr&#237;bete ahora&quot;,&quot;action&quot;:null,&quot;class&quot;:null}" data-component-name="ButtonCreateButton"><a class="button primary" href="https://www.aicuba.org/subscribe?"><span>Suscr&#237;bete ahora</span></a></p><h2>&#191;Qu&#233; es el funcionalismo computacional?</h2><p>Comenzaremos por desglosar la pregunta "&#191;son los cerebros y las computadoras equivalentes?" y definiremos exactamente qu&#233; entendemos por "cerebro", "computadora" y, bueno, "equivalente". Luego, revisaremos algunos de los contraargumentos m&#225;s comunes a la hip&#243;tesis computacionalista y, finalmente, presentaremos algunas razones por las que uno podr&#237;a creer que los cerebros son, de hecho, "solo" computadoras.</p><h3>&#191;Qu&#233; es un cerebro?</h3><p>A primera vista, esto parece una pregunta obvia. Un cerebro es esa materia viscosa dentro de tu cr&#225;neo donde, aparentemente, ocurre toda la cognici&#243;n. Es donde, de alguna manera que todav&#237;a no entendemos del todo, piensas tus pensamientos y sientes tus sentimientos. Tambi&#233;n es donde, seg&#250;n nos dicen, reside algo tan elusivo como la conciencia.</p><p>Sin embargo, volvamos a nuestro ejemplo de la silla. Hay muchas cosas que no se parecen a los cerebros humanos pero que, aun as&#237;, tienen una <em>funci&#243;n</em> similar. Otros animales tienen cerebros, aunque en muchos casos muy similares a los nuestros. Pero luego tienes a los pulpos. &#161;Tienen algo as&#237; como 2/3 de sus neuronas en sus brazos! Pero casi nadie afirmar&#237;a que no tienen al menos una forma limitada de cognici&#243;n. &#191;Y qu&#233; hay de los extraterrestres? &#191;Creemos que cualquier ser vivo, sintiente y autoconsciente que exista tendr&#225; algo sorprendentemente similar a este trozo de carne viscoso y arrugado que llamamos cerebro?</p><p>Como hemos visto, para un funcionalista, estas diferencias no son importantes. Lo que nos importa cuando hablamos de cerebros es la <em>funci&#243;n</em> que realizan. &#161;De eso se trata el funcionalismo! El funcionalista afirmar&#225; que lo que un cerebro es, es lo que un cerebro hace. La cognici&#243;n, la sensibilidad, la conciencia, todas las experiencias subjetivas, se definen completamente en t&#233;rminos de su funci&#243;n. Entonces, cuando los funcionalistas evocan el concepto de cerebro, est&#225;n pensando en lo que un cerebro hace: en resumen, <em>albergar una mente</em>.</p><p>As&#237; que definamos <em>cerebro</em> como el <em>tipo de sustrato f&#237;sico que puede albergar una mente</em>, con todos los complejos procesos cognitivos, experiencias subjetivas, emociones, qualia y todo lo dem&#225;s que quieras afirmar que una mente hace.</p><h3>&#191;Qu&#233; es una computadora?</h3><p>Como antes, esto parece una pregunta obvia, pero a estas alturas ya sabemos que no debemos apresurarnos a una conclusi&#243;n. Intuitivamente, una computadora es algo que realiza formas avanzadas de c&#225;lculo. Puedes tener computadoras centrales, de escritorio, port&#225;tiles, tel&#233;fonos inteligentes, relojes inteligentes, minicomputadoras como una Raspberry Pi y tipos de computadoras muy extra&#241;os como las que van dentro de un autom&#243;vil aut&#243;nomo o una nave espacial.</p><p>Adem&#225;s, aunque la mayor&#237;a de las computadoras actuales est&#225;n hechas de transistores de silicio dispuestos en placas de circuito impreso muy compactas, esta no es la &#250;nica forma en que se podr&#237;a implementar una computadora. Antes de las computadoras totalmente electr&#243;nicas, ten&#237;amos computadoras electromec&#225;nicas con v&#225;lvulas y partes m&#243;viles que sonaban como trenes. Y algunos tipos locos han propuesto m&#225;s de un dise&#241;o de una computadora hidr&#225;ulica en pleno funcionamiento. Incluso tenemos prototipos bioel&#233;ctricos que mezclan materia viscosa con circuitos tradicionales.</p><p>Entonces, al igual que antes, pensemos en la <em>funci&#243;n</em> de una computadora. Esto es mucho m&#225;s f&#225;cil que con los cerebros porque, a diferencia de los cerebros, que son cosas que existen en la naturaleza, las computadoras son algo que nosotros inventamos. Y tenemos todo un campo en la ciencia de la computaci&#243;n llamado <em>teor&#237;a de la computabilidad</em> dedicado precisamente a estudiar lo que una computadora puede hacer.</p><p>En resumen, una computadora es una construcci&#243;n matem&#225;tica abstracta capaz de computar cualquier funci&#243;n efectivamente computable. Una funci&#243;n efectivamente computable es cualquier funci&#243;n matem&#225;tica que se puede calcular con una serie finita de pasos mec&#225;nicos, sin recurrir a adivinanzas o inspiraci&#243;n m&#225;gica; en otras palabras, un algoritmo. Las computadoras electr&#243;nicas modernas son una de las posibles encarnaciones f&#237;sicas de tal abstracci&#243;n, pero dif&#237;cilmente la &#250;nica posibilidad.</p><p>As&#237; que, definamos una <em>computadora</em> como <em>cualquier dispositivo que sea capaz de computar todas las funciones computables</em>.</p><h3>&#191;Qu&#233; es el computacionalismo?</h3><p>Ahora estamos listos para reformular nuestra pregunta original en t&#233;rminos m&#225;s precisos.</p><p>Empecemos con el funcionalismo y avancemos. Cuando se habla de teor&#237;as de la mente, el funcionalismo es la teor&#237;a de que todos los procesos cognitivos est&#225;n completamente caracterizados por su funci&#243;n. Esto significa que, por ejemplo, lo que sea que sea la conciencia, se trata solo de lo que la conciencia hace. En otras palabras, si tienes alguna forma de reproducir lo que hace la conciencia, o cualquier otro proceso cognitivo, no importa qu&#233; sustrato uses; lo que tendr&#225;s es genuinamente lo mismo.</p><p>Dicho de manera m&#225;s audaz, <em>cualquier sistema que realice las mismas funciones que una mente, es una mente</em>. Punto.</p><p>El funcionalismo computacional va un paso m&#225;s all&#225; y afirma que todos estos procesos cognitivos son en realidad funciones computables. Eso significa que una computadora suficientemente compleja y programada adecuadamente podr&#237;a realizar estas funciones en la misma medida que un cerebro y, por lo tanto, presumiblemente albergar&#237;a una mente. M&#225;s formalmente, afirma que <em>todos los procesos cognitivos son de naturaleza computacional</em> y, por lo tanto, pueden, en principio, ser implementados en un sustrato diferente a los cerebros biol&#243;gicos, siempre que soporte la computaci&#243;n de prop&#243;sito general.</p><p>En otras palabras, <strong>el computacionalismo es precisamente la afirmaci&#243;n de que los cerebros son computadoras</strong>, entendiendo ambos t&#233;rminos con todos los matices que ya hemos discutido.</p><p>Para ser claros, el computacionalismo no afirma que las computadoras modernas sean conscientes, ni siquiera que nuestros sistemas de IA m&#225;s avanzados est&#233;n en el camino correcto para llegar a ser verdaderamente inteligentes o conscientes. Simplemente afirma que existe alguna manera de construir una computadora, al menos en principio, que sea autoconsciente, plenamente inteligente y consciente, incluso si no tenemos ni idea de lo que se necesita para construir una.</p><p>Ahora, hay al menos dos formas de computacionalismo, llam&#233;moslas <em>d&#233;bil</em> y <em>fuerte</em> (estas son mis definiciones, no son est&#225;ndar). El computacionalismo d&#233;bil es solo la afirmaci&#243;n de que la cognici&#243;n es computaci&#243;n. Esto significa que todas las formas de inteligencia &#8212;entendida como resoluci&#243;n de problemas, razonamiento, etc., independientemente de si hay un ser sintiente involucrado&#8212; son solo formas avanzadas de computaci&#243;n. En otras palabras, no hay nada s&#250;per-computacional en la inteligencia humana, animal, extraterrestre o cualquier otra forma de inteligencia. Una computadora suficientemente poderosa puede ser tan inteligente como cualquier otra cosa.</p><p>El computacionalismo fuerte va m&#225;s all&#225; y afirma que la conciencia, la sensibilidad, la autoconciencia, los qualia, es decir, todas las experiencias subjetivas, tambi&#233;n son de naturaleza computacional y, por lo tanto, una computadora suficientemente poderosa con el software correcto ser&#237;a, de hecho, consciente y experimentar&#237;a un mundo interior tal como presumimos que todos los humanos y muchos animales lo hacen.</p><p>El computacionalismo se remonta a McCulloch y Pitts, los padres del conexionismo. Fueron los primeros en sugerir seriamente que la actividad neuronal es computacional y en proponer un modelo matem&#225;tico para ella, precursor de las redes neuronales artificiales modernas. Sin embargo, no fue hasta bien entrada la d&#233;cada de los 60 que el computacionalismo comenz&#243; a desarrollarse como una teor&#237;a filos&#243;fica de la mente.</p><p>Pero quiz&#225;s el ejemplo m&#225;s famoso de una perspectiva computacionalista en la cultura popular es el Test de Turing. En su art&#237;culo fundacional de 1950, Alan Turing, reconocido por todos como el padre de la ciencia de la computaci&#243;n (&#161;las m&#225;quinas de Turing llevan su nombre!), propuso lo que &#233;l llam&#243; "el juego de imitaci&#243;n", un experimento mental para determinar si una computadora estaba pensando.</p><p>En este experimento mental, una computadora y un humano se colocan detr&#225;s de puertas cerradas y solo pueden comunicarse con un segundo humano &#8212;el juez&#8212; a trav&#233;s de una interfaz de chat. El juez puede preguntar lo que quiera a ambos participantes y, en &#250;ltima instancia, debe decidir cu&#225;l es la computadora y cu&#225;l es el humano. Si la computadora logra confundir al juez humano la mayor&#237;a de las veces, entonces &#8212;afirma Turing&#8212; debemos reconocer que la computadora est&#225; realizando algo indistinguible de lo que los humanos llaman pensar. Y seg&#250;n el funcionalismo, eso significa que la computadora <em>est&#225; pensando</em>.</p><p>Ahora que hemos aclarado nuestros conceptos, abordemos la pregunta en s&#237;.</p><h2>&#191;Es cierto el funcionalismo computacional?</h2><p>Ya hemos descartado el contraargumento m&#225;s obvio al computacionalismo: que los cerebros son viscosos mientras que las computadoras no lo son. Pero incluso si ignoramos esta diferencia superficial en la composici&#243;n, todav&#237;a existen importantes diferencias estructurales entre los cerebros y las computadoras existentes que no podemos pasar por alto. Y luego, una vez que aclaremos esos contraargumentos m&#225;s directos, nos centraremos en diferencias m&#225;s matizadas y profundas entre cerebros y computadoras.</p><h3>La independencia de la mente del sustrato</h3><p>Las computadoras tienen una estructura claramente jer&#225;rquica, desde el hardware hasta el software, comenzando en los transistores y construy&#233;ndose hasta los registros, el microprocesador, el kernel, el sistema operativo y las aplicaciones, en una descripci&#243;n muy simplista. Si alguna parte que realiza una funci&#243;n espec&#237;fica se rompe, todo se desmorona.</p><p>El cerebro, por el contrario, parece tener alguna estructura, pero es mucho m&#225;s fluida y flexible. Puedes extirpar regiones enteras del cerebro y, a menudo, se reorganizar&#225; y aprender&#225; a realizar las funciones afectadas casi a la perfecci&#243;n.</p><p>Por otro lado, parece haber una distinci&#243;n clara entre software y hardware en las computadoras, hasta el punto de que puedes mover el software independientemente del hardware. No existe tal cosa en el cerebro; hasta donde sabemos, no podemos simplemente pegar tus pensamientos en alg&#250;n dispositivo port&#225;til y cargarlos en un traje de carne reci&#233;n hecho para obtener una segunda copia tuya.</p><p>&#191;Quiz&#225;s sea esto? Tal vez esta naturaleza interconectada y aparentemente inseparable de los pensamientos y el sustrato en el cerebro es fundamental para la conciencia y la autoconciencia. &#191;Quiz&#225;s mientras puedas sacar la mente del cerebro, no puede ser una mente verdadera?</p><p>Bueno, si este fuera el caso y la mente fuera inseparable del cerebro, esta revelaci&#243;n aniquilar&#237;a la mayor&#237;a de las religiones conocidas. Olv&#237;date de cualquier forma de supervivencia trascendental del alma. Tan pronto como tu cerebro muera, tu mente estar&#225; muerta. No hay subida a la nube, ni metaf&#243;rica ni literalmente. Sin embargo, aunque esto ciertamente podr&#237;a molestar a un mont&#243;n de gente, no soy una persona religiosa, as&#237; que no me preocupa este argumento en particular.</p><p>E incluso si este fuera el caso &#8212;que una mente verdadera debe ser inseparable del sustrato&#8212;, esta aparente separaci&#243;n expl&#237;cita entre hardware y software es, en primer lugar, solo un detalle de implementaci&#243;n y, en segundo lugar, una mentira &#250;til.</p><p>Si miras dentro de un microprocesador moderno, no es trivial distinguir d&#243;nde termina el hardware y d&#243;nde comienza el software. No solo hay c&#243;digo programable ejecut&#225;ndose a nivel de microprocesador sino que, a&#250;n m&#225;s importante, los circuitos l&#243;gicos m&#225;s simples dentro de una computadora son tanto hardware como software al mismo tiempo. La simple disposici&#243;n ingeniosa de transistores en un dise&#241;o espec&#237;fico es suficiente para crear un circuito que suma, multiplica o hace b&#225;sicamente cualquier otra cosa computable. El hardware <em>es</em> el software en estos casos.</p><p>Entonces, aunque algunas cosas &#8212;como los cables&#8212; son claramente hardware y otras &#8212;como el navegador que est&#225;s usando ahora mismo&#8212; son claramente software, simplemente no es cierto que haya un punto de separaci&#243;n claro entre estos dos conceptos. Es solo una abstracci&#243;n &#250;til.</p><p>Y luego tenemos las redes neuronales artificiales, como las que impulsan a ChatGPT. Estos son aproximadores universales, lo que significa que pueden computar cualquier funci&#243;n con un grado arbitrario de precisi&#243;n. Y est&#225;n mucho m&#225;s cerca de esta idea de una arquitectura flexible donde el software y el hardware se entrelazan de maneras que son dif&#237;ciles de diferenciar claramente. Si bien las redes neuronales artificiales modernas est&#225;n lejos de ser una simulaci&#243;n precisa de los cerebros &#8212;y eso es a prop&#243;sito, ni siquiera intentan simular cerebros&#8212;, no hay ninguna raz&#243;n a priori por la que no podamos construir una computadora de silicio que imite perfectamente los procesos f&#237;sicos dentro de un cerebro biol&#243;gico real.</p><p>Esto significa que cualquier ataque al computacionalismo basado en diferencias estructurales de instancias reales de cerebros y computadoras es in&#250;til. No podemos generalizar una afirmaci&#243;n negativa a partir de un conjunto finito de ejemplos negativos. No importa cu&#225;ntas computadoras encuentres que no son cerebros, nunca podr&#225;s estar seguro de que una computadora no pueda, por definici&#243;n, ser equivalente a un cerebro. Este es solo el t&#237;pico problema de la inducci&#243;n, por lo que debemos encontrar otro &#225;ngulo de ataque, algo que apunte a la definici&#243;n fundamental de computadora, en lugar de a cualquier implementaci&#243;n concreta.</p><h3>Sintaxis versus sem&#225;ntica</h3><p>El ataque m&#225;s famoso al computacionalismo es el experimento de la habitaci&#243;n china de John Searle. Est&#225; destinado a ser un contraargumento al juego de imitaci&#243;n de Turing, para demostrar que incluso si un sistema puede simular la comprensi&#243;n sin fallas, es posible que no est&#233; comprendiendo en absoluto. Aqu&#237; tienes un resumen r&#225;pido.</p><p>Supongamos que un hombre es colocado dentro de una habitaci&#243;n, donde no tiene comunicaci&#243;n con el mundo exterior excepto a trav&#233;s de una ventana de "entrada" y otra de "salida". A trav&#233;s de la ventana de entrada, el hombre recibe de vez en cuando hojas de papel con s&#237;mbolos extra&#241;os. Usando un libro presumiblemente muy grande, el &#250;nico trabajo del hombre es seguir un conjunto de instrucciones muy simples que determinan, para cualquier combinaci&#243;n de s&#237;mbolos de entrada, qu&#233; otros s&#237;mbolos extra&#241;os debe escribir en una nueva hoja y enviarla por la ventana de salida.</p><p>Ahora, aqu&#237; est&#225; el giro de la trama. Los s&#237;mbolos de entrada son en realidad preguntas bien escritas en chino, y los s&#237;mbolos de salida son las respuestas correspondientes, totalmente correctas. El enorme libro est&#225; dise&#241;ado de tal manera que, para cada posible pregunta de entrada, se calcular&#225; una respuesta apropiada. Entonces, visto desde afuera, parece que este sistema no solo entiende chino, sino que puede responder cualquier pregunta plausible en este idioma. Sin embargo &#8212;argumenta Searle&#8212;, ni el hombre, ni el libro, ni ninguna parte del sistema entiende realmente las preguntas.</p><p>El punto de Searle es que la sintaxis y la sem&#225;ntica son dos niveles de comprensi&#243;n cualitativamente diferentes, de tal manera que ning&#250;n grado de manipulaci&#243;n sint&#225;ctica &#8212;que es, seg&#250;n Searle, todo lo que una computadora puede hacer&#8212; puede equivaler a comprender realmente la sem&#225;ntica de un mensaje dado. Para todos los expertos hoy en d&#237;a es evidente que ChatGPT solo est&#225; manipulando vectores de una manera que resulta en respuestas mayormente coherentes, pero no hay una "mente" real dentro de ChatGPT que realice ning&#250;n tipo de "comprensi&#243;n".</p><p>En un sentido similar, Searle cree que <em>cualquier computadora es fundamentalmente incapaz de una verdadera comprensi&#243;n</em> en cualquier sentido significativo de la palabra, simplemente porque la computaci&#243;n act&#250;a a nivel sint&#225;ctico y es incapaz de cerrar la brecha hacia la sem&#225;ntica.</p><p>El ataque de Searle es bastante fuerte. No hay mucho que un computacionalista pueda mostrar como defensa m&#225;s que intentar se&#241;alar alg&#250;n lugar en la habitaci&#243;n china donde ocurre la comprensi&#243;n. La mejor defensa de este tipo es afirmar que incluso si ninguna parte del sistema &#8212;ni el hombre, ni el libro, ni la habitaci&#243;n misma&#8212; puede decirse que entiende algo, <em>el sistema en su conjunto</em> s&#237; entiende. Pero esto suena como un argumento del tipo "dios de los huecos", un intento desesperado de encontrar la respuesta donde no la hay.</p><h3>Qualia y conocimiento</h3><p>Otro desaf&#237;o interesante para el computacionalismo es el experimento mental conocido como "La habitaci&#243;n de Mary", concebido por el fil&#243;sofo Frank Jackson. Trata sobre la naturaleza de las experiencias subjetivas &#8212;o qualia&#8212; y cu&#225;n importantes son para fundamentar el conocimiento sobre la realidad. El experimento es el siguiente.</p><p>Mary es una neurocient&#237;fica que ha vivido toda su vida en una habitaci&#243;n en blanco y negro, aprendiendo todo lo que hay que saber sobre la visi&#243;n del color a trav&#233;s de libros y literatura cient&#237;fica. Conoce todos los hechos f&#237;sicos sobre el color y c&#243;mo el cerebro humano procesa los est&#237;mulos visuales. Sin embargo, nunca ha experimentado el color real. Un d&#237;a, finalmente sale de la habitaci&#243;n y ve el color por primera vez. La pregunta es si Mary aprende algo cualitativamente nuevo sobre el color, algo que solo se puede aprender a trav&#233;s de la experiencia directa en lugar de leyendo o estudiando indirectamente el fen&#243;meno de la percepci&#243;n del color.</p><p>Para muchos, la experiencia de Mary es efectivamente cualitativamente nueva. Si piensas as&#237;, esto plantea preguntas cr&#237;ticas para el computacionalismo. Si el computacionalismo afirma que todos los procesos cognitivos pueden reducirse a funciones computacionales, entonces uno podr&#237;a preguntarse si conocer todos los hechos f&#237;sicos sobre un fen&#243;meno es equivalente a experimentarlo. La habitaci&#243;n de Mary sugiere que hay una brecha entre el conocimiento y la experiencia, una que no puede ser cerrada solo por la computaci&#243;n. Esto desaf&#237;a la idea de que una computadora, sin importar cu&#225;n avanzada sea, podr&#237;a genuinamente "saber" o "experimentar" los qualia de la misma manera que un humano.</p><p>Las implicaciones de este experimento mental son profundas para la perspectiva computacionalista. Sugiere que incluso si una computadora pudiera simular todas las funciones de un cerebro, a&#250;n podr&#237;a carecer de las experiencias intr&#237;nsecas y subjetivas que caracterizan la conciencia humana. En otras palabras, mientras que una computadora podr&#237;a procesar informaci&#243;n sobre los colores y responder apropiadamente, no "sabr&#237;a" c&#243;mo es ver el rojo o sentir el calor del sol, experiencias que son inherentemente cualitativas y personales.</p><p>Esta distinci&#243;n entre conocimiento y experiencia subraya una limitaci&#243;n fundamental del computacionalismo: puede explicar la mec&#225;nica de la cognici&#243;n, pero no aborda la riqueza de la experiencia consciente. Como tal, el experimento mental de la habitaci&#243;n de Mary sirve como un recordatorio conmovedor de que entender el cerebro como una computadora puede pasar por alto la naturaleza esencial de los qualia.</p><p>Por otro lado &#8212;podr&#237;as argumentar&#8212;, si Mary realmente sab&#237;a todo lo que se pod&#237;a saber sobre la percepci&#243;n del color excepto "c&#243;mo se siente", &#191;en qu&#233; se diferencia eso de la percepci&#243;n real? En cierto sentido, el cerebro no "experimenta" realmente el color, solo percibe impulsos el&#233;ctricos que est&#225;n correlacionados con la frecuencia de las ondas de luz que llegan a trav&#233;s de nuestros ojos. &#191;No se puede explicar la percepci&#243;n del color como solo otra capa de simulaci&#243;n sobre un cerebro realmente ciego y puramente computacional?</p><p>En cualquier caso, la habitaci&#243;n de Mary no nos impide plantear entidades mec&#225;nicas extremadamente avanzadas que emulen todos los aspectos f&#237;sicos de la percepci&#243;n del color. No hay nada inherentemente no mec&#225;nico en nuestra comprensi&#243;n actual de c&#243;mo la frecuencia de la luz estimula ciertos sensores que producen una se&#241;al el&#233;ctrica en el cerebro. Es la experiencia subjetiva de c&#243;mo se siente ver el rojo lo que no podemos reducir a esa explicaci&#243;n mecanicista. Y esto es precisamente lo que el funcionalismo intenta capturar: si dos mecanismos realizan exactamente las mismas funciones, son lo mismo.</p><h3>Otros ataques</h3><p>Adem&#225;s de los argumentos prominentes contra el computacionalismo, han surgido varias otras cr&#237;ticas que desaf&#237;an la noci&#243;n de equiparar cerebros con computadoras. Dos l&#237;neas de razonamiento notables provienen de las ideas de Roger Penrose sobre la comprensi&#243;n matem&#225;tica y la perspectiva conexionista sobre el razonamiento.</p><h4>La no computabilidad de la creatividad humana</h4><p>Roger Penrose, un renombrado f&#237;sico y matem&#225;tico, argumenta que ciertas intuiciones en matem&#225;ticas son inherentemente no computables. Postula que los matem&#225;ticos humanos pueden comprender conceptos y resolver problemas que trascienden la computaci&#243;n algor&#237;tmica, sugiriendo que hay aspectos del pensamiento humano que no pueden ser replicados por ninguna computadora, independientemente de su complejidad.</p><p>Como ejemplo, Penrose cree que aunque tenemos una prueba formal de que algunos problemas matem&#225;ticos son de hecho irresolubles usando cualquier m&#233;todo de computaci&#243;n efectiva, los matem&#225;ticos humanos pueden invocar algunas habilidades hiper-computacionales para obtener conocimientos sobre estos problemas. En el mismo sentido, muchos proponen que la creatividad y las expresiones art&#237;sticas en los humanos son ejemplos claros de procesos de pensamiento no computables.</p><h4>Argumentos conexionistas contra la manipulaci&#243;n de s&#237;mbolos</h4><p>El conexionismo es una teor&#237;a alternativa de la mente que postula que los procesos mentales pueden entenderse a trav&#233;s de redes de unidades simples (como las neuronas) en lugar de a trav&#233;s de la manipulaci&#243;n simb&#243;lica tradicional. Los defensores del conexionismo argumentan que el razonamiento no requiere necesariamente la representaci&#243;n expl&#237;cita de s&#237;mbolos o la manipulaci&#243;n de esos s&#237;mbolos seg&#250;n reglas formales. En cambio, sugieren que los procesos cognitivos pueden emerger de las interacciones dentro de una red, donde el conocimiento est&#225; distribuido en lugar de localizado.</p><p>Esta perspectiva desaf&#237;a la suposici&#243;n computacionalista de que el razonamiento debe basarse en representaciones estructuradas y manipulaci&#243;n de s&#237;mbolos, proponiendo en cambio que la cognici&#243;n puede surgir de procesos m&#225;s fluidos y din&#225;micos similares a los que se encuentran en las redes neuronales, y que la manipulaci&#243;n simb&#243;lica del tipo que ocurre en un procedimiento algor&#237;tmico tradicional es, en el mejor de los casos, un fen&#243;meno emergente en el cerebro, pero no una caracter&#237;stica necesaria de una mente real.</p><h2>Conclusiones, por ahora</h2><p>&#191;Es el cerebro una computadora? Sinceramente, no lo sabemos. Es una pregunta dif&#237;cil, quiz&#225;s la m&#225;s dif&#237;cil que podamos concebir, porque desaf&#237;a nuestra herramienta m&#225;s valiosa y efectiva para descubrir verdades sobre el mundo: la ciencia. S&#237;gueme por un segundo.</p><p>La ciencia &#8212;entendida como el proceso de generar hip&#243;tesis, producir predicciones a partir de esas hip&#243;tesis y probar los resultados de esas predicciones mediante experimentos para falsificar o validar las hip&#243;tesis&#8212; es fundamentalmente un proceso computacional. Cualquier procedimiento para la verificaci&#243;n experimental debe establecerse en un conjunto de pasos tan simples e inequ&#237;vocos como para ser replicable por otros cient&#237;ficos en todo el mundo, incluso si no hablan nuestro idioma.</p><p>Adem&#225;s, <em>el lenguaje de la ciencia es la matem&#225;tica</em>, el m&#225;s estricto &#8212;y computable&#8212; de todos los lenguajes creados por el ser humano. Y las computadoras tambi&#233;n est&#225;n en todas partes en la ciencia. Hoy es inconcebible realizar cualquier experimento medianamente complejo sin la ayuda de computadoras para ejecutar simulaciones, encontrar patrones y, bueno, computar cosas. La ciencia es profundamente computacional, y siempre lo ha sido. Los padres de la ciencia, Galileo, Newton, Leibniz y el resto, se centraron expl&#237;citamente en fen&#243;menos cuantificables y medibles, las &#250;nicas cosas en las que todos pod&#237;amos estar de acuerdo que eran ciertas.</p><p>Pero el funcionamiento interno de la mente humana y la naturaleza de la conciencia pueden no ser ni medibles ni cuantificables. Incluso cuando terminemos de mapear todas las v&#237;as neuronales del cerebro y descubrir todo lo que sucede a todos los niveles f&#237;sicos en esa materia viscosa, y lo carguemos en una computadora, podr&#237;amos terminar creando simplemente otra Mary, que sabe todo sobre c&#243;mo funciona una mente, pero es incapaz de experimentar verdaderamente c&#243;mo se siente tener una.</p><p>Y la parte triste es que, si ese es el caso &#8212;si la mente es de hecho no computable&#8212;, entonces es posible que nunca lo sepamos con certeza. Despu&#233;s de todo, la mejor herramienta que tenemos para entender c&#243;mo funcionan las cosas &#8212;la ciencia&#8212; puede no ser m&#225;s que un algoritmo elegante.</p><p>O quiz&#225;s, esa es la parte divertida.</p><p class="button-wrapper" data-attrs="{&quot;url&quot;:&quot;https://www.aicuba.org/p/es-el-cerebro-una-computadora/comments&quot;,&quot;text&quot;:&quot;Deja un comentario&quot;,&quot;action&quot;:null,&quot;class&quot;:null}" data-component-name="ButtonCreateButton"><a class="button primary" href="https://www.aicuba.org/p/es-el-cerebro-una-computadora/comments"><span>Deja un comentario</span></a></p><p></p>]]></content:encoded></item><item><title><![CDATA[¿Pueden los Modelos de Lenguajes Razonar?]]></title><description><![CDATA[No&#8212;o, al menos, no del todo. Y quiz&#225; nunca puedan.]]></description><link>https://www.aicuba.org/p/pueden-los-modelos-de-lenguajes-razonar</link><guid isPermaLink="false">https://www.aicuba.org/p/pueden-los-modelos-de-lenguajes-razonar</guid><dc:creator><![CDATA[Alejandro Piad Morffis]]></dc:creator><pubDate>Wed, 13 Aug 2025 12:58:40 GMT</pubDate><enclosure url="https://images.unsplash.com/photo-1522435229388-6f7a422cd95b?crop=entropy&amp;cs=tinysrgb&amp;fit=max&amp;fm=jpg&amp;ixid=M3wzMDAzMzh8MHwxfHNlYXJjaHwyMHx8bW9ua2V5fGVufDB8fHx8MTc1NTA4OTg5OXww&amp;ixlib=rb-4.1.0&amp;q=80&amp;w=1080" length="0" type="image/jpeg"/><content:encoded><![CDATA[<blockquote><p><em>Adaptado del <a href="https://blog.apiad.net/p/reasoning-llms">original </a>con permiso expl&#237;cito del autor.</em></p></blockquote><div class="captioned-image-container"><figure><a class="image-link image2 is-viewable-img" target="_blank" href="https://images.unsplash.com/photo-1522435229388-6f7a422cd95b?crop=entropy&amp;cs=tinysrgb&amp;fit=max&amp;fm=jpg&amp;ixid=M3wzMDAzMzh8MHwxfHNlYXJjaHwyMHx8bW9ua2V5fGVufDB8fHx8MTc1NTA4OTg5OXww&amp;ixlib=rb-4.1.0&amp;q=80&amp;w=1080" data-component-name="Image2ToDOM"><div class="image2-inset"><picture><source type="image/webp" srcset="https://images.unsplash.com/photo-1522435229388-6f7a422cd95b?crop=entropy&amp;cs=tinysrgb&amp;fit=max&amp;fm=jpg&amp;ixid=M3wzMDAzMzh8MHwxfHNlYXJjaHwyMHx8bW9ua2V5fGVufDB8fHx8MTc1NTA4OTg5OXww&amp;ixlib=rb-4.1.0&amp;q=80&amp;w=1080 424w, https://images.unsplash.com/photo-1522435229388-6f7a422cd95b?crop=entropy&amp;cs=tinysrgb&amp;fit=max&amp;fm=jpg&amp;ixid=M3wzMDAzMzh8MHwxfHNlYXJjaHwyMHx8bW9ua2V5fGVufDB8fHx8MTc1NTA4OTg5OXww&amp;ixlib=rb-4.1.0&amp;q=80&amp;w=1080 848w, https://images.unsplash.com/photo-1522435229388-6f7a422cd95b?crop=entropy&amp;cs=tinysrgb&amp;fit=max&amp;fm=jpg&amp;ixid=M3wzMDAzMzh8MHwxfHNlYXJjaHwyMHx8bW9ua2V5fGVufDB8fHx8MTc1NTA4OTg5OXww&amp;ixlib=rb-4.1.0&amp;q=80&amp;w=1080 1272w, https://images.unsplash.com/photo-1522435229388-6f7a422cd95b?crop=entropy&amp;cs=tinysrgb&amp;fit=max&amp;fm=jpg&amp;ixid=M3wzMDAzMzh8MHwxfHNlYXJjaHwyMHx8bW9ua2V5fGVufDB8fHx8MTc1NTA4OTg5OXww&amp;ixlib=rb-4.1.0&amp;q=80&amp;w=1080 1456w" sizes="100vw"><img src="https://images.unsplash.com/photo-1522435229388-6f7a422cd95b?crop=entropy&amp;cs=tinysrgb&amp;fit=max&amp;fm=jpg&amp;ixid=M3wzMDAzMzh8MHwxfHNlYXJjaHwyMHx8bW9ua2V5fGVufDB8fHx8MTc1NTA4OTg5OXww&amp;ixlib=rb-4.1.0&amp;q=80&amp;w=1080" width="4608" height="3072" data-attrs="{&quot;src&quot;:&quot;https://images.unsplash.com/photo-1522435229388-6f7a422cd95b?crop=entropy&amp;cs=tinysrgb&amp;fit=max&amp;fm=jpg&amp;ixid=M3wzMDAzMzh8MHwxfHNlYXJjaHwyMHx8bW9ua2V5fGVufDB8fHx8MTc1NTA4OTg5OXww&amp;ixlib=rb-4.1.0&amp;q=80&amp;w=1080&quot;,&quot;srcNoWatermark&quot;:null,&quot;fullscreen&quot;:null,&quot;imageSize&quot;:null,&quot;height&quot;:3072,&quot;width&quot;:4608,&quot;resizeWidth&quot;:null,&quot;bytes&quot;:null,&quot;alt&quot;:&quot;gray monkey in bokeh photography&quot;,&quot;title&quot;:null,&quot;type&quot;:&quot;image/jpg&quot;,&quot;href&quot;:null,&quot;belowTheFold&quot;:false,&quot;topImage&quot;:true,&quot;internalRedirect&quot;:null,&quot;isProcessing&quot;:false,&quot;align&quot;:null,&quot;offset&quot;:false}" class="sizing-normal" alt="gray monkey in bokeh photography" title="gray monkey in bokeh photography" srcset="https://images.unsplash.com/photo-1522435229388-6f7a422cd95b?crop=entropy&amp;cs=tinysrgb&amp;fit=max&amp;fm=jpg&amp;ixid=M3wzMDAzMzh8MHwxfHNlYXJjaHwyMHx8bW9ua2V5fGVufDB8fHx8MTc1NTA4OTg5OXww&amp;ixlib=rb-4.1.0&amp;q=80&amp;w=1080 424w, https://images.unsplash.com/photo-1522435229388-6f7a422cd95b?crop=entropy&amp;cs=tinysrgb&amp;fit=max&amp;fm=jpg&amp;ixid=M3wzMDAzMzh8MHwxfHNlYXJjaHwyMHx8bW9ua2V5fGVufDB8fHx8MTc1NTA4OTg5OXww&amp;ixlib=rb-4.1.0&amp;q=80&amp;w=1080 848w, https://images.unsplash.com/photo-1522435229388-6f7a422cd95b?crop=entropy&amp;cs=tinysrgb&amp;fit=max&amp;fm=jpg&amp;ixid=M3wzMDAzMzh8MHwxfHNlYXJjaHwyMHx8bW9ua2V5fGVufDB8fHx8MTc1NTA4OTg5OXww&amp;ixlib=rb-4.1.0&amp;q=80&amp;w=1080 1272w, https://images.unsplash.com/photo-1522435229388-6f7a422cd95b?crop=entropy&amp;cs=tinysrgb&amp;fit=max&amp;fm=jpg&amp;ixid=M3wzMDAzMzh8MHwxfHNlYXJjaHwyMHx8bW9ua2V5fGVufDB8fHx8MTc1NTA4OTg5OXww&amp;ixlib=rb-4.1.0&amp;q=80&amp;w=1080 1456w" sizes="100vw" fetchpriority="high"></picture><div class="image-link-expand"><div class="pencraft pc-display-flex pc-gap-8 pc-reset"><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container restack-image"><svg role="img" width="20" height="20" viewBox="0 0 20 20" fill="none" stroke-width="1.5" stroke="var(--color-fg-primary)" stroke-linecap="round" stroke-linejoin="round" xmlns="http://www.w3.org/2000/svg"><g><title></title><path d="M2.53001 7.81595C3.49179 4.73911 6.43281 2.5 9.91173 2.5C13.1684 2.5 15.9537 4.46214 17.0852 7.23684L17.6179 8.67647M17.6179 8.67647L18.5002 4.26471M17.6179 8.67647L13.6473 6.91176M17.4995 12.1841C16.5378 15.2609 13.5967 17.5 10.1178 17.5C6.86118 17.5 4.07589 15.5379 2.94432 12.7632L2.41165 11.3235M2.41165 11.3235L1.5293 15.7353M2.41165 11.3235L6.38224 13.0882"></path></g></svg></button><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container view-image"><svg xmlns="http://www.w3.org/2000/svg" width="20" height="20" viewBox="0 0 24 24" fill="none" stroke="currentColor" stroke-width="2" stroke-linecap="round" stroke-linejoin="round" class="lucide lucide-maximize2 lucide-maximize-2"><polyline points="15 3 21 3 21 9"></polyline><polyline points="9 21 3 21 3 15"></polyline><line x1="21" x2="14" y1="3" y2="10"></line><line x1="3" x2="10" y1="21" y2="14"></line></svg></button></div></div></div></a><figcaption class="image-caption">Photo by <a href="https://unsplash.com/@earbiscuits">Juan Rumimpunu</a> on <a href="https://unsplash.com">Unsplash</a></figcaption></figure></div><p>Los Modelos Grandes de Lenguaje (LLMs), como ChatGPT, Gemini o Claude, nos han dejado con la boca abierta. Pueden escribir poemas, generar c&#243;digo, resumir textos y mantener conversaciones que parecen sorprendentemente humanas. Esto ha llevado a una pregunta inevitable: &#191;est&#225;n estas IAs empezando a "razonar"?</p><p>Cada vez m&#225;s, vemos modelos que se anuncian como "modelos de razonamiento". La idea es que no solo responden, sino que "piensan" los pasos intermedios para llegar a una soluci&#243;n, imitando el proceso mental humano. Y aunque sus resultados en problemas complejos son impresionantes, fallan constantemente en tareas que requieren un razonamiento l&#243;gico y formal estricto.</p><p>Esto nos obliga a preguntarnos: &#191;es solo cuesti&#243;n de tiempo y m&#225;s datos para que razonen perfectamente? &#191;O existe una barrera fundamental en su dise&#241;o que se lo impide? En este art&#237;culo, argumentaremos que, debido a su naturaleza, los LLMs actuales tienen limitaciones intr&#237;nsecas que les impiden, y probablemente siempre les impedir&#225;n, dominar el razonamiento formal.</p><p class="button-wrapper" data-attrs="{&quot;url&quot;:&quot;https://www.aicuba.org/subscribe?&quot;,&quot;text&quot;:&quot;Suscr&#237;bete ahora&quot;,&quot;action&quot;:null,&quot;class&quot;:null}" data-component-name="ButtonCreateButton"><a class="button primary" href="https://www.aicuba.org/subscribe?"><span>Suscr&#237;bete ahora</span></a></p><h3>Primero, &#191;de qu&#233; "razonamiento" estamos hablando?</h3><p>"Razonar" es una palabra con muchos matices. Existe el razonamiento de sentido com&#250;n, el anal&#243;gico, e incluso el emocional. Sin embargo, en el campo de la inteligencia artificial, cuando hablamos de razonamiento, nos referimos a algo mucho m&#225;s espec&#237;fico y medible: el <strong>razonamiento deductivo</strong>.</p><p>Piensa en las matem&#225;ticas o en Sherlock Holmes. El razonamiento deductivo es la capacidad de partir de unas premisas (datos iniciales) y aplicar reglas l&#243;gicas estrictas para llegar a una conclusi&#243;n que es <strong>indudablemente verdadera</strong>. No hay lugar para la ambig&#252;edad.</p><p>As&#237; que, cuando decimos que "los LLMs no pueden razonar", no estamos haciendo un juicio de valor sobre su inteligencia general. Nos referimos a que son incapaces de ejecutar este tipo de deducci&#243;n l&#243;gica de manera fiable.</p><h4>&#161;Pero los humanos tampoco somos l&#243;gicos!</h4><p>Es cierto, los humanos somos a menudo irracionales. Sin embargo, usar esto como excusa para los fallos de la IA es una falacia.</p><ol><li><p><strong>Los humanos s&#237; podemos razonar formalmente:</strong> Aunque nos cueste, nuestro cerebro tiene la capacidad de aprender y aplicar la l&#243;gica deductiva. Lo demuestran dos milenios de matem&#225;ticas y ciencia.</p></li><li><p><strong>No medimos la tecnolog&#237;a con la misma vara:</strong> No aceptar&#237;amos un avi&#243;n que a veces se cae porque "los humanos no podemos volar", o una calculadora que a veces suma mal porque "la gente se equivoca". A la tecnolog&#237;a le exigimos fiabilidad. Para el razonamiento l&#243;gico, ya existen sistemas inform&#225;ticos (llamados "SAT solvers") que son pr&#225;cticamente perfectos y rapid&#237;simos. El list&#243;n ya est&#225; muy alto.</p></li></ol><p>El objetivo es que los LLMs puedan usar el lenguaje natural para acceder a este tipo de razonamiento perfecto, no que simplemente sean "tan buenos como un humano distra&#237;do".</p><h3>Limitaci&#243;n #1: La m&#225;quina de probabilidades</h3><p>La primera barrera, y la m&#225;s importante, es la naturaleza <strong>estoc&#225;stica</strong> (basada en probabilidades) de los LLMs. Un LLM no "entiende" el mundo. Lo que hace es predecir cu&#225;l es la siguiente palabra m&#225;s probable en una secuencia, bas&#225;ndose en los miles de millones de textos con los que fue entrenado.</p><p>El problema es que <strong>la l&#243;gica no funciona con probabilidades, sino con certezas</strong>. Un razonamiento es correcto o incorrecto. No puede ser "m&#225;s o menos plausible". Los LLMs confunden la <strong>plausibilidad</strong> con la <strong>correcci&#243;n</strong>. Si una frase se parece a las frases correctas que vio en su entrenamiento, la considerar&#225; "correcta". Pero en el mundo de la l&#243;gica, una afirmaci&#243;n falsa puede parecerse mucho a una verdadera. Esta es la ra&#237;z de las famosas "alucinaciones": el modelo genera una respuesta que es estad&#237;sticamente plausible, pero factualmente incorrecta.</p><h4>El eslab&#243;n perdido: La validaci&#243;n</h4><p>Aqu&#237; hay una distinci&#243;n clave. Otros sistemas expertos en l&#243;gica tambi&#233;n usan la aleatoriedad, pero de una forma muy diferente. La usan para <em>explorar</em> de forma creativa posibles caminos hacia una soluci&#243;n. Sin embargo, una vez que encuentran un camino candidato, aplican un <strong>proceso de validaci&#243;n 100% determinista y riguroso</strong> para verificar si la soluci&#243;n es correcta.</p><p>Un LLM carece de este paso de validaci&#243;n fiable. Usa su mismo motor probabil&#237;stico tanto para generar la respuesta como para revisarla. El autor del art&#237;culo original lo explica con una genial analog&#237;a: si pones a un mill&#243;n de monos a teclear, eventualmente uno escribir&#225; <em>El Quijote</em>. El problema de los LLMs es que <strong>los monos son tambi&#233;n los editores</strong>. No hay un Shakespeare que filtre el texto bueno del malo.</p><h3>Limitaci&#243;n #2: Un presupuesto de pensamiento fijo</h3><p>La segunda barrera tiene que ver con su arquitectura. Un LLM realiza una cantidad <strong>fija</strong> de operaciones por cada palabra que procesa. Imagina dos acertijos l&#243;gicos que ocupan el mismo espacio. Uno es f&#225;cil y el otro, extremadamente dif&#237;cil. Un LLM dedicar&#225; <strong>exactamente la misma cantidad de esfuerzo computacional a ambos</strong>.</p><p>Esto es un problema fundamental. En computaci&#243;n, hay problemas que, aunque se describan brevemente, requieren una cantidad de c&#225;lculo inmensa. No importa cu&#225;n grande sea un LLM, siempre podremos encontrar un problema que necesite m&#225;s "presupuesto de pensamiento" del que tiene disponible. En esencia, no pueden "sentarse a pensar" indefinidamente hasta dar con la soluci&#243;n; su c&#243;mputo es limitado por tarea.</p><h3>&#191;Y las nuevas t&#233;cnicas?</h3><p>Para superar estas limitaciones, han surgido t&#233;cnicas como la "Cadena de Pensamiento" (Chain-of-Thought o CoT), donde se le pide al modelo que "piense en voz alta" y escriba los pasos intermedios. Si bien esto mejora los resultados, no resuelve el problema de ra&#237;z:</p><ul><li><p><strong>La "Cadena de Pensamiento" sigue siendo probabil&#237;stica:</strong> Cada paso del "razonamiento" es generado por el mismo motor de probabilidades, por lo que puede alucinar en cualquiera de los pasos.</p></li><li><p><strong>La autocr&#237;tica es poco fiable:</strong> La investigaci&#243;n muestra que la capacidad de un LLM para autocorregirse es muy limitada sin feedback externo. Peor a&#250;n, a veces la autocr&#237;tica puede degradar el resultado, haciendo que el modelo se encierre en un ciclo de argumentos err&#243;neos y se vuelva m&#225;s convencido de su conclusi&#243;n incorrecta.</p></li><li><p><strong>Conectar herramientas externas no es la panacea:</strong> Conectar un LLM a una calculadora o un motor l&#243;gico es prometedor. El problema es que el LLM debe "traducir" la pregunta al formato de la herramienta. Si alucina y le pasa datos incorrectos a la calculadora, el resultado ser&#225; incorrecto. Es el cl&#225;sico problema de "basura entra, basura sale".</p></li></ul><h3>La pregunta del mill&#243;n</h3><p>Los modelos m&#225;s recientes como GPT-5, DeepSeek R1, o Gemini 2.5 Pro son realmente impresionantes. Parecen razonar mucho mejor, y resuelven problemas mucho m&#225;s complejos. Sin embargo, representan una <strong>evoluci&#243;n, no una revoluci&#243;n</strong>.</p><p>Estos modelos integran el CoT y la autocr&#237;tica directamente en su entrenamiento, haci&#233;ndolos mucho m&#225;s eficientes y precisos. Pero no cambian la arquitectura fundamental. Siguen siendo sistemas probabil&#237;sticos con un c&#243;mputo limitado. Mitigan los problemas, a veces de forma espectacular, pero no los eliminan por completo.</p><h3>Conclusi&#243;n</h3><p>Los LLMs son una de las tecnolog&#237;as m&#225;s &#250;tiles que hemos creado. Pero no son motores de razonamiento l&#243;gico precisos. Su arquitectura les impone barreras fundamentales para garantizar la correcci&#243;n l&#243;gica.</p><p>Esto nos obliga a ser conscientes de sus l&#237;mites. El objetivo no es tener un "Data" de Star Trek, un ser perfectamente l&#243;gico. Quiz&#225;s lo que estamos construyendo es m&#225;s parecido a "Bender" de Futurama (menos el sarcasmo)&#8212;un asistente incre&#237;blemente h&#225;bil, &#250;til, pero no siempre fiable y que requiere supervisi&#243;n.</p><p>Incluso es posible que este problema sea <strong>incomputable</strong>. Traducir la ambig&#252;edad del lenguaje humano a una soluci&#243;n l&#243;gica perfecta podr&#237;a ser algo que, sencillamente, ninguna m&#225;quina podr&#225; hacer jam&#225;s.</p><p>Quiz&#225;s, el objetivo final no sea reemplazar el juicio humano, sino aumentarlo. Y saber d&#243;nde terminan las capacidades de la herramienta y d&#243;nde debe empezar nuestro propio razonamiento es, y seguir&#225; siendo, la clave.</p><p class="button-wrapper" data-attrs="{&quot;url&quot;:&quot;https://www.aicuba.org/p/pueden-los-modelos-de-lenguajes-razonar/comments&quot;,&quot;text&quot;:&quot;Deja un comentario&quot;,&quot;action&quot;:null,&quot;class&quot;:null}" data-component-name="ButtonCreateButton"><a class="button primary" href="https://www.aicuba.org/p/pueden-los-modelos-de-lenguajes-razonar/comments"><span>Deja un comentario</span></a></p><p></p>]]></content:encoded></item><item><title><![CDATA[Gira de Inteligencia Artificial por toda Cuba]]></title><description><![CDATA[Queremos verte!]]></description><link>https://www.aicuba.org/p/gira-de-inteligencia-artificial-por</link><guid isPermaLink="false">https://www.aicuba.org/p/gira-de-inteligencia-artificial-por</guid><dc:creator><![CDATA[Alejandro Piad Morffis]]></dc:creator><pubDate>Sun, 10 Aug 2025 10:54:51 GMT</pubDate><enclosure url="https://substackcdn.com/image/fetch/$s_!oAJT!,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F3838dc76-786a-4089-9ebd-1c80a104c51b_720x900.jpeg" length="0" type="image/jpeg"/><content:encoded><![CDATA[<div class="captioned-image-container"><figure><a class="image-link image2 is-viewable-img" target="_blank" href="https://substackcdn.com/image/fetch/$s_!oAJT!,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F3838dc76-786a-4089-9ebd-1c80a104c51b_720x900.jpeg" data-component-name="Image2ToDOM"><div class="image2-inset"><picture><source type="image/webp" srcset="https://substackcdn.com/image/fetch/$s_!oAJT!,w_424,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F3838dc76-786a-4089-9ebd-1c80a104c51b_720x900.jpeg 424w, https://substackcdn.com/image/fetch/$s_!oAJT!,w_848,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F3838dc76-786a-4089-9ebd-1c80a104c51b_720x900.jpeg 848w, https://substackcdn.com/image/fetch/$s_!oAJT!,w_1272,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F3838dc76-786a-4089-9ebd-1c80a104c51b_720x900.jpeg 1272w, https://substackcdn.com/image/fetch/$s_!oAJT!,w_1456,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F3838dc76-786a-4089-9ebd-1c80a104c51b_720x900.jpeg 1456w" sizes="100vw"><img src="https://substackcdn.com/image/fetch/$s_!oAJT!,w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F3838dc76-786a-4089-9ebd-1c80a104c51b_720x900.jpeg" width="720" height="900" data-attrs="{&quot;src&quot;:&quot;https://substack-post-media.s3.amazonaws.com/public/images/3838dc76-786a-4089-9ebd-1c80a104c51b_720x900.jpeg&quot;,&quot;srcNoWatermark&quot;:null,&quot;fullscreen&quot;:null,&quot;imageSize&quot;:null,&quot;height&quot;:900,&quot;width&quot;:720,&quot;resizeWidth&quot;:null,&quot;bytes&quot;:50753,&quot;alt&quot;:null,&quot;title&quot;:null,&quot;type&quot;:&quot;image/jpeg&quot;,&quot;href&quot;:null,&quot;belowTheFold&quot;:false,&quot;topImage&quot;:true,&quot;internalRedirect&quot;:&quot;https://aicuba.substack.com/i/170570272?img=https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F3838dc76-786a-4089-9ebd-1c80a104c51b_720x900.jpeg&quot;,&quot;isProcessing&quot;:false,&quot;align&quot;:null,&quot;offset&quot;:false}" class="sizing-normal" alt="" srcset="https://substackcdn.com/image/fetch/$s_!oAJT!,w_424,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F3838dc76-786a-4089-9ebd-1c80a104c51b_720x900.jpeg 424w, https://substackcdn.com/image/fetch/$s_!oAJT!,w_848,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F3838dc76-786a-4089-9ebd-1c80a104c51b_720x900.jpeg 848w, https://substackcdn.com/image/fetch/$s_!oAJT!,w_1272,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F3838dc76-786a-4089-9ebd-1c80a104c51b_720x900.jpeg 1272w, https://substackcdn.com/image/fetch/$s_!oAJT!,w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F3838dc76-786a-4089-9ebd-1c80a104c51b_720x900.jpeg 1456w" sizes="100vw" fetchpriority="high"></picture><div class="image-link-expand"><div class="pencraft pc-display-flex pc-gap-8 pc-reset"><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container restack-image"><svg role="img" width="20" height="20" viewBox="0 0 20 20" fill="none" stroke-width="1.5" stroke="var(--color-fg-primary)" stroke-linecap="round" stroke-linejoin="round" xmlns="http://www.w3.org/2000/svg"><g><title></title><path d="M2.53001 7.81595C3.49179 4.73911 6.43281 2.5 9.91173 2.5C13.1684 2.5 15.9537 4.46214 17.0852 7.23684L17.6179 8.67647M17.6179 8.67647L18.5002 4.26471M17.6179 8.67647L13.6473 6.91176M17.4995 12.1841C16.5378 15.2609 13.5967 17.5 10.1178 17.5C6.86118 17.5 4.07589 15.5379 2.94432 12.7632L2.41165 11.3235M2.41165 11.3235L1.5293 15.7353M2.41165 11.3235L6.38224 13.0882"></path></g></svg></button><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container view-image"><svg xmlns="http://www.w3.org/2000/svg" width="20" height="20" viewBox="0 0 24 24" fill="none" stroke="currentColor" stroke-width="2" stroke-linecap="round" stroke-linejoin="round" class="lucide lucide-maximize2 lucide-maximize-2"><polyline points="15 3 21 3 21 9"></polyline><polyline points="9 21 3 21 3 15"></polyline><line x1="21" x2="14" y1="3" y2="10"></line><line x1="3" x2="10" y1="21" y2="14"></line></svg></button></div></div></div></a></figure></div><p>Tenemos noticias emocionantes que compartir. Un grupo de profesores e investigadores del Grupo de Inteligencia Artificial de la Universidad de La Habana estamos empacando las maletas para embarcarnos en una <strong>gira nacional por cinco provincias de nuestra isla</strong>.</p><p>Nuestro objetivo es simple pero ambicioso: llevar la conversaci&#243;n sobre la Inteligencia Artificial a cada rinc&#243;n, compartir conocimientos, y encontrarnos con todos los profesionales, emprendedores y curiosos interesados en esta tecnolog&#237;a que est&#225; cambiando el mundo. Queremos crear un espacio para aprender, debatir y, sobre todo, colaborar.</p><p class="button-wrapper" data-attrs="{&quot;url&quot;:&quot;https://www.aicuba.org/subscribe?&quot;,&quot;text&quot;:&quot;Suscr&#237;bete ahora&quot;,&quot;action&quot;:null,&quot;class&quot;:null}" data-component-name="ButtonCreateButton"><a class="button primary" href="https://www.aicuba.org/subscribe?"><span>Suscr&#237;bete ahora</span></a></p><h2>Nuestro Itinerario</h2><p>Estaremos visitando las siguientes provincias en estas fechas. &#161;Anota en tu calendario!</p><ul><li><p><strong>Guant&#225;namo:</strong> 11 de agosto</p></li><li><p><strong>Santiago de Cuba:</strong> 13 de agosto</p></li><li><p><strong>Las Tunas:</strong> 15 de agosto</p></li><li><p><strong>Sancti Sp&#237;ritus:</strong> 18 de agosto</p></li><li><p><strong>Cienfuegos:</strong> 20 de agosto</p></li></ul><h2>&#191;Qu&#233; haremos en cada provincia?</h2><p>En cada parada de nuestro tour, ofreceremos un programa variado de actividades dise&#241;adas para diferentes p&#250;blicos:</p><ul><li><p><strong>Conferencias Abiertas:</strong> Daremos una charla titulada <strong>"IA: Retos y Oportunidades"</strong>, donde exploraremos el estado actual de la IA y c&#243;mo podemos impulsarla desde Cuba. Tambi&#233;n presentaremos nuestro proyecto <strong>"Cecilia, un Modelo de Lenguaje Cubano"</strong>, para los m&#225;s interesados en el desarrollo t&#233;cnico.</p></li><li><p><strong>Entrenamientos Especializados:</strong> Impartiremos tres talleres pr&#225;cticos de 4 horas cada uno:</p><ul><li><p><strong>Para no especialistas:</strong> Una introducci&#243;n a los modelos de lenguaje (LLMs) y c&#243;mo usarlos en tu d&#237;a a d&#237;a.</p></li><li><p><strong>Para desarrolladores:</strong> Aprenderemos a desarrollar aplicaciones utilizando LLMs con herramientas de c&#243;digo abierto.</p></li><li><p><strong>Para docentes:</strong> Exploraremos c&#243;mo la IA puede ser una aliada para crear contenido educativo, planes de clase y evaluaciones.</p></li></ul></li><li><p><strong>Taller de Creaci&#243;n de Proyectos:</strong> Facilitaremos un taller interactivo para generar ideas y dise&#241;ar proyectos de IA que puedan tener un impacto positivo y real en cada provincia.</p></li></ul><h2>&#191;C&#243;mo puedes participar?</h2><p>&#161;Queremos verte all&#237;! Para conocer los horarios, las sedes exactas y c&#243;mo inscribirte en las actividades de tu provincia, te invitamos a ponerte en contacto con el <strong>Presidente de la Uni&#243;n de Inform&#225;ticos de Cuba (UIC) de tu territorio o con las autoridades locales del gobierno</strong>. Ellos tendr&#225;n toda la informaci&#243;n detallada.</p><p>Esta es una oportunidad &#250;nica para conectar y construir juntos el futuro de la inteligencia artificial en Cuba.</p><p>&#161;Nos vemos en la carretera!</p>]]></content:encoded></item><item><title><![CDATA[Breve Historia de la Inteligencia Artificial]]></title><description><![CDATA[Un recorrido rel&#225;mpago por los 60 a&#241;os de desarrollo del campo]]></description><link>https://www.aicuba.org/p/breve-historia-de-la-inteligencia</link><guid isPermaLink="false">https://www.aicuba.org/p/breve-historia-de-la-inteligencia</guid><dc:creator><![CDATA[Alejandro Piad Morffis]]></dc:creator><pubDate>Sat, 09 Aug 2025 13:34:04 GMT</pubDate><enclosure url="https://images.unsplash.com/photo-1694903110330-cc64b7e1d21d?crop=entropy&amp;cs=tinysrgb&amp;fit=max&amp;fm=jpg&amp;ixid=M3wzMDAzMzh8MHwxfHNlYXJjaHw5fHxhaXxlbnwwfHx8fDE3NTQ2ODYyNzN8MA&amp;ixlib=rb-4.1.0&amp;q=80&amp;w=1080" length="0" type="image/jpeg"/><content:encoded><![CDATA[<blockquote><p>El siguiente art&#237;culo ha sido adaptado del libro <em>Inteligencia Artificial: Mayormente Inofensiva</em>, en proceso de edici&#243;n.</p><p>Si quieres ser el primero en leer la versi&#243;n digital de este libro, suscribete a este newsletter.</p><p class="button-wrapper" data-attrs="{&quot;url&quot;:&quot;https://www.aicuba.org/subscribe?&quot;,&quot;text&quot;:&quot;Suscr&#237;bete ahora&quot;,&quot;action&quot;:null,&quot;class&quot;:null}" data-component-name="ButtonCreateButton"><a class="button primary" href="https://www.aicuba.org/subscribe?"><span>Suscr&#237;bete ahora</span></a></p></blockquote><p></p><div class="captioned-image-container"><figure><a class="image-link image2 is-viewable-img" target="_blank" href="https://images.unsplash.com/photo-1694903110330-cc64b7e1d21d?crop=entropy&amp;cs=tinysrgb&amp;fit=max&amp;fm=jpg&amp;ixid=M3wzMDAzMzh8MHwxfHNlYXJjaHw5fHxhaXxlbnwwfHx8fDE3NTQ2ODYyNzN8MA&amp;ixlib=rb-4.1.0&amp;q=80&amp;w=1080" data-component-name="Image2ToDOM"><div class="image2-inset"><picture><source type="image/webp" srcset="https://images.unsplash.com/photo-1694903110330-cc64b7e1d21d?crop=entropy&amp;cs=tinysrgb&amp;fit=max&amp;fm=jpg&amp;ixid=M3wzMDAzMzh8MHwxfHNlYXJjaHw5fHxhaXxlbnwwfHx8fDE3NTQ2ODYyNzN8MA&amp;ixlib=rb-4.1.0&amp;q=80&amp;w=1080 424w, https://images.unsplash.com/photo-1694903110330-cc64b7e1d21d?crop=entropy&amp;cs=tinysrgb&amp;fit=max&amp;fm=jpg&amp;ixid=M3wzMDAzMzh8MHwxfHNlYXJjaHw5fHxhaXxlbnwwfHx8fDE3NTQ2ODYyNzN8MA&amp;ixlib=rb-4.1.0&amp;q=80&amp;w=1080 848w, https://images.unsplash.com/photo-1694903110330-cc64b7e1d21d?crop=entropy&amp;cs=tinysrgb&amp;fit=max&amp;fm=jpg&amp;ixid=M3wzMDAzMzh8MHwxfHNlYXJjaHw5fHxhaXxlbnwwfHx8fDE3NTQ2ODYyNzN8MA&amp;ixlib=rb-4.1.0&amp;q=80&amp;w=1080 1272w, https://images.unsplash.com/photo-1694903110330-cc64b7e1d21d?crop=entropy&amp;cs=tinysrgb&amp;fit=max&amp;fm=jpg&amp;ixid=M3wzMDAzMzh8MHwxfHNlYXJjaHw5fHxhaXxlbnwwfHx8fDE3NTQ2ODYyNzN8MA&amp;ixlib=rb-4.1.0&amp;q=80&amp;w=1080 1456w" sizes="100vw"><img src="https://images.unsplash.com/photo-1694903110330-cc64b7e1d21d?crop=entropy&amp;cs=tinysrgb&amp;fit=max&amp;fm=jpg&amp;ixid=M3wzMDAzMzh8MHwxfHNlYXJjaHw5fHxhaXxlbnwwfHx8fDE3NTQ2ODYyNzN8MA&amp;ixlib=rb-4.1.0&amp;q=80&amp;w=1080" width="7680" height="4320" data-attrs="{&quot;src&quot;:&quot;https://images.unsplash.com/photo-1694903110330-cc64b7e1d21d?crop=entropy&amp;cs=tinysrgb&amp;fit=max&amp;fm=jpg&amp;ixid=M3wzMDAzMzh8MHwxfHNlYXJjaHw5fHxhaXxlbnwwfHx8fDE3NTQ2ODYyNzN8MA&amp;ixlib=rb-4.1.0&amp;q=80&amp;w=1080&quot;,&quot;srcNoWatermark&quot;:null,&quot;fullscreen&quot;:null,&quot;imageSize&quot;:null,&quot;height&quot;:4320,&quot;width&quot;:7680,&quot;resizeWidth&quot;:null,&quot;bytes&quot;:null,&quot;alt&quot;:&quot;two hands touching each other in front of a pink background&quot;,&quot;title&quot;:null,&quot;type&quot;:&quot;image/jpg&quot;,&quot;href&quot;:null,&quot;belowTheFold&quot;:false,&quot;topImage&quot;:true,&quot;internalRedirect&quot;:null,&quot;isProcessing&quot;:false,&quot;align&quot;:null,&quot;offset&quot;:false}" class="sizing-normal" alt="two hands touching each other in front of a pink background" title="two hands touching each other in front of a pink background" srcset="https://images.unsplash.com/photo-1694903110330-cc64b7e1d21d?crop=entropy&amp;cs=tinysrgb&amp;fit=max&amp;fm=jpg&amp;ixid=M3wzMDAzMzh8MHwxfHNlYXJjaHw5fHxhaXxlbnwwfHx8fDE3NTQ2ODYyNzN8MA&amp;ixlib=rb-4.1.0&amp;q=80&amp;w=1080 424w, https://images.unsplash.com/photo-1694903110330-cc64b7e1d21d?crop=entropy&amp;cs=tinysrgb&amp;fit=max&amp;fm=jpg&amp;ixid=M3wzMDAzMzh8MHwxfHNlYXJjaHw5fHxhaXxlbnwwfHx8fDE3NTQ2ODYyNzN8MA&amp;ixlib=rb-4.1.0&amp;q=80&amp;w=1080 848w, https://images.unsplash.com/photo-1694903110330-cc64b7e1d21d?crop=entropy&amp;cs=tinysrgb&amp;fit=max&amp;fm=jpg&amp;ixid=M3wzMDAzMzh8MHwxfHNlYXJjaHw5fHxhaXxlbnwwfHx8fDE3NTQ2ODYyNzN8MA&amp;ixlib=rb-4.1.0&amp;q=80&amp;w=1080 1272w, https://images.unsplash.com/photo-1694903110330-cc64b7e1d21d?crop=entropy&amp;cs=tinysrgb&amp;fit=max&amp;fm=jpg&amp;ixid=M3wzMDAzMzh8MHwxfHNlYXJjaHw5fHxhaXxlbnwwfHx8fDE3NTQ2ODYyNzN8MA&amp;ixlib=rb-4.1.0&amp;q=80&amp;w=1080 1456w" sizes="100vw" fetchpriority="high"></picture><div class="image-link-expand"><div class="pencraft pc-display-flex pc-gap-8 pc-reset"><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container restack-image"><svg role="img" width="20" height="20" viewBox="0 0 20 20" fill="none" stroke-width="1.5" stroke="var(--color-fg-primary)" stroke-linecap="round" stroke-linejoin="round" xmlns="http://www.w3.org/2000/svg"><g><title></title><path d="M2.53001 7.81595C3.49179 4.73911 6.43281 2.5 9.91173 2.5C13.1684 2.5 15.9537 4.46214 17.0852 7.23684L17.6179 8.67647M17.6179 8.67647L18.5002 4.26471M17.6179 8.67647L13.6473 6.91176M17.4995 12.1841C16.5378 15.2609 13.5967 17.5 10.1178 17.5C6.86118 17.5 4.07589 15.5379 2.94432 12.7632L2.41165 11.3235M2.41165 11.3235L1.5293 15.7353M2.41165 11.3235L6.38224 13.0882"></path></g></svg></button><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container view-image"><svg xmlns="http://www.w3.org/2000/svg" width="20" height="20" viewBox="0 0 24 24" fill="none" stroke="currentColor" stroke-width="2" stroke-linecap="round" stroke-linejoin="round" class="lucide lucide-maximize2 lucide-maximize-2"><polyline points="15 3 21 3 21 9"></polyline><polyline points="9 21 3 21 3 15"></polyline><line x1="21" x2="14" y1="3" y2="10"></line><line x1="3" x2="10" y1="21" y2="14"></line></svg></button></div></div></div></a><figcaption class="image-caption">Photo by <a href="https://unsplash.com/@omilaev">Igor Omilaev</a> on <a href="https://unsplash.com">Unsplash</a></figcaption></figure></div><p>La idea de una m&#225;quina pensante ha cautivado a la humanidad durante siglos. No se trata de una obsesi&#243;n tecnol&#243;gica moderna, a pesar de la atenci&#243;n que recibe en la actualidad. El antiguo sue&#241;o de construir aut&#243;matas se remonta a los mitos sobre golems y haza&#241;as de la ingenier&#237;a como el Turco Mec&#225;nico.</p><p>Uno de los aspectos m&#225;s fascinantes de la historia de la Inteligencia Artificial (IA) ha sido la tensi&#243;n dial&#233;ctica entre dos enfoques fundamentales y aparentemente antag&#243;nicos. Por un lado, se encuentra la IA simb&#243;lica, basada en la l&#243;gica y las reglas; por otro, la IA estad&#237;stica, centrada en los datos y los patrones. Este debate refleja la disputa filos&#243;fica entre el racionalismo, que postula que el conocimiento se adquiere a trav&#233;s de la raz&#243;n pura, y el empirismo, que sostiene que se aprende de la experiencia.</p><p>En este art&#237;culo se explorar&#225; la historia de la IA desde la perspectiva de esta dualidad, para comprender c&#243;mo estas filosof&#237;as han moldeado su pasado, definido su presente y, finalmente, comienzan a converger para dar forma a su futuro.</p><h2>La Era Fundacional (d&#233;cada de 1950 &#8211; finales de la d&#233;cada de 1960)</h2><p>La historia de la IA como campo cient&#237;fico comienza formalmente en el verano de 1956, cuando un grupo de investigadores, entre ellos John McCarthy, Marvin Minsky, Nathaniel Rochester y Claude Shannon, se reuni&#243; en el Dartmouth College. En este evento, conocido como el Proyecto de Investigaci&#243;n de Verano de Dartmouth sobre Inteligencia Artificial, se acu&#241;&#243; oficialmente el t&#233;rmino "Inteligencia Artificial". El taller estableci&#243; a la IA como una disciplina acad&#233;mica leg&#237;tima con un objetivo ambicioso: construir m&#225;quinas capaces de pensar como los seres humanos.</p><p>En estos primeros a&#241;os, el paradigma dominante fue la IA simb&#243;lica. Los investigadores cre&#237;an que la inteligencia artificial se pod&#237;a alcanzar codificando el conocimiento y el razonamiento humano en reglas expl&#237;citas. Una de las demostraciones m&#225;s notables de este enfoque fue <em>The Logic Theorist</em>, un programa que pod&#237;a probar teoremas matem&#225;ticos utilizando l&#243;gica simb&#243;lica, imitando la forma en que los humanos resuelven problemas.</p><p>Los juegos de mesa tambi&#233;n se convirtieron en un campo de pruebas para la IA simb&#243;lica. Algoritmos como Minimax permitieron a las primeras computadoras jugar al ajedrez y a las damas explorando todos los movimientos posibles. Proyectos como el General Problem Solver buscaban resolver cualquier problema matem&#225;tico formalmente decidible, partiendo de la premisa de que si se pod&#237;an escribir todas las reglas, la m&#225;quina ser&#237;a lo suficientemente inteligente como para encontrar la soluci&#243;n.</p><p>Fue en esta &#233;poca cuando ELIZA, el primer chatbot, captur&#243; la imaginaci&#243;n del p&#250;blico. Desarrollado a mediados de la d&#233;cada de 1960, ELIZA simulaba ser un psicoterapeuta rogeriano utilizando simples reglas de coincidencia de patrones. A pesar de su simplicidad, muchos usuarios sent&#237;an que ELIZA los comprend&#237;a, un fen&#243;meno que se conoci&#243; como el "efecto ELIZA". Este sistema, puramente simb&#243;lico, encendi&#243; el sue&#241;o de una IA verdaderamente conversacional.</p><p>Paralelamente, una idea diferente comenz&#243; a tomar forma: el conexionismo. Inspirado en la biolog&#237;a, este enfoque sosten&#237;a que neuronas simples pod&#237;an conectarse para formar sistemas inteligentes. El Perceptr&#243;n, una de las primeras redes neuronales artificiales, fue dise&#241;ado para aprender patrones directamente de los datos. Esta perspectiva, alineada con el empirismo, promet&#237;a una inteligencia que no requer&#237;a una programaci&#243;n expl&#237;cita de cada regla.</p><p>Sin embargo, el optimismo inicial no dur&#243;. Los sistemas simb&#243;licos resultaron ser fr&#225;giles y no pod&#237;an adaptarse a situaciones fuera de sus reglas programadas. Por su parte, los perceptrones se encontraron con limitaciones te&#243;ricas, como su incapacidad para representar relaciones no lineales complejas. Este estancamiento condujo al "Primer Invierno de la IA", un per&#237;odo de reducci&#243;n de la financiaci&#243;n y el inter&#233;s p&#250;blico.</p><h2>La Era del Conocimiento (d&#233;cada de 1970 &#8211; mediados de la d&#233;cada de 1990)</h2><p>Tras el primer invierno, los m&#233;todos simb&#243;licos resurgieron con fuerza. Durante las d&#233;cadas de 1970 y 1980, los sistemas expertos alcanzaron el &#233;xito comercial. Estos programas de IA imitaban la toma de decisiones de un experto humano en un dominio espec&#237;fico y acotado, como el diagn&#243;stico de infecciones sangu&#237;neas (MYCIN) o la configuraci&#243;n de sistemas inform&#225;ticos (XCON). El objetivo era capturar y representar el conocimiento humano mediante reglas y hechos elaborados a mano.</p><p>Estos sistemas utilizaban sofisticados motores de inferencia para aplicar dichas reglas y extraer conclusiones, llevando el enfoque racionalista a su m&#225;xima expresi&#243;n.</p><p>Mientras tanto, la investigaci&#243;n en redes neuronales continuaba discretamente. Un avance fundamental fue la popularizaci&#243;n del algoritmo de retropropagaci&#243;n (backpropagation) a mediados de la d&#233;cada de 1980, que proporcion&#243; una forma eficiente de entrenar redes neuronales multicapa y superar as&#237; sus limitaciones anteriores.</p><p>Sin embargo, los sistemas expertos tambi&#233;n mostraron sus debilidades. Eran extremadamente costosos de construir y mantener, y su naturaleza simb&#243;lica los hac&#237;a incre&#237;blemente fr&#225;giles ante cualquier cambio fuera de su dominio programado. La constataci&#243;n de que la IA simb&#243;lica no pod&#237;a escalar a la complejidad del mundo real, sumada a la insuficiencia de datos e infraestructura computacional para la IA estad&#237;stica, condujo al "Segundo Invierno de la IA".</p><h2>La Era de Internet (finales de la d&#233;cada de 1990 &#8211; principios de la de 2010)</h2><p>La llegada de Internet lo cambi&#243; todo. La explosi&#243;n de datos digitales cre&#243; el combustible que la IA estad&#237;stica necesitaba. Con enormes vol&#250;menes de datos y mayor poder de c&#243;mputo, algoritmos de aprendizaje autom&#225;tico dise&#241;ados d&#233;cadas atr&#225;s comenzaron a funcionar de manera efectiva.</p><p>T&#233;cnicas como las m&#225;quinas de vectores de soporte (SVM) y los &#225;rboles de decisi&#243;n se hicieron populares, impulsando aplicaciones del mundo real. Los motores de b&#250;squeda las utilizaron para clasificar p&#225;ginas web, los proveedores de correo para filtrar spam y los sitios de comercio electr&#243;nico para recomendar productos.</p><p>La IA simb&#243;lica no desapareci&#243;, sino que encontr&#243; nuevos roles. Las ontolog&#237;as y la web sem&#225;ntica ofrecieron formas de estructurar la informaci&#243;n, a menudo en colaboraci&#243;n con m&#233;todos estad&#237;sticos. El Knowledge Graph de Google es un claro ejemplo de esta sinergia, permiti&#233;ndole dominar la industria de las b&#250;squedas.</p><p>Fue tambi&#233;n en esta &#233;poca cuando comenzaron a manifestarse los primeros efectos negativos de la IA, como las burbujas de filtro y las c&#225;maras de eco creadas por los sistemas de recomendaci&#243;n. Estos sistemas, al reflejar sesgos existentes en los datos, demostraron que incluso aplicaciones aparentemente inofensivas pod&#237;an tener un impacto social significativo.</p><h2>La Era del Aprendizaje Profundo (mediados de la d&#233;cada de 2010 &#8211; principios de la de 2020)</h2><p>A mediados de la d&#233;cada de 2010, el Aprendizaje Profundo (Deep Learning) represent&#243; un salto cualitativo para la IA. El punto de inflexi&#243;n lleg&#243; en 2012, cuando una red neuronal convolucional profunda llamada AlexNet gan&#243; el desaf&#237;o de reconocimiento visual ImageNet con un rendimiento sorprendente.</p><p>AlexNet demostr&#243; el poder de las redes neuronales profundas para aprender caracter&#237;sticas complejas a partir de datos masivos, consolidando el enfoque empirista. El aprendizaje profundo se expandi&#243; r&#225;pidamente al procesamiento del lenguaje natural, el reconocimiento de voz y el aprendizaje por refuerzo. Un hito fue la victoria de AlphaGo de Google DeepMind sobre los mejores jugadores de Go del mundo, combinando la b&#250;squeda de &#225;rbol Monte Carlo con el aprendizaje profundo para abordar un problema considerado inabordable para la IA simb&#243;lica tradicional.</p><p>Este per&#237;odo dio lugar a una realizaci&#243;n cr&#237;tica conocida como "La Lecci&#243;n Amarga" (<em>The Bitter Lesson</em>), acu&#241;ada por Rich Sutton. Sostiene que, a largo plazo, los m&#233;todos generales que aprovechan la computaci&#243;n masiva tienden a ser m&#225;s robustos que aquellos que intentan incorporar conocimiento humano de forma artesanal.</p><p>En 2017, la arquitectura Transformer revolucion&#243; el procesamiento del lenguaje natural gracias a su innovador mecanismo de atenci&#243;n. Esto allan&#243; el camino para los Modelos de Lenguaje Grandes (LLM), como BERT y las primeras versiones de GPT. Nada de esto hubiera sido posible sin los avances en hardware (GPU y TPU) y la democratizaci&#243;n del conocimiento a trav&#233;s de marcos de c&#243;digo abierto como TensorFlow y PyTorch.</p><h2>La Era Generativa (principios de la d&#233;cada de 2020 &#8211; presente)</h2><p>Hoy nos encontramos en la era generativa. La llegada de ChatGPT en 2022, junto con modelos como DALL-E y Midjourney, ha permitido que la IA no solo analice, sino que tambi&#233;n cree contenido novedoso y coherente, desde texto hasta im&#225;genes y c&#243;digo.</p><p>Esta era cierra el c&#237;rculo que comenz&#243; con ELIZA. Mientras que aquel chatbot se basaba en reglas simples, ChatGPT es una maravilla estad&#237;stica que ha aprendido el lenguaje humano a partir de cantidades masivas de datos.</p><p>Sin embargo, las limitaciones inherentes de estos modelos estad&#237;sticos &#8212;como las alucinaciones y la falta de un razonamiento robusto&#8212; han renovado el inter&#233;s en la IA neuro-simb&#243;lica. Este campo emergente no busca elegir un bando, sino integrar lo mejor de ambos mundos: el poder de reconocimiento de patrones de los modelos estad&#237;sticos con el razonamiento l&#243;gico y el conocimiento estructurado de la IA simb&#243;lica.</p><h2>Conclusiones</h2><p>La historia de la IA ha sido un din&#225;mico recorrido entre la l&#243;gica precisa de la IA simb&#243;lica y el poder adaptable de la IA estad&#237;stica. Hoy, el futuro no parece residir en la victoria de un enfoque sobre el otro, sino en su combinaci&#243;n inteligente. Los enfoques h&#237;bridos, como la IA neuro-simb&#243;lica, prometen construir sistemas que no solo sean inteligentes, sino tambi&#233;n robustos, explicables y capaces de un verdadero razonamiento de sentido com&#250;n.</p><p>Al mismo tiempo, el inmenso poder de estos sistemas nos obliga a enfrentar serios desaf&#237;os &#233;ticos, desde la difusi&#243;n de desinformaci&#243;n y la amplificaci&#243;n de sesgos hasta las implicaciones existenciales de crear entidades aut&#243;nomas superinteligentes.</p><p>La historia de la Inteligencia Artificial est&#225; lejos de haber terminado. Es un proyecto vivo que abarca todas las &#225;reas del quehacer humano. Existe un lugar en este campo para tecn&#243;logos, pero tambi&#233;n para humanistas, economistas, historiadores, artistas y pol&#237;ticos. Los pr&#243;ximos a&#241;os prometen ser extraordinariamente emocionantes.</p>]]></content:encoded></item><item><title><![CDATA[AI Cuba: Boletín Semanal]]></title><description><![CDATA[1-7 de Agosto de 2025]]></description><link>https://www.aicuba.org/p/ai-cuba-boletin-semanal</link><guid isPermaLink="false">https://www.aicuba.org/p/ai-cuba-boletin-semanal</guid><dc:creator><![CDATA[Alejandro Piad Morffis]]></dc:creator><pubDate>Fri, 08 Aug 2025 11:03:42 GMT</pubDate><enclosure url="https://substackcdn.com/image/fetch/$s_!prWS!,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F6557e140-a1f1-4e42-84b5-daffdc7777ab_1024x1024.png" length="0" type="image/jpeg"/><content:encoded><![CDATA[<p>&#161;Hola a todos! </p><p>Inauguramos esta secci&#243;n del newsletter <a href="https://aicuba.substack.com">AI Cuba</a> con una semana marcada por tensiones y contradicciones que definen el presente y futuro de la inteligencia artificial. Desde la automatizaci&#243;n del descubrimiento cient&#237;fico hasta la formalizaci&#243;n de una nueva guerra fr&#237;a tecnol&#243;gica, analizamos las tres historias que no puedes ignorar y lo que significan para nuestra regi&#243;n.</p><p class="button-wrapper" data-attrs="{&quot;url&quot;:&quot;https://www.aicuba.org/subscribe?&quot;,&quot;text&quot;:&quot;Suscr&#237;bete ahora&quot;,&quot;action&quot;:null,&quot;class&quot;:null}" data-component-name="ButtonCreateButton"><a class="button primary" href="https://www.aicuba.org/subscribe?"><span>Suscr&#237;bete ahora</span></a></p><h2><strong>La Columna del Editor</strong></h2><p>Comenzamos con una mirada cr&#237;tica a las tres noticias que consideramos m&#225;s relevantes de la semana.</p><h3><strong>El Nacimiento del "Cient&#237;fico de IA": &#191;Promesa o Espejismo?</strong> </h3><p>Esta semana vimos la consolidaci&#243;n de un nuevo y provocador paradigma: la IA que no solo analiza datos, sino que intenta <a href="https://arxiv.org/abs/2507.01903">formular hip&#243;tesis, dise&#241;ar experimentos y verificar sus propios descubrimientos</a>. La idea de un "Cient&#237;fico de IA" es potente. Para Am&#233;rica Latina, sugiere una v&#237;a para que nuestras <a href="https://www.ambito.com/tecnologia/universidades-america-latina-lideran-la-revolucion-tecnologica-ia-n6174614">universidades y centros de investigaci&#243;n</a> puedan superar barreras de financiamiento y acelerar la innovaci&#243;n.</p><p>Sin embargo, es crucial inyectar una dosis de pensamiento cr&#237;tico aqu&#237;. Seamos claros: un verdadero "Cient&#237;fico de IA" aut&#243;nomo est&#225;, por ahora, lejos de ser una realidad. Los Modelos de Lenguaje Grandes (LLM) que impulsan estos prototipos arrastran problemas fundamentales como las <a href="https://blog.apiad.net/p/reasoning-llms">alucinaciones y los sesgos</a>. </p><p>Debemos preguntarnos: &#191;c&#243;mo se manifiestan estos errores en un contexto cient&#237;fico? Una alucinaci&#243;n podr&#237;a generar una hip&#243;tesis completamente falsa pero plausible, desviando recursos valiosos. Los sesgos en los datos de entrenamiento podr&#237;an perpetuar o incluso amplificar desigualdades en la investigaci&#243;n m&#233;dica o social.</p><p>Por tanto, aunque el avance es innegable, debemos tener cuidado de no extrapolar demasiado r&#225;pido de un prototipo de investigaci&#243;n a un producto realmente usable y fiable. El verdadero desaf&#237;o no es solo construir estos sistemas, sino tambi&#233;n desarrollar los marcos para validar rigurosamente sus resultados y entender sus limitaciones. </p><h3><strong>La Paradoja de OpenAI: Democratizaci&#243;n Calculada y Miedo Estrat&#233;gico.</strong></h3><p> OpenAI, el l&#237;der del mercado, ha hecho un movimiento de ajedrez magistral. Por un lado, <a href="https://www.theguardian.com/technology/2025/aug/05/openai-meta-launching-free-customisable-ai-models">liber&#243; modelos de "peso abierto" muy potentes</a>, d&#225;ndole a los desarrolladores una herramienta incre&#237;ble para innovar localmente, sorteando barreras econ&#243;micas y comerciales. </p><p>Esto podr&#237;a ser el impulso que necesitan iniciativas como "LatamGPT". Pero, simult&#225;neamente, su CEO, Sam Altman, <a href="https://timesofindia.indiatimes.com/world/us/openai-ceo-sam-altmans-biggest-fear-chatgpt-5-is-coming-in-august-and-altman-is-scared-know-why/articleshow/123034747.cms">expresa un temor casi apocal&#237;ptico sobre su pr&#243;ximo modelo, GPT-5</a>, compar&#225;ndolo con el Proyecto Manhattan. </p><p>No nos enga&#241;emos: es una estrategia. Al regalar la tecnolog&#237;a de ayer, deval&#250;an a la competencia. Al generar miedo sobre la de ma&#241;ana, justifican mantenerla cerrada y propietaria, asegurando que cuando necesitemos el m&#225;ximo poder, tengamos que volver a ellos. Es una jugada para consolidar su dominio a largo plazo.</p><h3><strong>Se Formaliza la "Guerra Fr&#237;a" de la IA: Dominaci&#243;n vs. Derechos.</strong> </h3><p>El tablero geopol&#237;tico se ha definido con dos movimientos clave. Por un lado, la Casa Blanca lanz&#243; su <a href="https://www.whitehouse.gov/articles/2025/07/white-house-unveils-americas-ai-action-plan/">"America's AI Action Plan"</a>, una estrategia de desregulaci&#243;n agresiva para ganar la carrera de la IA y exportar su tecnolog&#237;a a amigos y aliados.</p><p>Por otro lado, la <a href="https://www.dlapiper.com/en-hk/insights/publications/2025/08/latest-wave-of-obligations-under-the-eu-ai-act-take-effect">Ley de IA de la Uni&#243;n Europea entr&#243; en vigor</a>, con un enfoque basado en derechos y un alcance global. Am&#233;rica Latina se encuentra en medio de esta batalla, con la mayor&#237;a de sus <a href="https://americasquarterly.org/article/regulating-ai-on-latin-americas-terms/">proyectos regulatorios inspirados en el modelo europeo</a>. </p><p>La regi&#243;n debe decidir si se alinea con el bloque de la dominaci&#243;n a cambio de tecnolog&#237;a, o con el de los principios, asumiendo mayores costos. La forma en que naveguemos esta fractura definir&#225; nuestra autonom&#237;a digital para las pr&#243;ximas d&#233;cadas.</p><h3><strong>Titulares de la Semana</strong></h3><p>Para terminar, un resumen de los titulares de la semana.</p><h4><strong>Ciencia y Tecnolog&#237;a</strong></h4><ul><li><p><strong>El "Cient&#237;fico de IA"</strong>: Surgen sistemas capaces de automatizar el ciclo completo de la investigaci&#243;n, desde la <a href="https://arxiv.org/html/2507.23276v2">hip&#243;tesis hasta la verificaci&#243;n</a>.</p></li><li><p><strong>Avances en Energ&#237;a</strong>: La IA se utiliza para <a href="https://www.crescendo.ai/news/latest-ai-news-and-updates">descubrir y dise&#241;ar nuevos materiales para bater&#237;as</a>, prometiendo un almacenamiento de energ&#237;a m&#225;s r&#225;pido y sostenible.</p></li><li><p><strong>Diagn&#243;stico M&#233;dico Eficiente</strong>: Desarrollan un sistema de IA que <a href="https://www.crescendo.ai/news/latest-ai-news-and-updates">interpreta im&#225;genes m&#233;dicas con una fracci&#243;n de los datos de entrenamiento</a> que se requer&#237;an antes.</p></li><li><p><strong>Predicci&#243;n de Ciclones</strong>: Google DeepMind anuncia el uso de IA para <a href="https://blog.google/technology/ai/google-ai-updates-june-2025/">mejorar el seguimiento y la predicci&#243;n de ciclones</a>, una herramienta vital para la mitigaci&#243;n de desastres.</p></li></ul><h4><strong>Productos y Servicios</strong></h4><ul><li><p><strong>OpenAI Libera Modelos</strong>: La compa&#241;&#237;a lanza los modelos de peso abierto <a href="https://uk.news.yahoo.com/openai-releases-free-downloadable-models-182135640.html">gpt-oss-120b y gpt-oss-20b-two</a>, gratuitos para uso comercial y personalizaci&#243;n.</p></li><li><p><strong>Ventas en "Piloto Autom&#225;tico"</strong>: La plataforma Outreach lanza <a href="https://www.crescendo.ai/news/latest-ai-news-and-updates">agentes de IA que automatizan la prospecci&#243;n</a> y el seguimiento de clientes.</p></li><li><p><strong>Ciberseguridad Inteligente</strong>: HPE presenta un <a href="https://www.hpe.com/us/en/newsroom/press-release/2025/08/hpe-unveils-new-ai-driven-security-and-advanced-data-protection-innovations-at-black-hat-usa-2025.html">copiloto de IA que analiza continuamente la seguridad de la red</a> y detecta vulnerabilidades.</p></li><li><p><strong>Contenido Sin Restricciones</strong>: xAI de Elon Musk lanza Grok-Imagine, una herramienta de generaci&#243;n de im&#225;genes y video que <a href="https://timesofindia.indiatimes.com/technology/tech-news/elon-musks-xai-and-openai-go-metas-way-to-give-away-tech-behind-ai-chatbots/articleshow/123143361.cms">permite expl&#237;citamente contenido NSFW</a>, reavivando el debate sobre la moderaci&#243;n.</p></li></ul><h4><strong>Econom&#237;a</strong></h4><ul><li><p><strong>Impacto en el Empleo</strong>: Un informe revela que la IA est&#225; vinculada a m&#225;s de <a href="https://www.cbsnews.com/news/ai-jobs-layoffs-us-2025/">10,000 recortes de empleo en EE.UU. en 2025</a>.</p></li><li><p><strong>La Generaci&#243;n Z, la m&#225;s Afectada</strong>: Un economista de Goldman Sachs advierte que los <a href="https://timesofindia.indiatimes.com/world/us/goldman-sachs-economist-warns-ai-will-replace-gen-z-tech-workers-at-first/articleshow/123157298.cms">trabajadores tecnol&#243;gicos j&#243;venes son los m&#225;s vulnerables a la automatizaci&#243;n</a>.</p></li><li><p><strong>Inversi&#243;n R&#233;cord</strong>: La inversi&#243;n en startups de IA en Norteam&#233;rica <a href="https://news.crunchbase.com/venture/state-of-startups-q2-h1-2025-ai-ma-charts-data/">super&#243; los $145 mil millones en el primer semestre de 2025</a>.</p></li><li><p><strong>Capital de Riesgo en LatAm</strong>: M&#233;xico <a href="https://news.crunchbase.com/venture/state-of-startups-q2-h1-2025-ai-ma-charts-data/">supera a Brasil en capital de riesgo por primera vez desde 2012</a>, con un creciente inter&#233;s en la regi&#243;n.</p></li></ul><h4><strong>Geopol&#237;tica y Regulaci&#243;n</strong></h4><ul><li><p><strong>Plan de Acci&#243;n de EE.UU.</strong>: La Casa Blanca publica un plan para <a href="https://www.whitehouse.gov/articles/2025/07/white-house-unveils-americas-ai-action-plan/">eliminar regulaciones y acelerar la innovaci&#243;n para "ganar la carrera de la IA"</a>.</p></li><li><p><strong>Entra en Vigor la Ley de IA de la UE</strong>: Se activan las <a href="https://www.dlapiper.com/en-hk/insights/publications/2025/08/latest-wave-of-obligations-under-the-eu-ai-act-take-effect">obligaciones de transparencia para los modelos de IA de prop&#243;sito general</a> que operan en el mercado europeo.</p></li><li><p><strong>Cr&#237;ticas al Plan de EE.UU.</strong>: Grupos como la Asociaci&#243;n M&#233;dica Estadounidense <a href="https://www.ama-assn.org/practice-management/digital-health/ama-position-2025-federal-government-ai-action-plan">expresan su profunda preocupaci&#243;n por la falta de supervisi&#243;n</a> del plan de la Casa Blanca.</p></li><li><p><strong>Inspiraci&#243;n para Am&#233;rica Latina</strong>: El enfoque europeo basado en riesgos sigue siendo la <a href="https://www.brookings.edu/articles/smart-ai-regulation-strategies-for-latin-american-policymakers/">principal fuente de inspiraci&#243;n para los legisladores de la regi&#243;n</a>.</p></li></ul><h3><strong>En Resumen</strong></h3><p>Esta semana nos deja con una lecci&#243;n clara: la inteligencia artificial ya no es una conversaci&#243;n de nicho para tecn&#243;logos. Es el campo de batalla donde se definen econom&#237;as, geopol&#237;tica y el futuro del trabajo. Cada avance trae consigo tanto una promesa como una nueva complejidad estrat&#233;gica que debemos entender.</p><p><strong>Si este an&#225;lisis te ha resultado &#250;til y crees que puede servirle a otros, te invitamos a compartir este bolet&#237;n con tus amigos, colegas y en tus redes. Ay&#250;danos a hacer crecer la conversaci&#243;n sobre la IA en nuestra regi&#243;n.</strong></p><p>&#161;Hasta la pr&#243;xima semana!</p><p class="button-wrapper" data-attrs="{&quot;url&quot;:&quot;https://www.aicuba.org/p/ai-cuba-boletin-semanal?utm_source=substack&utm_medium=email&utm_content=share&action=share&quot;,&quot;text&quot;:&quot;Compartir&quot;,&quot;action&quot;:null,&quot;class&quot;:null}" data-component-name="ButtonCreateButton"><a class="button primary" href="https://www.aicuba.org/p/ai-cuba-boletin-semanal?utm_source=substack&utm_medium=email&utm_content=share&action=share"><span>Compartir</span></a></p><p></p>]]></content:encoded></item></channel></rss>