Sam Altman, el CEO de OpenAI, alcanzó la fama mundial cuando su empresa lanzó ChatGPT hace tres años. Gracias a ese repentino (e inesperado) éxito, entró en el selecto Olimpo de los tecnohéroes. Lejos de amedrentarse por su repentino status global comenzó a hacer afirmaciones cada vez más hiperbólicas: en septiembre de 2024, por ejemplo, aseguró que "aunque esto ocurrirá de manera gradual, los triunfos asombrosos –la solución del clima, el establecimiento de una colonia espacial y el descubrimiento de toda la física– con el tiempo se convertirán en algo común". En septiembre de 2025 apostó que "tal vez con 10 GW de cómputo la IA puede resolver la cura del cáncer. O con 10GW de cómputo se pueda resolver cómo proveer de educación personalizada a cada estudiante del planeta". Para darse una idea, la ciudad de Filadelfia completa, con poco más de un millón y medio de habitantes, consume cerca de 1GW.
Estas afirmaciones no son producto de un rapto de megalomanía irreflexiva sino que fueron escritas en blogs que todavía están online. En otro momento, evidentemente más sombrío, el mismo Altman aseguró en un evento: “Lo que más me quita el sueño es la idea hipotética de que ya hemos hecho algo realmente malo al lanzar ChatGPT”. En otra entrevista se sinceró: “Nos preocupa mucho que los gobiernos autoritarios desarrollen esto”. Tanto en sus versiones optimistas como apocalípticas, Altman no duda del enorme poder de la IA Generativa: ya nada será igual.
Más recientemente pareció recuperar algo de sensatez y bajarle el tono a la expectativa que alimentó en los últimos años. Mientras pedía más dinero a los inversionistas, Altman reflexionó: “Cuando surgen burbujas, la gente inteligente se entusiasma demasiado con un núcleo de verdad”. Y siguió, retóricamente: "¿Estamos en una fase en que los inversores, en general, están demasiado entusiasmados con la IA? En mi opinión, sí. ¿Es la IA lo más importante que ha sucedido en mucho tiempo? En mi opinión, también sí."
¿Quién habrá puesto así a los inversores?
Estadísticas
¿Cómo entender estas afirmaciones de apariencia contradictoria de uno de los referentes de la tecnología? Lo que puede parecer desordenado, fuera de escala o contradictorio, en realidad tiene un sentido. Pero para comprender hace falta un pequeño repaso.
Todos nos sorprendimos con ChartGPT allá por noviembre de 2022. Su destreza lingüística nos tomó con la guardia baja y fue muy fácil creer que realmente estábamos hablando con "alguien", con alguna forma de consciencia. No es la primera vez que pasa, incluso con "tecnologías" bastante menos refinadas: la gente ha leído entrañas de animales, borra de café, runas o astros con la confianza de que allí había un mensaje de alguien o algo invisible. Incluso el rudimentario programa Eliza de 1966 engañó a muchos interlocutores pese a que apenas repetía lo que le decían.
Si bien los ingresos por acceso a las versiones premium de algunas IAG crecen, lo hacen mucho más lento que los costos, sobre todo debido a nuevos datacenters cada vez más grandes.
Pero no hay que ser necio: realmente ChatGPT logra otro nivel de interacción. Si bien la Inteligencia Artificial (IA) ya existía, lo que lanzó ChatGPT fue la posibilidad de hacerla decir cosas "nuevas" o, mejor dicho, reciclar cosas viejas de manera estadísticamente probable: eso es lo que hace la IA Generativa, es decir, una IA que no solo encuentra correlaciones en los datos para, por ejemplo, mostrarnos publicidades “relevantes” sino que, además, puede articular otras nuevas.
Aunque hay que aclararlo: la IA no es inteligencia y tampoco es artificial, como explica Evgeny Morozov. No es inteligente porque es estadística: simplificando lo que hacen los grandes modelos de lenguaje (los más desarrollados entre las IAG) podemos decir que prevén la probabilidad de que una palabra siga a otra basada en los millones de ejemplos usados para entrenarla. Por otro lado, tampoco es artificial: los contenidos en los que busca correlaciones son producto de la inteligencia humana. Sin ella, la estadística no puede hacer su mímica verosímil. De hecho, un problema irresoluble a mediano plazo es que si la IAG efectivamente reemplaza a los humanos, en el futuro tendrá que ser entrenada con productos de otras IAG lo que aumentará los ya frecuentes errores, sesgos y alucinaciones.
Como explica Karen Hao en su libro Empire of AI, el hallazgo de OpenAI para superar a sus competidores fue que al multiplicar la cantidad de datos, parámetros y poder de cómputo la verosimilitud de los resultados mejoraba proporcionalmente. Desde entonces las empresas occidentales se lanzaron a incrementar estas variables para llegar a IAGs más potentes y prácticamente dejaron de investigar caminos alternativos. Por ejemplo, ante la necesidad de cantidades monstruosas de contenidos ya no se toman solo fuentes confiables, sino que se releva todo lo que hay en la web sin distinciones ni criterios, desde Reddit a Twitter, pasando por la Revista Barcelona, por lo que la calidad promedio de los insumos de entrenamiento empeora cada vez más si lo que se busca es generar respuestas confiables. Para la IAG lo que hay es probabilidad; conceptos como verdad o mentira no tienen sentido porque no conoce el mundo, sobre todo porque “conocer” implicaría una consciencia de la que carece.

Otro efecto de esta carrera por aumentar las variables es la construcción de datacenters cada vez más grandes, con miles de procesadores apilados que no solo consumen mucha energía al funcionar todos juntos sino que además requieren sistemas de refrigeración que demandan aún más energía y agua. Estos datacenters consumen lo mismo que ciudades de cientos de miles de habitantes y afectan la salud de los vecinos por la contaminación en el aire, el ruido permanente y el agua que escasea en sus cercanías.
Aunque no hay números exactos sobre el consumo de electricidad, de continuar al ritmo actual (si no se acelera más o colapsa esta industria) en 2030 podrían absorber el 21% de la demanda de electricidad global según el MIT. Centrales eléctricas que estaba planificado cerrar se mantendrán en funcionamiento para acompañar la demanda creciente. Esto significa comerse los esfuerzos por revertir el calentamiento global y bastante más.
Frente a estas evidencias de los problemas generados por la tecnología, los tecnogurúes ofrecen más tecnología. Altman, por ejemplo, afirma como al pasar que la IAG estará en condiciones de "arreglar" ("fix") el clima. De paso armó una empresa de energía nuclear. No importa que ya se sepa cómo "arreglar" el calentamiento global sin necesidad de la IA. La sentencia de Fredric Jameson acerca de que "es más fácil imaginar el fin del planeta que el del capitalismo" ha mutado levemente a "es más fácil imaginar que la IAG arreglará el calentamiento global que suponer que se puede detener un negocio en expansión".
Es la economía estúpido
En los últimos años hemos escuchado promesas grandilocuentes: los NFT salvarían a los artistas del hambre, las criptomonedas democratizarían el control sobre el dinero e permitirían a "la gente" sacarse de encima a los bancos, el Metaverso permitiría "vivir" internet como nunca antes, etc. Cada uno de estos proyectos (y otros) permitió canalizar excesos de capital en un proyecto que prometiera grandes dividendos aunque fuera a corto plazo y, quién sabe, hacer saltar la banca a mediano o en el largo. Al fin y al cabo nadie suponía que Google se transformaría en lo que es hoy, como repiten quienes levantan apuestas en un casino tecnológico que también pone en juego al ecosistema terrestre. En cualquier caso, la cuestión es saltar a tiempo y que la fiesta la paguen otros. Es parte de la cositortización del capitalismo ludópata que se expande en espasmos especulativos que terminan en crisis.
Sam Altman juega ese juego a la perfección (como muchos otros) hasta cuando habla de los peligros de la IAG. Si la IAG puede resolver el cáncer y el calentamiento global es porque se trata de una tecnología sumamente poderosa. Lo mismo si deviene un Terminator capaz de barrer a la humanidad. Solo es cuestión de más procesadores (energía), más datos y parámetros. Las empresas ya no necesitarán prácticamente los molestos empleados que piden aumentos ¿Quién querría quedar afuera de algo así?
Altman ya no habla de curar el cáncer sino de lanzar una nueva red social o habilitar contenido erótico en ChatGPT , rubros saturados y nada disruptivos a esta altura.
Sin embargo, quienes no viven de la IAG y estudian el tema son más escépticos. Ellos no creen que la superinteligencia, una difusa conciencia superior y con toda la información, está al final del camino estadístico. Los estudios más serios, como uno del Harvard y el MIT y otro de Apple, indican que pese a la verosimilitud de los resultados que ofrecen las IAG frente a una pregunta, no hay atisbos de razonamiento. Frente a problemas lógicos no se encuentran leyes o reglas deductivas sino probabilidad basada en casos anteriores. Por supuesto que una buena aproximación estadística suele ser suficiente en muchas áreas: si soy abogado, por ejemplo, puedo ahorrar cierto tiempo a la hora de escribir un fallo, aunque debería tener mucho cuidado de revisarlo, algo que no todos hacen y terminan pagando multas por su pereza o exceso de productivismo. Es que la IAG puede ir a los bordes de la probabilidad estadística “inventando” casos que “podrían” haber ocurrido.
Sundar Pichai, el CEO de Alphabet (la corporación que contiene a Google) en una entrevista para The Verge reconoció: «Las alucinaciones siguen siendo un problema sin resolver. En cierto modo, es una característica inherente. Es lo que hace que estos modelos sean tan creativos». Pese a semejante reconocimiento de confiabilidad limitada, las empresas hacen lobby para que se delegue a una IAG tareas altamente sensibles en áreas como transporte, educación, industria bélica o salud.
Burbuja a la vista
¿Por qué tanta insistencia en vender algo que no está a la altura de las promesas? Porque los inversores se están poniendo nerviosos y quieren alguna señal constante y sonante de que recuperan su inversión. Si bien los ingresos por acceso a las versiones premium de algunas IAG crecen, lo hacen mucho más lento que los costos, sobre todo debido a nuevos datacenters cada vez más grandes.
Para achicar la brecha, empresas como Anthropic tuvieron que reducir la cantidad de veces que los usuarios pagos acceden a Claude, su IAG para programación: lo que les cobran, 200 dólares al mes, no cubre los costos y no parece posible cobrarles mucho más. Es decir que incluso sus clientes pagos les hacen perder plata. Y para peor, eso ocurre mientras los programadores aún se preguntan si es más rápido hacer el trabajo solos o encargarlo a los asistentes y luego corregir errores. Como explica un artículo del informático y empresario Ernesto Mislej, quien delega totalmente una tarea en una IAG lo que hace es transferir el trabajo a otra persona, que debe decidir si corregirlo personalmente, pedir que lo rehagan o aceptarlo y pasarle el problema al siguiente.
Pero la fuerza del discurso circulante sobre la IAG es tal que todos sufren presión por usarla: porque se los pide un jefe o porque necesitan ser más productivos si quieren sobrevivir. Docentes, arquitectos, abogados o influencers, por convicción, presión o necesidad prueban, ven que más o menos funciona y delegan tareas porque no tienen tiempo o por simple pereza. La expectativa de las empresas es que, tarde o temprano, la delegación cognitiva nos haga depender de esas herramientas para todo lo que ya no sabemos cómo producir.

Las empresas también sufren la presión y las consultoras les ofrecen algo con el rótulo de IAG que al menos les calme el FOMO y les permita mostrarse como modernos. Los resultados concretos aún no están claros: algunas empresas como McDonalds tuvieron que echarse atrás con el sistema de atención luego de que alucinara pedidos fuera de escala. Ya existen profesionales que se dedican a reparar los errores que produce la IAG. En otros ámbitos se habla de implementaciones puntuales que permiten mejorar la productividad de los empleados. El estudio más amplio sobre el reemplazo de trabajadores habla de una caída del 13% en las contrataciones de jóvenes de entre 22 y 25 años. La cifra es significativa y merece atención, pero nada se acerca a la escala prometida por los anuncios. Tampoco se sabe si es sostenible ese reemplazo.
Otra cuestión no menor es el peligro de compartir información con servicios de IAG online. Como advertía Edward Snowden, en 2024 OpenAI sumó a su junta directiva al general Paul Nakasone, ex director de la NSA, la agencia gubernamental señalada en 2013 por espionaje masivo a la población mundial a través de las empresas tecnológicas. ¿Qué podría salir mal?
Es imposible discutir con argumentos contra una tecnología que funciona en una caja negra y que automatiza las decisiones.
Lo que ocurre entonces es que las promesas desmesuradas mantienen a los inversionistas ansiosos por poner su dinero en una tecnología que promete revolucionarlo todo, las acciones crecen y quién esté atento podrá, cuando sea necesario, pasarle la papa caliente a otro.
Como el hombre que cae de un edificio y dice “Hasta aquí todo va bien”, los medios hablan de miles de millones de dólares invertidos en IAG cotidianamente. Sin embargo, algunos ya ven otra cosa: por ejemplo, un interesante artículo de Bloomberg explicaba en su título que "OpenAI y Nvidia suman 1 billón de dólares en el mercado de la IA con una red de acuerdos circulares". Es decir que Nvidia le presta millones en procesadores a OpenAI y los registra como ingresos; OpenAI acuerda con Oracle la construcción de otro datacenters, Oracle consigue financiamiento de quienes no quieren perderse ese gran negocio y genera más demanda de procesadores a Nvidia que no da abasto y sube los precios aún más, y con ese margen le presta más a OpenAI. Los millones pasan de manos y vuelven al punto de inicio, pero generan titulares, mantienen las expectativas y la demanda de chips que hacen que, por ejemplo, Nvidia valga 10 veces más que hace 3 años: el gran negocio no es poner parripollos o canchas de paddle sino convencer de que son un negocio y cobrar por construirlos. ¿Los ingresos reales que genera la IAG y sostienen esta maquinaria? Esa te la debo.
Hasta tal punto están llegando las cosas que Altman ya no habla de curar el cáncer o hacer nueva física sino de lanzar una nueva red social, habilitar contenido erótico en ChatGPT o lanzar un nuevo navegador, todos rubros saturados y que difícilmente se puedan catalogar de novedosos o disruptivos a esta altura. La tecnología que iba a revolucionar el futuro es utilizada para pichulear de a centavos en mercados ya saturados.
En bicicleta al precipio
Estos tecnomagnates no pueden parar mientras la plata siga llegando. Por eso la pregunta para muchos ya no es si la burbuja de esta forma de desarrollar IAG explotará sino cuándo lo hará y qué quedará detrás. ¿Será como los NFT que se desvanecieron sin dejar huella o como las puntocom que en el 2001 perdieron miles de millones de dólares pero dejaron la infraestructura para los sobrevivientes?
Pero aún si explota la burbuja y algo se construye sobre eso, la experiencia muestra que la tecnología no se aplica en lo más útil para las mayorías sino a lo más rentable. Por ejemplo, a comienzos del milenio se desarrollaron herramientas de IA muy poderosas en las que se invirtieron miles de millones de dólares y se contrataron a los mejores profesionales, pero no se usaron para prevenir enfermedades o ayudar a las personas a realizarse sino para ofrecer publicidad y hacer a la población adicta a pequeños shots de dopamina con graves consecuencias en la salud mental.
Para peor, la mayor parte del crecimiento económico de los EE.UU. proviene de la inversión en IAG. El Banco de Inglaterra espera una “repentina corrección” en el negocio de la IAG. Un informe del Deutsche Bank para clientes indicaba explícitamente que "La burbuja de la IA es lo único que mantiene unida a la economía de los EE.UU.". Sin ella entrarían en recesión. Por eso la amenaza de otras formas de IAG menos costosas y dañinas -como la que planteó DeepSeek, de origen chino- produjeron un susto brutal. El mercado lo enfrentó con negación, manteniendo los precios muy por debajo de los costos y con la lógica del "siga, siga".
Por el momento, la simbiosis entre las corporaciones tecnológicas de los EE.UU. y el gobierno de ese país ha permitido que se eliminen regulaciones para competir con China. Paradójicamente, en su afán de soltarle la rienda al capital tecnológico pueden producir un despilfarro de recursos que los haga retroceder un par de casilleros. De hecho, otro susto lo produjo la Jefa de Finanzas de OpenAI Sarah Friar, en un evento organizado por el Wall Street Journal, cuando aseguró que el gobierno de los EE.UU. debería garantizar las inversiones en última instancia. ¿Están anticipando un bailout a las corporaciones como el de Barack Obama en 2009?
La IAG ofrece muchos más caminos por explorar que el elegido por las corporaciones norteamericanas, que tiene más que ver con el bien común que con la rentabilidad obscena.
Mientras tanto, el Estado ofrece contratos que mantienen vivas las expectativas. Por ejemplo, Palantir, una empresa de Peter Thiel dedicada a procesamiento de datos y contratista bélica, ofrece servicios al Estado norteamericano que permiten detectar inmigrantes ilegales. Gracias a estos contratos, la cotización de Palantir creció enormemente en estos dos años. Esta y otras empresas también prometen agilizar el funcionamiento del Estado que queda encerrado en la caja negra de la IAG y que en poco tiempo ya nadie sabrá cómo funciona.
Como explican los investigadores Hagen Blix y Ingeborg Glimmer en "Why we fear AI", los errores estadísticos de la IAG -que se traducen, por ejemplo, en falsos positivos de inmigrantes ilegales-, tienen una poderosa función ideológica al producir miedo en toda la población. Es imposible discutir con argumentos contra una tecnología que funciona en una caja negra y que automatiza las decisiones. Como ellos mismos citan: “Donde la IA falla técnicamente, cumple ideológicamente”. En ese sentido no importa si la IAG puede brindar falsos positivos porque si todos los inmigrantes tienen miedo de ser señalados, es mejor.
Entonces, ¿nada quedará de esta tecnología? Como se dijo más arriba la IAG ofrece muchos más caminos por explorar que el elegido por las corporaciones norteamericanas. Existen modelos de IAG más pequeños, entrenados con datos confiables, que no pretenden ser más que lo que son: herramientas estadísticas muy útiles y capaces de encontrar patrones y suponer otros útiles. De esa manera se podría, por ejemplo, entrenar algún sistema para operar los semáforos y otras señales de tránsito de manera de agilizar la circulación por las ciudades o usarla para diseñar proteínas que luego sean analizadas y testeadas por expertos, como ya ocurre. Habrá que evaluar el impacto y el costo en dinero y daño ambiental de estas herramientas con gran potencial.
Pero los escenarios más realistas y sostenibles nada tienen que ver con la "superinteligencia" prometida capaz de curar el cáncer o devenir en un Terminator. Estas IAG realistas y al servicio de la gente requieren un sistema político que priorice la utilidad para la humanidad que paga el costo ambiental por sobre el dinero a corto plazo de unos pocos. Sus resultados necesitarían siempre supervisión humana consciente que nunca olvide que la IAG no tiene criterio. Y que, todo indica, nunca lo tendrá.
