El lenguaje natural y sus modelos [ensayo]

En noviembre del 2025 se cumplieron tres años del lanzamiento de ChatGPT y desde entonces las conversaciones sobre la llamada Inteligencia Artificial no han dejado de abrir puntas de debate. En esta entrada parto de uno clásico (¿pueden pensar las máquinas?) para dirigirme progresivamente a un rincón algo más específico del tema: el lenguaje creativo.

Eliza, el primer modelo de lenguaje basado en el apego

del trabajo vivo al trabajo muerto

Los últimos años hemos sido testigos de la irrupción de algunas hipersticiones interesantes: sueños paranoides que a través de su difusión en internet terminan por materializarse; o más sencillamente: profecías autocumplidas de la industria cultural. Suelen empezar como teorías conspirativas, y una de ellas me interesa particulamente para este devaneo. Se trata de la Teoría del internet muerto, según la cual “actualmente Internet está dominado por la actividad de bots, deepfakes, la inteligencia artificial y el contenido generado automáticamente mediante algoritmos, marginando la actividad humana orgánica”. Lo interesante de esta teoría, que data en 2017 la defunción de la WWW, es que en ese momento parecía ser una exageración totalizante de un fenómeno marginal que mandaba caricias significativas desde Hurlingham. Casi una década después, no suena tan hiperbólico hablar en esos términos.

Hoy en día, los creadores de contenido apelan a la redacción de placas a través de los LLMs (Large Lenguage Modelos, traducidos como Modelos de Lenguaje Natural), especialmente ChatGPT. De derecha a izquierda, publicistas y propagandistas, periodistas y cronistas delegan su “trabajo creativo” a un robot que puede hacerlo por ellos. Por supuesto, la automatización nunca es total ni relaja la intensidad productiva. Los creadores de contenido, hagan trabajo asalariado, militante o de cualquier tipo, ahora aprenden a promptear para no caer del feed y así sobrevivir en la economía de la atención cuyas leyes establecen los algoritmos de las redes sociales. Al mismo tiempo, el trabajo manual (o mejor dicho, dactilar) sigue siendo intenso: hay que copiar y pegar, seleccionar imágenes, ajustarse a los márgenes, hacer el diseño gráfico, etc.

Como fuera, bajo la actual economía de la atención, que aceleran la lectura online hasta volverla poco más que un vistazo, hoy es muy difícil discernir cuándo estamos leyendo algo “orgánico” y cuándo algo “sintético”. Lo más probable es que, tarde o temprano, relajemos la duda y simplemente deje de importarnos, siempre y cuando sea la idea detrás lo que nos interese. Pero si vamos a momentos antes de la irrupción de los modelos de lenguaje en la maquinaria de la industria cultural y del conocimiento, nos encontramos que la “inteligencia artificial” previa, es decir los algoritmos de recomendación y jerarquización de contenidos, ya modelaba las formas discursivas.

Desde los lenguajes SEO que buscaban optimizar la aparición de contenidos en motores de búsqueda hasta algo más nac&pop como los cursos de la UNSAM para hacer crónicas periodísticas al estilo Revista Anfibia, la producción de contenido no estaba pensada tanto para la interlocución como para el algoritmo… nuestra verdadera audiencia, aunque fingiéramos lo contrario, era la computadora. Así fue cómo párrafos cortos, conectores explícitos, progresión temática semcilla, tono neutro o pseudorazonado, estructuras argumentativas reconocibles y cierres concluyentes se convirtieron en estándares. Esta normalización, más que un fenómeno estético, es un proceso que responde a condiciones materiales de producción y circulación del discurso en plataformas que privilegian la velocidad, la claridad inmediata y la retención de atención o el apego.

En este sentido, la estandarización discursiva no es nueva. Incluso podríamos rastrear su linaje en la escuela, en las clases de análisis sintáctico, en la corrección ortográfica, en la división de géneros discursivos y en la producción de papers con formatos bien delimitados dentro de la industria académica del conocimiento, en el microblogging y en el predictivo del teclado de los smartphones. Esta suerte de taylorismo de la producción de textos es también lo que proporciona al capital que la orienta el conocimiento necesario para poder optimizar el proceso de trabajo cognitivo y romper con la rebelde mano de trabajo, con sus torpezas y sus singularidades. Si la digitalización computativa refuerza el principio de Babbage de descomponer un proceso en sus elementos más simples para mejor automatizarlo, podemos entender a los Modelos de Lenguaje Natural como la automatización de un trabajo cognitivo ya estandarizado: para que las máquinas se parezcan a los humanos es preciso primero convertir a los humanos en autómatas. El lenguaje se adapta al algoritmo antes de que el algoritmo produzca lenguaje.

el tartamudeo de los bots

Pero volvamos al presente y reconozcamos que los LLM no solo cristalizan sino que aceleran este proceso de estandarización. Ahora la gramática de la información alfabética entra en su fase de reproductibilidad digital y se reduce a un fenómeno computacional. Por eso las frases de la IA suelen ser idénticas a sí mismas en estructura: contraposición, frase predicativa con dos puntos, enumeración nominal triple, remate corto. Ni hablar del formato lista de los textos explicativos. Así leemos por ejemplo:

“La participación se mide en métricas, no en acciones [contraposición]. La comunidad se vuelve una identidad de consumo [frase predicativa]: compartimos una emoción, un referente, un contenido [enumeración nominal triple]. Y eso alcanza para sentirnos parte [remate corto]”.

“Las jornadas del 19 y 20 de diciembre no fueron un estallido aislado: fueron el resultado de años de ajuste, saqueo neoliberal, desocupación y represión [contraposición, frase predicativa y enumeración nominal]”.


Cualquiera que preste atención puede ver un montón de posts así. Pero no sólo en instagram, los mismos formatos vemos repetidos en medios informativos, textos de opinión, divulgación académica, ensayos breves y guiones audiovisuales. Pensemos en los videos de Café Kyoto, que admite usar la “IA” para guionar sus videos: todas sus frases terminan con una enumeración nominal triple y su recurso retórico más usado es la contraposición. Bajo cierto tecno-optimismo entendible, podríamos considerar que de este modo la automatización de la expresión de ideas se “democratiza” por la vía fordista. La producción seriada e instantánea ahorra la alfabetización textual compleja y creativa que la desfinanciación educativa del capitalismo secular viene convirtiendo en un privilegio –y ya no en un derecho.

Ahora cualquier puede tener una idea y pedirle a un chatbot que la desarrolle por él, que la argumente y la concluya. Ni siquiera es necesario que sea una buena idea o una idea legítima, mucho menos sujeta a la revisión de pares. Los modelos de lenguaje, en contraposición a los díscolos humanos, no debaten, no discuten; como los algoritmos que los preceden (o acaso como toda la computación contemporánea orientada al masivo), están diseñados para retener nuestra atención y, en la era del narcisismo individualista, no hay mejor vía que la condescendencia sistemática. ¡Excelente idea, corazón!

Esto profundiza, entonces, un proceso de estandarización lingüística que ahora se da por fuera de la experiencia cognitivo-corporal concreta. Es decir, en tanto trabajo muerto –actividad humana objetivada en maquinaria–, el texto producido por los LLM es externo al escenario discursivo entre sujetos “orgánicos”. De hecho, es este rasgo el que distingue a esta estandarización sintáctica de procesos similares del pasado, como la escolarización, el doblaje “neutro” de los dibujos animados o los anglicismos de las comunidades digitales que solían resolverse apelando al criollísimo grito de amargo y retruco. Estos fenómenos seguían concibiendo (en el doble sentido de la palabra) el lenguaje como producción social e intersubjetiva; aun cuando se dieran de arriba hacia abajo necesitaban de la participación de múltiples personas: el lenguaje como conversación.

Esta observación nos deja una pregunta que todavía no estamos en condiciones de responder: ¿Es posible, en el futuro cercano, que la permanente exposición al discurso guionado por los modelos de lenguaje e interpretado por humanos moldee nuestra forma ya no solo de escribir, sino además de hablar?


desarmando el submarino

Hace una parva de años, allá por 1947, cuando la computación moderna recién empezaba a nacer, uno de sus parteros se preguntó si algún día las máquinas podrían pensar. Pero Alan Turing no fue el primero en asociar máquina y pensamiento. En discusión con Descartes, quien a pesar de su fuerte racionalidad matemática su herencia platónica le permitía concebir la máquina como cosa mecánica, sin mente (“carece de sustancia pensante”), para Gottfried Leibniz en el siglo XVIII el pensamiento era algo que podía mecanizarse. Sin embargo, la computación no se basa en el pensamiento, sino en el cálculo efectivo y pensar no es lo mismo que computar. Como plantean Aldana D’Andrea y Javier Blanco en su artículo ¿Pueden nadar los submarinos? La tesis de Turing y el mecanicismo de 2015, “la reducción del pensamiento a un cálculo representa, precisamente, la desaparición del pensamiento en pos de un mecanismo sintáctico y prescriptivo; un mecanismo que alejándose de la falibilidad del pensamiento se ubique en el sendero de la exactitud, la controlabilidad y la infalibilidad”.

Sin embargo, la reducción del pensamiento al cálculo es la piedra basal de estos errores y por eso evitamos llamar “inteligencia artificial” a los Modelos de Lenguaje. Turing, al diseñar su máquina como dispositivo teórico, no estudió máquinas reales sino lo que un ser humano hace cuando calcula. Pero, ¿puede ser la mente explicada como una máquina? D’Andra y Blanco rastrean dos posturas al respecto: según el cognitivismo, la mente humana sigue los mismos límites que una máquina; para el anti-cognitivismo, la mente va más allá de lo computable. También proponen cambiar el eje del debate, es decir, dejar de preguntarse si las máquinas piensan, sino qué es efectivamente computable y qué no.

Porque el problema de estos desplazamientos, además de en el debate epistemológico, se funda en algunas limitaciones retóricas que identificó el matemático holandés Edsger Dijstra: plantear si una máquina puede pensar es tan relevante como plantear si un submarino puede nadar. Cuando Dijkstra escribió esto era el año 1988, él hablaba de la computación como una “novedad radical” que sólo podía ser comprendida en base a conceptos y fenómenos ya conocidos, y muchos de ellos resultaban ser metáforas antropomórficas, como por ejemplo, la idea de memoria para referir al almacenamiento de datos y, más interesante aún (pero también más confusa), la idea de pensamiento para referir a los procesos lógicos que una computadora desarrolla.

Más adelante en el tiempo, en 2023 Noam Chomsky intervino en el debate con argumentos similares: “a diferencia de ChatGPT y sus similares, la mente humana no es una pesada máquina estadística de comparación de patrones, que se atiborra de cientos de terabytes de datos y extrapola la contestación más probable en una conversación o la respuesta más probable a una pregunta científica. Por el contrario, la mente humana es un sistema sorprendentemente eficiente e incluso elegante que funciona con pequeñas cantidades de información; no busca inferir correlaciones brutas entre puntos de datos, sino crear explicaciones”. La diferencia central entre los humanos y los modelos de lenguaje radica en que la mente humana no se limita a describir o predecir, sino que produce explicaciones. Los sistemas de aprendizaje automático, en cambio, carecen de esta capacidad explicativa: no manejan leyes, mecanismos ni causas, sino probabilidades.

Otro artículo reciente también se detiene a establecer comparaciones entre la cognición humana y los modelos de lenguaje natural. En Epistemological Fault Lines Between Human and Artificial Inteligence (2025), Quatrociocchi, Caprano & Perc dan cuenta q ue “los LLM no son agentes epistémicos, sino sistemas estocásticos de compleción de patrones, formalmente descriptibles como recorridos por grafos de alta dimensión de transiciones lingüísticas, en lugar de sistemas que forman creencias o modelos del mundo”. Al mapear sistemáticamente las vías epistémicas humanas y artificiales, los autores identifican siete líneas de falla epistémicas: “divergencias en la fundamentación, el análisis sintáctico, la experiencia, la motivación, el razonamiento causal, la metacognición y el valor”. Luego denominan a la condición resultante «epistemia»: una situación estructural en la que la plausibilidad lingüística sustituye a la evaluación epistémica, generando la sensación de conocimiento sin la necesidad de juzgar.

Hago este rodeo no solo para diferenciar entre computación y pensamiento, sino para volver al problema del lenguaje y el discurso desde este nuevo ángulo. Como decíamos más arriba, la confusión epistémica entre un texto orgánico y otro sintético implica un previo proceso de calibración del trabajo cultural y cognitivo. La racionalidad instrumental, que orienta la producción de bienes culturales al mercado convirtiéndolos en mercancías, es un presupuesto no solo para la automatización del trabajo bajo las lógicas capitalistas, sino también para la estandarización discursiva previa que ese proceso intensifica. Si el valor universal es la rentabilidad y la eficiencia, es más fácil reducir el pensamiento al cálculo. Solo en ese sentido es posible “identificar” un proceso de aleación entre la producción discursiva orgánica y sintética.


mil máquinas jamás

Hay algo que en el último año se conoció como poetic hacking. Es sabido que los LLM fueron entrenados con toda la información disponible en internet, lo que incluye información pública que se les filtra a los estados y que no se supone que los ciudadanos de pie dispongan. Por ejemplo, el número de DNI de alguien, pero también datos protegidos que están almacenados en el servidor donde corre la IA. Para evitar eso, las empresas que desarrollan los modelos como ChatGPT o Gemini, superponen a los LLM una serie de filtros algorítmicos destinados a evitar estas filtraciones. Sin embargo, algunos estudios demuestran que siempre hay una manera de extraer información con el prompt adecuado. Aparentemente, porque los filtros son menos complejos que el propio Modelo de Lenguaje, entonces los atacantes usan poemas con metáforas para pasarle las instrucciones y sustraerle información a los chatbots.

El jaqueo poético es, entonces, una de las expresiones que dan cuenta de la supremacía lingüística del ser humano frente a estos modelos que el capital occidental sigue queriendo presentar como los nuevos dioses. Pero en un nivel más amplio, que descomprima el tiempo que la computación comprime, podríamos proponer otras instancias con las que desmontar esta ficción. Quizá deberíamos empezar recordando que en ningún momento de la historia de la producción y circulación de los distintos soportes de información se sometió por completo a sus distintas expresiones. La escritura no disolvió la oralidad ni el libro impreso abolió el manuscrito, así como tampoco la irrupción de los medios audiovisuales hicieron que el teatro o la música se convirtieran en experiencias obsoletas. Aunque hoy, presos de la novedad y de la precariedad material, las salas de cine y los boliches locales se vacíen frente a la posibilidad de ver películas y escuchar música en formatos digitales, sería bien corto de miras reducir la cultura a la gestión algorítmica de bienes digitales.

Como explica la imagen de más arriba, nuestros primeros imputs (para invertir el antropomorfismo) son la información social y sensorial que nuestro cuerpo en desarrollo recibe con extrema eficiencia chomskyana, en contraste con la información textual que procesan los modelos de lenguaje. Pero esto no quiere decir que interpretemos textos de la misma manera que las máquinas, mucho menos que los produzcamos de igual modo, como argumentaba Chomsky. Si jaqueamos el sigilo de la productividad/rentabilidad/eficiencia, si en cambio proponemos una estética de la experiencia intersubjetiva, ya sea más o sea menos alfabetizada (el error ortográfico es síntoma de variabilidad), cada texto encuentra una singularidad inefable; sobre todo si está orientada a un “otro” humano y no a las exigencias de los mercados (literarios, digitales, académicos, etc.).

La brujería detrás de los LLM es que suprimen el tiempo de trabajo creativo con velocidad de cómputo introduciendo el lenguaje alfabético en la mutación epistémica de la cognición más típicamente audiovisual... así la escritura, una tecnología de la secuencia, es capturada como tecnología de lo simultáneo. Al contrario, la gracia del lenguaje alfabético orgánico es que supone una extensión temporal: es decir, son una tecnología del desarrollo de ideas a lo largo del tiempo, el espacio y lo cognitivamente humano. La escritura como conversación asincrónica con un otro indefinido (que puede ser uno mismo en otro tiempo), y no el texto como producción instantánea para un mercado simbólico monológico y computable.

Algo tan simple como “dedicarle tiempo a los procesos” y algo tan complejo como historizarlos nos habilitan, de este modo, a una verdadera abundancia simbólica que nos eleve frente al determinismo tecnológico. Al mismo tiempo, cabe ser conscientes que la complejidad de la existencia no puede ser reducida a datos digitales o digitalizables. La cultura, la cantidad de fenómenos que somos capaces de representarnos a nosotrxs mismxs, sigue siendo muchísimo más vasta que los miles de terabytes de los que disponen los LLM. ¿O acaso podría alguna digitalizarse la información corporal que produce estar borrachx frente a una banda, el humo de los cigarrillos inundando el antro, rostros inmemorables agitándose en un pogo, la piel sintiendo cada anónimo contacto?

Pero incluso por fuera de la poesía cotidiana, pensemos por ejemplo en el continuum gótico o en el ethos barroco, fenómenos culturales macro-históricos cuyas múltiples expresiones en el tiempo y en el espacio son infinitamente irreductibles. Fenómenos culturales, además, ampliamente inscritos en la cultura latinoamericana en todos sus niveles, no solo en los estratos más alfabetizados de nuestras sociedades sureras.

De hecho, frente a la gramática minimalista de los LLM tenemos otro jaqueo poético en la sobresaturación del lenguaje que propone el barroco, abriendo una temporalidad mucho más detenida y lenta que aquella que exige la producción y recepción de micro-mensajes en internet. Por algo Bolívar Echeverría, uno de los grandes filosofos latinoamericanos del siglo pasado, entendió el ethos barroco como “una estrategia de afirmación de la vida y el valor de uso (el mundo de la vida) que se da desde la experiencia de su constante sacrificio”. El barroco latinoamericano siempre fue una forma de producción de excedentes simbólicos que la modernidad capitalista apenas logra procesar, trabajo vivo que no logra transmutarse en trabajo muerto. El ajo del vampiro. Por eso es una forma de jaqueo poético; como sobresaturación del lenguaje a través de imágenes, metáforas, autoreflexiones, metadiégesis, el barroco desarma la temporalidad eficiente de la “voz” literal y sintética de las máquinas, funcionando como contratendencia a su estandarización lingüística.

En este para Bolívar Echeverría el barroco no es solo una corriente estética por la que optar sino un ethos, una forma de vida más o menos impersonal. En el centro de su argumento hay una relectura de esa idea marxista clave: el valor de uso. Toda tecnología, insiste, contiene una infinitud de actualizaciones posibles, las trayectorias plurales que podría tomar, las diversas formas de vida que podría habilitar. El capitalismo no elimina esta pluralidad; la refuncionaliza, orientando el desarrollo hacia el camino singular de la valorización. Y ahí las posibilidades reprimidas no es que desaparecen, sino que persisten como potenciales latentes, disponibles para ser redescubiertos bajo otras condiciones sociales.

En este sentido, todavía hay por fuera del discurso sintético un montón de operaciones del lenguaje orgánico que nos demuestran que, por fuera de las relaciones capitalistas de producción, no tenemos nada que temer frente a la automatización de la producción textual. La creatividad humana, aun cuando pueda repetirse a sí misma, prevalece frente a la recursividad computacional y su racionalidad instrumental de fondo, porque esta es solo una de sus expresiones dentro de la historia de la conciencia. Apostemos y reforcemos nuestra complejidad gramatical, sintáctica, semántica por todos los medios, pues afuera del algoritmo existe una diversidad lingüística y simbólica mucho más vasta de la que encierra la filosa “IA”.