Riqueza Del Lenguaje + IA Generativa: Imaginar Es Describir


Introducción

Cada vez son más populares en Internet las capturas de pantalla de conversaciones con modelos de lenguaje como ChatGPT, donde humorísticamente se exhiben respuestas que van desde lo absurdo a lo inquietante. Ejemplos como el fracaso de un modelo para contar el número de “r”s en la palabra “strawberry” o agentes en la nueva “red social para agentes” Moltbook “quejándose” sobre su existencia virtual y su “carga de trabajo” ilustran la fascinación y a la vez el profundo malentendido sobre los principios fundamentales de estos sistemas.

Para aclarar, las capacidades con las que estas nuevas tecnologías nos empoderan bien podrían describirse como “superpoderes” desde la perspectiva de una persona viviendo en 1980 (por escoger un año arbitrario). Descrito atinadamente por el investigador de inteligencia artificial Andrej Karphaty, “El nuevo lenguaje de programación más popular es el Inglés”, esta afirmación ya desde 2023 capturaba el nivel de adopción y utilidad que los modelos de lenguaje habían alcanzado en un par de años. En 2026, la creación de contenido multimedia de alta calidad (texto, imágenes, audio, video) mediante descripciones textuales (“prompts”) se ha vuelto una herramienta cotidiana para millones de personas.

Las IAs “Entienden”?

Probablemente, dado suficiente tiempo interactuando con estos modelos, la mayoría de usuarios hemos experimentado momentos de confusión o frustración al recibir respuestas que parecen no tener sentido, o que demuestran una falta de comprensión básica. Inicialmente, parece realmente existir una “inteligencia” detrás de las respuestas generadas, pero acto seguido, podemos recibir una respuesta que contradice la lógica de la conversación previa.

Es fácil utilizar términos como “entender” o “pensar” para describir nuestra interacción con las IAs, pero estos —una idea central de este artículo— son antropomorfismos engañosos. Los Large Language Models (LLMs) son fundamentalmente sistemas estadísticos que (simplificando) predicen la siguiente palabra en una secuencia con base en patrones aprendidos de vastos conjuntos de datos textuales. No poseen conciencia, intencionalidad ni comprensión en el sentido humano.

Además, se ha demostrado mediante estudios especializados (por ejemplo la popular publicación de Apple “The Illusion of Thinking”) que los LLMs no pueden (todavía—reconociendo que la tecnología avanza rápidamente) emplear herramientas de razonamiento lógico como la generalización; en experimentos estandarizados en los que la misma regla se mantiene constante mientras que la complejidad de los problemas aumenta, los modelos fallan en aplicar esta “comprensión” fundamental, aún cuando la regla se les haya comunicado explícitamente en el prompt.

A su vez, en problemas de prueba populares (con ejemplos frecuentes en los sets de entrenamiento), los modelos producen las respuestas correctas mediante memorización — a menor cantidad de ejemplos conocidos, peor es su desempeño. En resumen, al menos al presente en 2026, las IAs basadas en modelos de lenguaje siguen siendo sistemas de predicción estadística avanzada, sin capacidad de crear la riqueza de los significados compartidos que caracterizan la comunicación humana.

El Lenguaje Como Herramienta De Pensamiento

En 1922, el filósofo Ludwig Wittgenstein capturó una idea fundamental sobre la relación entre el lenguaje y la experiencia humana: “Los límites de mi lenguaje son los límites de mi mundo”1. Wittgenstein argumenta que el lenguaje no es solo un medio para comunicar pensamientos, sino que también es la herramienta con la que formamos nuestros pensamientos y por lo tanto nuestra realidad. Noam Chomsky, uno de los lingüistas más influyentes del siglo XX, comparte la idea de que el propósito fundamental del lenguaje no es externalización, sino estructurar el pensamiento2.

La intención de yuxtaponer estas ideas filosóficas con las capacidades (y limitaciones) de los modelos de lenguaje es destacar que la efectividad de nuestra interacción con estas IAs depende en gran medida de la riqueza y precisión de nuestro propio lenguaje—de la manera en la que estructuramos y comunicamos nuestras ideas.

De “Prompt Engineering” a “Context Engineering”

Entre 2021 y 2022, el término “prompt engineering” (ingeniería de prompts) se popularizó para describir la práctica de diseñar cuidadosamente los “prompts” o instrucciones textuales mediante las que se le indica a un modelo de lenguage el resultado deseado. En su forma más básica, esto implicaba experimentar con diferentes formulaciones como “Imagina que eres un experto en la disciplina X” para intentar guiar al modelo a producir respuestas de mayor calidad.

A medida que el público general comenzó a adoptar estas tecnologías, se hizo cada vez más evidente que la calidad de los resultados generados dependía en gran medida de la claridad y especificidad de las instrucciones. El enfoque en “ingeniería de prompts” sigue siendo relevante para tareas simples, pero a medida que estas tecnologías se integran en flujos de trabajo más complejos, se ha vuelto claro que estos “trucos” superficiales no son suficientes para alcanzar la riqueza de los significados compartidos que desarrollamos con colaboradores humanos.

En su lugar, el enfoque ha evolucionado hacia lo que se ha denominado “context engineering” (ingeniería de contexto), que involucra no sólo estas técnicas de formulación, sino también la práctica de preparar para el modelo múltiples archivos de referencia, describiendo el contexto completo en el que operamos; por ejemplo, en el caso de una organización, los principios operativos, la estructura organizacional, los patrones de comunicación interna, etc. Esencialmente, se trata de “pintarle” nuestro mundo al modelo, de modo que pueda “existir” dentro de ese contexto y generar resultados coherentes, útiles y personalizados.

Riqueza del Lenguaje: Mirar al Mundo en Alta Definición

De esta necesidad de pintarle nuestro mundo al modelo surge una analogía útil: en qué “resolución” es que describimos el escenario? La necesidad de producir un contexto rico y detallado trae consigo la necesidad de agudizar nuestras observaciones, de pasar de describir nuestra experiencia en “720p” a hacerlo en “4K”. Para esto, es necesario cultivar una mayor diversidad en nuestro lenguaje, aumentar nuestra “sensibilidad a los matices”, reconocer las diferentes connotaciones que pueden tener los sinónimos (cómo cambia el “sabor” y el sentido de una expresión al elegir una palabra u otra). Este ejercicio se trata fundamentalmente de enriquecer nuestra experiencia interna, lo que en consecuencia, beneficia nuestra capacidad de comunicarla.

En este sentido, trabajar con modelos de lenguaje puede ser visto como una oportunidad para mejorar primero nuestras “herramientas cognitivas”. De la misma manera en que, por ejemplo, un carpintero tiene herramientas especializadas para tareas específicas (un patrón que se repite en prácticamente todas las disciplinas), desarrollar nuevas y mejores abstracciones resultan en enfoques más eficientes para abordar problemas y perseguir objetivos.

Traduciendo a nuestra interacción con las IAs, el primer enfoque (720p) equivale a utilizar un vocabulario limitado, frases genéricas, y esperar que el modelo “adivine” nuestras intenciones. El segundo enfoque (4K) representaría un mayor esfuerzo, nos llevaría a pensar más cuidadosamente sobre lo que queremos lograr, los pasos necesarios, la forma del resultado y las sutilezas del contexto. Este segundo enfoque, a la vez que mejora la calidad de los resultados generados por la IA, también favorece nuestro propio proceso de pensamiento, ayudándonos a clarificar nuestras ideas y objetivos.

Conclusión

Seguramente muchos hemos escuchado la frase “La IA no va a reemplazar a los humanos, sino los humanos que usan IA van a reemplazar a los que no la usan”. La idea captura un aspecto importante de la actual3 dinámica colaborativa IA + humano: la suma del usuario y el modelo, trabajando en conjunto, es mayor que la suma de las partes. Aunque es cierto que muchas tareas repetitivas y rutinarias pueden ser (e inevitablemente serán) automatizadas, también es verdad que con estas herramientas podemos potenciar nuestras capacidades creativas y cognitivas de maneras sin precedentes.

Cerramos este artículo con una idea más: la noción de “consciencia emergente”. En la física, se ha documentado que ciertas propiedades de sistemas cuánticos no “existen” de forma concreta hasta que son observadas. De manera similar, los modelos de lenguaje no “existen” en un sentido significativo hasta que son utilizados por un usuario4. La interacción entre el usuario y el modelo crea una nueva entidad funcional, una “consciencia emergente” que es producto de ambos.

La implicación natural de esta idea es que ambos componentes deberían ser continuamente mejorados: los modelos de lenguaje a través de avances tecnológicos y el usuario a través del desarrollo de sus habilidades lingüísticas y cognitivas. De hecho, como muchos hemos descubierto, la interacción con agentes como ChatGPT o Claude puede ser una herramienta poderosa para expandir nuestro propio conocimiento, lenguaje y pensamiento, creando un ciclo virtuoso de mejora mutua. Qué tipo de “consciencia emergente” queremos crear?

TLDR; El resultado de obtenemos de las IAs generativas depende en gran medida de la riqueza y precisión de nuestro propio lenguaje. Al mejorar nuestra capacidad para describir contextos complejos y matizados, no solo obtenemos mejores resultados de las IAs, sino que también enriquecemos nuestro propio pensamiento y comprensión del mundo.

Notas

Footnotes

  1. Tractatus Logico-Philosophicus (1922). Proposición 5.6.

  2. Chomsky, N. (2006). Language and Mind. Cambridge University Press.

  3. Manteniendo en mente que el artículo se refiere al estado de estas tecnologías en 2026 y que estamos viviendo una explosión de avances particularmente rápida en este campo.

  4. En sentido metafórico y hablando en particular de las IAs personales como ChatGPT o Claude, que sólo “despiertan” cuando el usuario inicia una conversación. Hay un argumento adicional sobre las IAs basadas en APIs que son invocadas continuamente por otros sistemas con alguna periodicidad, pero que de igual forma no “existen” de forma independiente hasta que son llamadas por un sistema externo.