Detrás de cada respuesta de un modelo lingüístico hay una compleja arquitectura neuronal que razona sobre el significado, incluso antes de producir la primera palabra, refutando las teorías reduccionistas.

Alguien debería advertir a Gary Marcus y LeCun: los modelos lingüísticos acaban de demostrar que estaban equivocados. La visión reduccionista que los describe como "meros predictores de la próxima palabra" se está derrumbando bajo el peso de los nuevos descubrimientos científicos; Es como llamar a un ser humano "solo un consumidor de oxígeno".

Lo cierto es que estos sistemas, incluso antes de producir una sola palabra, construyen todo un modelo conceptual personalizado para cada consulta, activando jerarquías de subredes especializadas que ponen a prueba la lógica implícita de la conversación. No se trata de una predicción probabilística, sino de una emergencia cognitiva real, un fenómeno que sorprendentemente se asemeja a lo que ocurre en la materia gris que tenemos en nuestras cabezas.

La inteligencia artificial moderna, encarnada en modelos de lenguaje, a menudo se descarta con un encogimiento de hombros: "Bueno, al final no hace más que predecir la siguiente palabra". Es una simplificación que siempre me hace sonreír amargamente. Sería como decir que Miguel Ángel "sólo puso piedra sobre piedra". La complejidad de lo que ocurre en los meandros computacionales de estos sistemas merece más respeto y, sobre todo, más curiosidad científica.

Investigadores de Antrópic y OpenAI recientemente han descubierto algo relevante: dentro de las arquitecturas neuronales de sus modelos existen subredes especializadas que se comportan como las llamadas "neuronas abuela" del cerebro humano. No son metáforas, sino unidades funcionales reales que se activan específicamente para probar conceptos complejos.


La evolución de los modelos: de predictores a razonadores


Me hace sonreír cómo la crítica a la inteligencia artificial se ha quedado estancada en una imagen obsoleta de los modelos lingüísticos. Es como juzgar los smartphones modernos basados en el Nokia 3310.

Los primeros LLM (Grandes Modelos de Lenguaje) eran en realidad más limitados, centrándose principalmente en la predicción estadística de secuencias lingüísticas; sistemas que, por impresionantes que fueran, mostraban evidentes fragilidades lógicas y conceptuales. Pero los modelos más recientes han dado un salto evolutivo significativo, hasta el punto de que sería más preciso clasificarlos como LRM (Grandes Modelos de Razonamiento). ¿La diferencia?: No es solo cuantitativa sino cualitativa. Los LRM no se limitan a predecir; Construyen representaciones conceptuales jerárquicas que les permiten manipular abstracciones, probar hipótesis lógicas y generar nuevas inferencias. Pueden mantener la coherencia a lo largo de largas secuencias de razonamiento, identificar contradicciones e incluso evaluar la plausibilidad de diferentes conclusiones.

Es como si hubiéramos pasado por calculadoras de probabilidades a simuladores de pensamiento reales. Quienes siguen criticando estos sistemas como "meros predictores estadísticos" están luchando esencialmente contra un fantasma del pasado, ignorando el abismo evolutivo que separa a las primeras generaciones de los modelos actuales.


El caso de la ironía


Tomemos como ejemplo la ironía: un concepto sutil que implica entender la oposición entre intenciones y resultados. No es algo que se pueda captar simplemente prediciendo palabras en secuencia; Requiere un procesamiento de nivel superior.

Cuando uno de los modelos de lenguaje más nuevos reconoce la ironía de comprar un reloj despertador y aún así llegar tarde, no está siguiendo un guión predefinido. Se trata de activar una red neuronal que identifica específicamente la contradicción entre el propósito de un objeto (despertar a tiempo) y el resultado obtenido (el retraso).

Esta capacidad de comprender contradicciones lógicas tan sutiles no puede surgir de una simple predicción estadística. Hay algo mucho más profundo en juego; algo que, francamente, debería hacernos reconsiderar los límites que hemos impuesto a nuestra definición de "comprensión".

Hay una lógica emergente en los modelos de lenguaje


Los modelos lingüísticos, repito, han alcanzado un umbral de precisión que va mucho más allá de la simple concatenación probabilística. Entienden la función lógica de palabras como "porque", "pero", "a pesar de" y las usan correctamente para construir nuevas inferencias.

Pero aquí está el punto crucial que a menudo se ignora: incluso nuestras neuronas biológicas, si queremos ser consistentes en el análisis, no serían más que "predictores de patrones probabilísticos". La diferencia no es de naturaleza, sino de organización y complejidad. Cuando criticamos los modelos de lenguaje como "meros predictores de palabras posteriores", estamos aplicando un estándar que nunca usaríamos para describir el cerebro humano, a pesar de que las similitudes funcionales son cada vez más evidentes.

No son trucos, ya no son atajos estadísticos; Estos sistemas desarrollaron, a través del entrenamiento, la capacidad de autoorganizar redes neuronales para examinar todos los aspectos de las entradas. Al igual que nuestro cerebro, se forman estructuras especializadas que emergen a un nivel más alto que el de la neurona individual.

Es solo el último paso de un proceso mucho más complejo y fascinante. La próxima vez que interactúes con uno de estos sistemas, es posible que recuerdes que detrás de esa respuesta aparentemente simple hay todo un universo de computación que se asemeja cada vez más a la forma en que funcionan nuestras propias mentes.

Por Gianluca Riccio, director creativo de Melancia adv, redactor publicitario y periodista. Es miembro del Instituto Italiano para el Futuro, World Future Society y H+. Desde 2006 dirige Futuroprossimo.it, el recurso italiano de la futurología. Es socio de Forwardto - Estudios y habilidades para escenarios futuros.



Traducción del artículo "Ai, perché i modelli linguistici non sono solo “previsori di parole" publicado en Futuro Prossimo el 25/04/2025.