Detrás de cada respuesta de un modelo lingüístico hay una compleja arquitectura neuronal que razona sobre el significado, incluso antes de producir la primera palabra, refutando las teorías reduccionistas.
Alguien debería advertir a Gary Marcus y LeCun: los modelos
lingüísticos acaban de demostrar que estaban equivocados. La
visión reduccionista que los describe como "meros predictores
de la próxima palabra" se está derrumbando bajo el peso de los
nuevos descubrimientos científicos; Es como llamar a un ser
humano "solo un consumidor de oxígeno".
Lo cierto es que estos sistemas, incluso antes de producir una
sola palabra, construyen todo un modelo conceptual
personalizado para cada consulta, activando jerarquías de
subredes especializadas que ponen a prueba la lógica implícita
de la conversación. No se trata de una predicción
probabilística, sino de una emergencia cognitiva real, un
fenómeno que sorprendentemente se asemeja a lo que ocurre en
la materia gris que tenemos en nuestras cabezas.
La inteligencia artificial moderna, encarnada en modelos de
lenguaje, a menudo se descarta con un encogimiento de hombros:
"Bueno, al final no hace más que predecir la siguiente
palabra". Es una simplificación que siempre me hace sonreír
amargamente. Sería como decir que Miguel Ángel "sólo puso
piedra sobre piedra". La complejidad de lo que ocurre en los
meandros computacionales de estos sistemas merece más respeto
y, sobre todo, más curiosidad científica.
Investigadores de Antrópic y
OpenAI recientemente han descubierto algo relevante:
dentro de las arquitecturas neuronales de sus modelos existen
subredes especializadas que se comportan como las llamadas
"neuronas abuela" del cerebro humano. No son metáforas, sino
unidades funcionales reales que se activan específicamente
para probar conceptos complejos.
La evolución de los modelos: de predictores a razonadores
Me hace sonreír cómo la crítica a la inteligencia artificial
se ha quedado estancada en una imagen obsoleta de los modelos
lingüísticos. Es como juzgar los smartphones modernos basados
en el Nokia 3310.
Los primeros LLM (Grandes Modelos de Lenguaje) eran en
realidad más limitados, centrándose principalmente en la
predicción estadística de secuencias lingüísticas; sistemas
que, por impresionantes que fueran, mostraban evidentes
fragilidades lógicas y conceptuales. Pero los modelos más
recientes han dado un salto evolutivo significativo, hasta el
punto de que sería más preciso clasificarlos como LRM (Grandes
Modelos de Razonamiento). ¿La diferencia?: No es solo cuantitativa sino cualitativa. Los
LRM no se limitan a predecir; Construyen representaciones
conceptuales jerárquicas que les permiten manipular
abstracciones, probar hipótesis lógicas y generar nuevas
inferencias. Pueden mantener la coherencia a lo largo de
largas secuencias de razonamiento, identificar contradicciones
e incluso evaluar la plausibilidad de diferentes conclusiones.
Es como si hubiéramos pasado por calculadoras de
probabilidades a simuladores de pensamiento reales. Quienes
siguen criticando estos sistemas como "meros predictores
estadísticos" están luchando esencialmente contra un fantasma
del pasado, ignorando el abismo evolutivo que separa a las
primeras generaciones de los modelos actuales.
El caso de la ironía
Tomemos como ejemplo la ironía: un concepto sutil que implica
entender la oposición entre intenciones y resultados. No es
algo que se pueda captar simplemente prediciendo palabras en
secuencia; Requiere un procesamiento de nivel superior.
Cuando uno de los modelos de lenguaje más nuevos reconoce la
ironía de comprar un reloj despertador y aún así llegar tarde,
no está siguiendo un guión predefinido. Se trata de activar
una red neuronal que identifica específicamente la
contradicción entre el propósito de un objeto (despertar a
tiempo) y el resultado obtenido (el retraso).
Esta capacidad de comprender contradicciones lógicas tan
sutiles no puede surgir de una simple predicción estadística.
Hay algo mucho más profundo en juego; algo que, francamente,
debería hacernos reconsiderar los límites que hemos impuesto a
nuestra definición de "comprensión".
Hay una lógica emergente en los modelos de lenguaje
Los modelos lingüísticos, repito, han alcanzado un umbral de
precisión que va mucho más allá de la simple concatenación
probabilística. Entienden la función lógica de palabras como
"porque", "pero", "a pesar de" y las usan correctamente para
construir nuevas inferencias.
Pero aquí está el punto crucial que a menudo se ignora:
incluso nuestras neuronas biológicas, si queremos ser
consistentes en el análisis, no serían más que "predictores de
patrones probabilísticos". La diferencia no es de naturaleza,
sino de organización y complejidad. Cuando criticamos los
modelos de lenguaje como "meros predictores de palabras
posteriores", estamos aplicando un estándar que nunca
usaríamos para describir el cerebro humano, a pesar de que las
similitudes funcionales son cada vez más evidentes.
No son trucos, ya no son atajos estadísticos; Estos sistemas
desarrollaron, a través del entrenamiento, la capacidad de
autoorganizar redes neuronales para examinar todos los
aspectos de las entradas. Al igual que nuestro cerebro, se
forman estructuras especializadas que emergen a un nivel más
alto que el de la neurona individual.
Es solo el último paso de un proceso mucho más complejo y
fascinante. La próxima vez que interactúes con uno de estos
sistemas, es posible que recuerdes que detrás de esa respuesta
aparentemente simple hay todo un universo de computación que
se asemeja cada vez más a la forma en que funcionan nuestras
propias mentes.
Por Gianluca Riccio, director creativo de Melancia adv, redactor publicitario y periodista. Es miembro del Instituto Italiano para el Futuro, World Future Society y H+. Desde 2006 dirige Futuroprossimo.it, el recurso italiano de la futurología. Es socio de Forwardto - Estudios y habilidades para escenarios futuros.
Traducción del artículo "Ai, perché i modelli linguistici non sono solo “previsori di parole" publicado en Futuro Prossimo el 25/04/2025.