Blog de Diego García Morate

∞ Explorando la interesección entre IA, emprendimiento y la tecnología

¿Cuán potentes podrán ser los modelos de lenguaje?

¿Cuán potentes podrán ser los modelos de lenguaje?

Esta es una pregunta recurrente. Las expectativas y las enormes inversiones en inteligencia artificial han despertado un gran interés por saber hasta dónde pueden llegar estos modelos de lenguaje en términos de capacidad y precisión.

En 2020, OpenAI publicó un artículo científico que analizó los factores fundamentales que determinan el rendimiento de estos modelos. El estudio concluyó que dicho rendimiento depende principalmente de tres variables: la capacidad de procesamiento, el tamaño del conjunto de datos (dataset) y la complejidad del modelo (medida por el número de parámetros).

Leyes de Escalado
Diagrama de las leyes de escalado que ilustra la relación entre los tres factores clave

Al analizar cómo interactúan estos factores, se identifican patrones que permiten mejorar de forma óptima los modelos:

A medida que continúe el crecimiento exponencial en el tamaño de los datasets y la capacidad de cómputo, es probable que veamos modelos de lenguaje cada vez más potentes y precisos. No obstante, también surgen desafíos importantes. Aumentar el tamaño y la complejidad de los modelos requiere enormes recursos computacionales, lo que podría limitar su accesibilidad y sostenibilidad a largo plazo.

El futuro de los modelos de lenguaje parece no tener un límite claro. Las investigaciones actuales indican que, a medida que se incrementen los datos, la complejidad y la capacidad de cómputo, los modelos seguirán mejorando hacia capacidades aún desconocidas.