Leyes de escalado: ¿muro o espejismo?
Llevamos ya mucho tiempo escuchando que las leyes de escalado han muerto.
Las leyes de escalado predicen que si aplicamos más fuerza bruta —potencia de cómputo y más datos— a un modelo de inteligencia artificial, conseguiremos que tenga mayor rendimiento. Esta es la base de las grandes inversiones de IA actuales: tenemos una línea que marca el camino.
Existe el pensamiento colectivo de que las leyes de escalado están muertas porque ya hemos llegado al muro. Resultados un tanto desalentadores como GPT-5 han alimentado este tipo de afirmaciones. E incluso personas muy relevantes en este campo, como Ilya Sutskever, afirman de forma tajante que ya hemos llegado al muro y que cualquier intento de seguir escalando las aproximaciones actuales solo nos llevará al fracaso (enlace).
La sorpresa llegó la semana pasada con un tweet de Oriol Vinyals de Google, quien afirma que entrenando Gemini 3 han visto mayores avances que con ningún otro modelo previo gracias al pre-entrenamiento (la parte del entrenamiento de un modelo que depende fundamentalmente de la fuerza bruta). Esto, acompañado del gran recibimiento que está teniendo Gemini 3, está generando mucho entusiasmo.
Imagen: Oriol Vinyals
¿Se ha roto el muro o realmente no existía? La realidad es que ambos hablan de cosas un tanto diferentes.
Posiblemente ya hemos agotado las mayores fuentes de datos de alta calidad accesibles en internet, y eso es un gran desafío. Pero Google ha vuelto a demostrar que esa no es la única forma de resolver los problemas. En la documentación de Gemini 3 han publicado que están enseñando a la IA con videos, sonidos y, lo más importante, con datos sintéticos: información de alta calidad creada por otras IAs, no por humanos.
El crecimiento por fuerza bruta se agota. Lo que viene después es más sutil, más difícil, y probablemente más interesante.
¿Dejaremos de tener modelos perceptiblemente mejores en los próximos meses?
Seguramente no.