Un grupo de investigadores de las universidades de Stanford y Washington logró un hito impresionante: desarrollaron un modelo de inteligencia artificial especializado en razonamiento avanzado, gastando menos de 50 dólares en créditos de computación en la nube.
El modelo, llamado s1, demostró un rendimiento comparable a tecnologías de vanguardia como el o1 de OpenAI y el R1 de DeepSeek, ambos considerados referentes en el sector.
La diferencia del s1 radica en la forma en que fue entrenado. En lugar de comenzar desde cero, los investigadores utilizaron un modelo preexistente y aplicaron una técnica llamada distilación.
Este proceso permite que una IA aprenda de las respuestas de otra, absorbiendo su capacidad de razonamiento. En el caso del s1, la fuente fue el modelo experimental Gemini 2.0 Flash Thinking de Google, que puede ser accedido gratuitamente, aunque con algunas restricciones.
Este enfoque plantea un debate importante sobre el futuro de la IA. Si un equipo con pocos recursos puede recrear tecnologías millonarias de manera accesible, esto podría acelerar el desarrollo de la inteligencia artificial o, por otro lado, generar preocupaciones sobre el control y la exclusividad de estos modelos.
Empresas como OpenAI ya han expresado su descontento con la distilación de sus modelos, mientras que Google tiene reglas que prohíben el uso de sus IAs para crear competidores directos.
A pesar de las controversias, el s1 ya está disponible en GitHub, junto con el código y los datos utilizados en el entrenamiento. El modelo fue entrenado en menos de 30 minutos, utilizando 16 GPUs Nvidia H100, un costo que hoy en día puede ser accesible incluso para investigadores independientes.