¿Alguna vez has oído que ChatGPT consume mucha energía para generar sus respuestas? Pues bien, durante algún tiempo, esta fue una de las mayores preocupaciones en cuanto al impacto ambiental de la inteligencia artificial.
Sin embargo, un estudio reciente ha venido a desmitificar este mito y mostrar que la IA de OpenAI no es tan «consumidora» de energía como se pensaba.
Hasta hace poco, circulaba la información de que cada respuesta de ChatGPT requería alrededor de 3 vatios-hora de energía, lo cual parecía bastante. Para tener una idea, este valor era diez veces mayor que la energía consumida por una simple búsqueda en Google.
Sin embargo, una investigación de Epoch AI, liderada por el analista de datos Joshua You, reveló que el consumo real de energía de ChatGPT es mucho menor.
El estudio indica que, al usar el modelo GPT-4, cada respuesta consume solo 0,3 vatios-hora, un valor muy por debajo de las estimaciones anteriores.
You explicó que el origen de este error estaba en cálculos antiguos e imprecisos. Muchos estudios anteriores asumieron que ChatGPT estaba funcionando en chips antiguos e ineficientes, lo que llevó a una sobreestimación del consumo de energía.
Además, el analista tranquilizó a los lectores, destacando que el uso de energía de ChatGPT no llega a ser significativo si se compara con otros aparatos del día a día, como la calefacción o el aire acondicionado de la casa, o incluso el consumo de combustible de un coche.
A pesar de esta buena noticia, vale recordar que la investigación no es definitiva. El consumo de energía puede variar dependiendo de las funcionalidades que ChatGPT esté utilizando, como la generación de imágenes, que requiere más recursos.
Pero, por ahora, ChatGPT no parece ser tan «voraz» en términos de energía, lo que sin duda ayudará a aliviar las preocupaciones ambientales relacionadas con el uso de la inteligencia artificial.