Elon Musk está acostumbrado a mirar más allá del horizonte: lo hizo cuando trazó su plan para Tesla, su compañía de autos eléctricos, y para SpaceX, la compañía con la que espera llevar a la humanidad a Marte. Como Bill Gates, que se transformó en un gurú del cambio. Elon Musk no siempre acierta, pero suele tener una mirada que como mínimo se adelanta a la de muchas personas.

Su último vaticinio lo hizo hace casi un mes, el 29 de febrero de este año en la Bosch Connected World Conference, a la que asistió como invitado con una videollamada. Como era de esperar, los temas de la charla fuero la inteligencia artificial y los autos eléctricos, y Musk aprovechó para hacer una advertencia.

“La inteligencia artificial disponible parece estar aumentando en un factor de 10 cada seis meses. Obviamente, eso no puede continuar a un ritmo tan alto para siempre, o excederá la masa del universo, pero nunca he visto algo así. La fiebre de los chips [que llevó a Nvidia a ser la compañía más valiosa del momento] es mayor que cualquier fiebre del oro que haya existido jamás”, reflexionó Musk. “Creo que realmente estamos al borde de probablemente la mayor revolución tecnológica que jamás haya existido.”

Pero Musk advirtió que “las limitaciones en el cálculo de la IA son muy predecibles… Hace un año, la escasez era de chips para redes neuronales. Luego, era muy fácil predecir que la próxima escasez serán los transformadores reductores de voltaje. Hay que alimentar con energía a estas cosas. Si tenés 100-300 kilovoltios saliendo de una red eléctrica y tiene que reducirse hasta seis voltios, eso es una gran reducción. Mi chiste no tan divertido es que necesitás transformadores para hacer funcionar los transformadores”, dijo, en referencia tanto a los transformadores de voltaje como a los que se usan en redes neuronales (un conjunto de procesadores que funciona en forma similar al cerebro, y se usa en inteligencia artificial).

“Así que la próxima escasez será de electricidad. No podrán generar suficiente electricidad para hacer funcionar todos los chips. Creo que el año que viene verán que simplemente no podrán encontrar suficiente electricidad para hacer funcionar todos los chips. Creo que el crecimiento simultáneo de los autos eléctricos y la inteligencia artificial, que necesitan electricidad y transformadores de tensión, está creando una enorme demanda de equipos eléctricos y de generación de energía eléctrica”.

Elon Musk no es el único que piensa así: Microsoft, por ejemplo, viene estudiando la viabilidad de construir mini reactores nucleares junto a los centros de datos donde están las computadoras que hacen funcionar una inteligencia artificial como ChatGPT, para no tener que depender de la red eléctrica convencional. Hacer funcionar una plataforma de inteligencia artificial requiere además muchísima agua, que se usa para refrigerar el edificio donde se instalan los equipos.

Además, todas las consultas hechas a ChatGPT, Copilot, Gemini o cualquier otra inteligencia artificial consumen más energía que una búsqueda simple, por ejemplo. Según un estudio del fundador de la plataforma DigiEconomist, Alex de Vries, si cada búsqueda de Google utilizara IA, necesitaría unos 29,2 TWh de energía al año, lo que equivale al consumo anual de electricidad de Irlanda.

 

Facebook Comments