El entrenamiento de la Inteligencia Artificial (IA) se convirtió en un proceso tan costoso como polémico. El caso del asistente desarrollado por la empresa xAI de Elon Musk, lo refleja con claridad: su versión más reciente, Grok 4, demandó una inversión millonaria y un nivel de consumo energético y ambiental comparable al de una ciudad entera.
Según un informe de la organización de investigación Epoch AI, entrenar Grok 4 tuvo un costo de 490 millones de dólares y demandó el equivalente a 246 millones de horas de cálculo en supercomputadoras equipadas con GPU H100. El resultado: un consumo eléctrico de 310 gigavatios por hora, suficiente para abastecer a una ciudad de 4.000 habitantes, y la emisión de 154.000 toneladas de dióxido de carbono, similar a lo que generaría un avión Boeing durante tres años de vuelos.
El impacto no termina allí. El entrenamiento de la IA requirió 754 millones de litros de agua, volumen capaz de llenar unas 300 piletas olímpicas. El recurso se utilizó tanto en los generadores de gas natural que alimentan la supercomputadora Memphis Colossus de xAI como en los sistemas de refrigeración de los centros de datos, indispensables para evitar el sobrecalentamiento de las máquinas.
La respuesta: Grok 4 Fast
Los datos se difunden al mismo tiempo que la empresa de Musk presentó Grok 4 Fast, una versión más ligera y rápida de su modelo de IA. Según xAI, esta versión utiliza un 40% menos de tokens de pensamiento y reduce en un 98% los costos de operación, manteniendo un rendimiento similar al de Grok 4.
El nuevo modelo también integra funciones de búsqueda en tiempo real a través de la web y de la red social X, además de haber demostrado mayor eficiencia que sus competidores en pruebas independientes frente a OpenAI y Google.
Más allá de la innovación tecnológica, el caso de Grok vuelve a poner sobre la mesa el debate sobre la sostenibilidad de la inteligencia artificial como ya pasó con OpenIA y su ChatGPT.