Saltar al contenido

Lección 6. La sostenibilidad de la IA

    La sostenibilidad de la Inteligencia Artificial constituye un desafío doble: por un lado, debemos evaluar su impacto social —cómo la adopción masiva de estas tecnologías afecta la justicia, la equidad y el bienestar de las comunidades—; por otro, comprobar el coste ambiental que implica su desarrollo y despliegue, tanto en el consumo de energía como en el uso de recursos materiales. En esta lección profundizaremos en ambas dimensiones, explorando no solo las iniciativas para adaptar la IA a prácticas más sostenibles, sino también las formas en que la propia IA puede convertirse en aliada de la sostenibilidad global.

    La noción de “IA sostenible” agrupa dos ámbitos complementarios. Primero, la sostenibilidad social, que examina cómo se diseñan y utilizan los sistemas de IA para minimizar impactos adversos y maximizar beneficios colectivos; segundo, la sostenibilidad ambiental, que analiza el consumo energético y de materiales que requieren las infraestructuras necesarias para entrenar y mantener esos sistemas.

    El reto consiste en aplicar los principios de la ciencia de la sostenibilidad: entender ciclos de vida, recursos críticos y externalidades negativas, para luego trasladar ese conocimiento al diseño de modelos de IA más ligeros y responsables. Al mismo tiempo, nos interesa la vertiente positiva: investigar cómo la IA puede optimizar el uso de recursos en sectores como la agricultura de precisión, la gestión de redes eléctricas o la monitorización de ecosistemas, contribuyendo así a la mitigación del cambio climático y la protección de la biodiversidad.

    Figura 10
    Entre los desafíos en los que la IA puede jugar un papel crucial se encuentran las medidas para combatir el cambio climático

    Entre los desafíos en los que la IA puede jugar un papel crucial se encuentran las medidas para combatir el cambio climático

    En su entrada en el blog de Deloitte, Sam Gould identifica varios desafíos en los que la IA puede jugar un papel crucial. Entre ellos, la predicción temprana de desastres naturales, la optimización de rutas logísticas para reducir emisiones de CO₂, la gestión inteligente de redes de agua y energía o la mejora en la eficiencia de procesos industriales. 

    A partir de estos ejemplos, surge la posibilidad de integrar la IA en la llamada “economía circular”: un modelo que promueve el diseño de productos para su reutilización, el mantenimiento predictivo que alarga la vida útil de los bienes, y la optimización del reciclaje mediante clasificación automatizada.

    Así, los algoritmos de aprendizaje automático pueden identificar patrones de desgaste antes de que se produzcan fallos, coordinar flotas de recogida selectiva de residuos o incluso sugerir rediseños de procesos para minimizar la generación de desechos. Estas aplicaciones muestran que la IA no solo consume recursos, sino que también puede reducir pérdidas y cerrar ciclos de materia en industrias tan diversas como la textil, la electrónica o la alimentaria.

    Sin embargo, el corazón de la cuestión reside en equilibrar costo y beneficio. Las redes neuronales artificiales, base de muchas soluciones de Machine Learning, requieren enormes volúmenes de datos y potencia de cálculo para entrenar modelos de última generación. Cada iteración con billones de parámetros implica decenas de miles de horas máquina en clústeres especializados, lo que se traduce en un gasto energético comparable al de miles de hogares durante un año y en emisiones de carbono no despreciables. Por tanto, una parte esencial de la investigación en IA sostenible se dedica a desarrollar modelos más eficientes —ya sea mediante compresión de redes, poda de parámetros, aprendizaje por transferencia o entrenamiento federado— y a migrar centros de datos hacia fuentes renovables.

    El auge de los modelos de lenguaje a gran escala —como ChatGPT-— ha planteado un nuevo dilema: ¿hasta qué punto compensa mejorar el desempeño con el nivel de recursos consumidos? Según el análisis de Kyle Wiggers en VentureBeat, entrenar GPT-3 supuso un coste estimado en varios millones de dólares y requirió infraestructuras con cientos de procesadores especializados funcionando durante semanas, sumando miles de petaflop/s-días de cómputo. Además, su puesta en producción y fine-tuning para aplicaciones específicas añade más rondas de cómputo intensivo. 

    Estos datos refuerzan la afirmación de que un modelo más grande no siempre es mejor en términos de sostenibilidad: a pesar de que incrementa la calidad de las predicciones, también dispara el consumo energético y la huella de carbono. En consecuencia, resulta imprescindible cuestionar la ecuación “más parámetros = mejor modelo” y explorar alternativas que optimicen la relación coste-beneficio, como la adopción de arquitecturas híbridas o la priorización de modelos ligeros en entornos con recursos limitados.

    Hemos comprobado que la sostenibilidad de la IA no es un asunto accesorio, sino un imperativo ético y técnico. Por un lado, los algoritmos pueden convertirse en aliados fundamentales para promover prácticas circulares y reducir el impacto ambiental en sectores clave. Por otro, el vertiginoso aumento de parámetros y etapas de entrenamiento de redes neuronales profundas resulta insostenible si no se adoptan estrategias de eficiencia y energías limpias. Asimismo, la sostenibilidad social —garantizar que los beneficios de la IA se distribuyan equitativamente y no refuercen brechas— requiere una mirada interdisciplinar que combine ingeniería, economía y políticas públicas. Solo al integrar estos enfoques podremos encauzar el potencial de la IA hacia un futuro donde el progreso tecnológico vaya de la mano del respeto al planeta y de la justicia social.

    [Regresar al curso]