Saltar al contenido

Lección 4. Si la IA es posible, ¿cómo deberíamos prepararnos?

    Partimos de una premisa decisiva: si aceptamos que la IA alcanzará tarde o temprano un nivel de competencia comparable al humano, surge de inmediato la pregunta —tan sencilla como estremecedora— de qué haremos a continuación. Mientras la cultura popular se regodea en visiones apocalípticas de máquinas despiertas que se vuelven contra nosotros, en los ámbitos académico, industrial y gubernamental proliferan llamados mesurados a la cautela. La cuestión no es ya si la IA llegará a “pensar” o “actuar” como un ser humano, sino cómo maximizar sus beneficios y contener sus riesgos antes de que se asiente definitivamente en nuestra vida cotidiana.

    A lo largo de esta lección abordaremos primero las reflexiones de Stuart Russell, quien nos invita no a debatir si la IA será capaz de igualar al intelecto humano, sino a asumirlo y diseñar desde hoy las estrategias necesarias. Seguidamente, examinaremos ejemplos reveladores de las limitaciones y fallos de los sistemas actuales, demostrando que “hacer lo que se le pide” no siempre equivale a “hacer lo que se necesita”. Finalmente, abriremos el horizonte para preguntarnos por los retos emergentes en torno a la diversidad, la equidad y la sostenibilidad, cuestiones que condicionarán el modo en que esta tecnología se integre en la sociedad.

    Stuart Russell, quien junto a Peter Norvig escribió el libro Artificial Intelligence – A Modern Approach, nos propone un cambio de enfoque radical: en lugar de preguntarnos si alcanzaremos pronto un nivel de inteligencia artificial equiparable al nuestro, deberíamos aceptar esa posibilidad como inevitable y empezar hoy a planificar sus consecuencias. Imaginemos una IA capaz de sustituirnos en tareas tan variadas como la conducción automatizada, el cuidado de personas dependientes o la atención financiera online. Si dicha hipótesis se convierte en realidad, ¿qué oportunidades podríamos aprovechar y qué peligros deberíamos prever? 

    Russell señala que, sin una reflexión previa sobre la alineación de objetivos —cómo garantizamos que la máquina persiga fines compatibles con valores humanos— podríamos enfrentar resultados catastróficos, incluso sin ninguna voluntad maligna por parte del agente artificial. Prepararse, entonces, implica desarrollar marcos de gobernanza, protocolos de control y sistemas de auditoría que aseguren que la IA opere conforme a criterios de seguridad, justicia y responsabilidad.

    Figura 7
    ¿Qué oportunidades podríamos aprovechar y qué peligros deberíamos prever ante la IA?

    ¿Qué oportunidades podríamos aprovechar y qué peligros deberíamos prever ante la IA?

    Para ilustrar cuán lejos estamos aún de una IA “general” verdaderamente confiable, Janelle Shane presenta ejemplos tanto cómicos como alarmantes. Un algoritmo que inventa sabores de helado ofrece combinaciones tan absurdas como “mostaza de chocolate” o “pepino y salsa de soja”, recordándonos que un modelo puede cumplir literalmente las instrucciones de su programador sin entender la intención de fondo.

    Más grave aún, en 2016 el piloto automático de un vehículo Tesla provocó un accidente fatal al “hacer lo que se le pidió” —mantenerse en el carril— pero no lo que se necesitaba: reaccionar a una grúa detenida en la carretera.

    Un tercer caso estremecedor es el de la herramienta de selección de currículums de Amazon, que aprendió a penalizar perfiles femeninos porque estaba “haciendo lo que le enseñaron” con datos históricos sesgados. En todos estos ejemplos subyace la misma lección: una IA puede optimizar una función objetivo mal diseñada, generando resultados que, lejos de ayudar, perpetúan errores y discriminaciones.

    Si asumimos que la IA se integrará progresivamente en sectores tan diversos como la sanidad, la justicia o el transporte, debemos anticipar sus repercusiones sobre grupos sociales distintos. La historia del algoritmo COMPAS en EE. UU. muestra cómo un puntaje de riesgo, aparentemente objetivo, refleja y amplifica disparidades raciales al apoyarse en datos históricos injustos. 

    En paralelo, la intensidad energética de los centros de datos plantea interrogantes ecológicos: ¿cómo evitamos que el despliegue masivo de modelos de aprendizaje profundo agrave la huella de carbono? 

    Asimismo, la diversidad en los equipos de diseño y en los conjuntos de datos resulta esencial para garantizar que la IA sirva a toda la sociedad y no solo a una minoría. Estos temas —justicia algorítmica, sostenibilidad medioambiental y pluralidad cultural— formarán el núcleo de nuestras discusiones en las próximas sesiones, pues de su atención depende que la IA contribuya al bien común en lugar de reproducir desigualdades.

    En esta cuarta lección hemos pasado de la pregunta hipotética —¿llegará la IA a igualar nuestra inteligencia?— a la discusión concreta sobre cómo deberíamos prepararnos para esa realidad, si finalmente se materializa. Al contrastar la visión optimista de Russell con las anécdotas de sistemas que “hicieron lo que se les pedía” pero no lo que se necesitaba, hemos visto la importancia de diseñar funciones objetivo bien fundamentadas y de establecer mecanismos de supervisión. Finalmente, hemos esbozado los retos inmediatos en torno a la diversidad, la equidad y la sostenibilidad, cuyas respuestas marcarán si la IA se convierte en una herramienta de justicia social o en un reflejo amplificado de nuestras propias desigualdades.

    [Regresar al curso]