Introducción
La Inteligencia Artificial no crece en un vacío: su desarrollo y despliegue están inevitablemente imbricados en las dinámicas sociales, culturales y económicas que la rodean. Cuando hablamos de “IA” no solo nos referimos a algoritmos o modelos matemáticos, sino también al sector empresarial que los crea y al uso concreto que de ellos se hace en la vida cotidiana. En esta lección nos preguntaremos quiénes participan, quiénes se benefician y quiénes salen perjudicados por la expansión de estas tecnologías. Para ello, abordaremos en primer lugar el valor de la diversidad y la inclusión en el propio campo de la IA, luego el papel que juegan las grandes empresas tecnológicas y, finalmente, las repercusiones reales que estos sistemas tienen sobre comunidades y colectivos, especialmente los más vulnerables.
Desarrollo del tema
Diversidad e inclusión en el sector de la IA
La riqueza de una sociedad radica en la pluralidad de experiencias, orígenes y perspectivas de sus miembros. Cuando trasladamos esta premisa al campo de la IA, constatamos que la heterogeneidad de identidades y trayectorias fortalece la creatividad y la pertinencia de las soluciones tecnológicas. Una institución diversa refleja mejor la complejidad del mundo al que pretende servir y, por tanto, está en mejores condiciones de integrar las preocupaciones de amplios sectores de la población. Incluir de manera activa esas diferencias —ya sea de género, étnicas, culturales o de formación académica— no es un gesto meramente simbólico, sino una estrategia clave para evitar sesgos en los datos y en los sistemas que de ellos se nutren.
Tratar a todas las personas de manera justa implica garantizar que ninguna sea discriminada por atributos personales o circunstancias ajenas a su control. Pero la justicia no se detiene en el terreno de la igualdad de trato: la equidad reclama dotar a cada quien de los ajustes necesarios para arribar a un punto de partida común. En el ámbito de la IA, esto puede traducirse en adaptar criterios de evaluación, en diseñar interfaces accesibles o en incorporar datos que representen adecuadamente a personas con discapacidad, geografías remotas o realidades socioeconómicas diversas. Solo así lograremos que el campo de la IA no sea un club selecto, sino un ecosistema inclusivo que impulse innovaciones beneficiosas para toda la sociedad.
Figura 8
Tratar a todas las personas de manera justa implica garantizar que ninguna sea discriminada por atributos personales o circunstancias ajenas a su control

El papel de las grandes empresas tecnológicas
Cuando reflexionamos sobre los motores de la innovación en IA, no podemos ignorar el peso de Amazon, Microsoft, Google y otras multinacionales. Para algunos críticos, como Nick Srnicek, estas compañías constituyen un obstáculo para la democratización de la investigación, al concentrar talento y recursos en proyectos propios y orientados a sus intereses comerciales. Sin embargo, existe también una visión contrapuesta que defiende que, al asumir el costo de infraestructuras de cómputo masivo y poner a disposición de la comunidad herramientas como servicios en la nube o bibliotecas de código abierto, facilitan el acceso de investigadores independientes y de instituciones educativas con menor presupuesto.
A la hora de sopesar ambos enfoques, podemos construir un debate comparativo que enfrente la crítica —que señala el riesgo de algorimiprogramas cerrados y acuerdos de exclusividad— con el argumento de quienes ven en esos mismos gigantes un aliado para expandir las capacidades de cómputo y fomentar colaboraciones multinivel. La pregunta central no es decidir de forma dogmática si estas empresas son “amigas” o “enemigas” de la IA democrática, sino identificar las condiciones bajo las cuales su contribución potencia el bien común y limitar aquellos aspectos en que su enorme escala podría generar dependencia, monopolio o filtrado sesgado de resultados.
El impacto de la IA en la sociedad
Los trabajos de la investigadora Timnit Gebru ofrecen un espejo inquietante sobre cómo la IA puede profundizar desigualdades existentes. Su denuncia del proyecto ‘Extreme Vetting Initiative’ de ICE reveló hasta qué punto un sistema de vetado migratorio —basado en aprendizaje automático aplicado a datos de redes sociales— ponía en jaque derechos fundamentales al dictaminar quién podía entrar o debía ser deportado. Muchos se preguntan si herramientas de este calibre deberían existir jamás, dada la dificultad de garantizar su transparencia y su margen de error.
Cuando Gebru cuestiona la seguridad de las herramientas actuales, alude a casos como la detención indebida de palestinos de habla árabe por algoritmos que traducen mal matices idiomáticos, o al sesgo sistemático de las “word embeddings”, vectores que modelan similitudes semánticas pero replican prejuicios históricos: por ejemplo, asociar consistentemente profesiones técnicas con hombres y tareas domésticas con mujeres. Estos ejemplos revelan que una IA “hace lo que le enseñas” y puede reproducir inequidades sociales si los datos de entrenamiento están impregnados de discriminación.
Figura 9
La IA “hace lo que le enseñas” y puede reproducir inequidades sociales si los datos de entrenamiento están impregnados de discriminación

El informe ‘The Perpetual Line Up’ añade otra capa de complejidad: evidencia que los sistemas de reconocimiento facial, lejos de ser fiables, presentan tasas de error tan elevadas que resultan inseguros, tanto por falsos positivos como por la posibilidad de un uso malintencionado. Frente a estas amenazas, la solución no reside en vetar toda tecnología, sino en reforzar protocolos de auditoría, establecer estándares éticos y diseñar colaboraciones sólidas entre expertos en datos, juristas, sociólogos y representantes de las comunidades afectadas. Solo un enfoque interdisciplinar garantiza que la IA contribuya a cerrar brechas en lugar de ensancharlas.
Conclusiones
En este recorrido hemos comprobado que la IA es tan potente como frágil: poderosa para resolver problemas complejos, pero proclive a reproducir injusticias cuando carece de diversidad en su base de diseño o de controles éticos efectivos. La gobernanza de estas tecnologías exige un doble esfuerzo: por un lado, promover la inclusión de voces plurales en el sector y, por otro, vigilar con rigor el papel de las grandes corporaciones para que su influencia sirva al bien común. Además, los ejemplos extraídos del trabajo de Timnit Gebru y del colectivo ‘The Perpetual Line Up’ subrayan que la transparencia, la auditabilidad y la colaboración interdisciplinar son pilares esenciales para evitar que la IA fracture aún más nuestro tejido social. Solo así podremos encaminarla hacia un futuro en el que la equidad y la justicia no sean meros slogans, sino realidades tangibles en cada algoritmo que tomamos como aliado.