{"id":853,"date":"2025-06-25T09:50:24","date_gmt":"2025-06-25T15:50:24","guid":{"rendered":"https:\/\/evida.ugto.mx\/learning\/?p=853"},"modified":"2025-06-25T09:50:25","modified_gmt":"2025-06-25T15:50:25","slug":"leccion-4-si-la-ia-es-posible-como-deberiamos-prepararnos","status":"publish","type":"post","link":"https:\/\/evida.ugto.mx\/learning\/leccion-4-si-la-ia-es-posible-como-deberiamos-prepararnos\/","title":{"rendered":"Lecci\u00f3n 4. Si la IA es posible, \u00bfc\u00f3mo deber\u00edamos prepararnos?"},"content":{"rendered":"\n<h2 class=\"wp-block-heading has-text-align-center has-nv-c-2-color has-text-color has-link-color wp-elements-9e66ac66e8aa870b5eb0d694ea945f34\">Introducci\u00f3n<\/h2>\n\n\n\n<p>Partimos de una premisa decisiva: si aceptamos que la IA alcanzar\u00e1 tarde o temprano un nivel de competencia comparable al humano, surge de inmediato la pregunta \u2014tan sencilla como estremecedora\u2014 de qu\u00e9 haremos a continuaci\u00f3n. Mientras la cultura popular se regodea en visiones apocal\u00edpticas de m\u00e1quinas despiertas que se vuelven contra nosotros, en los \u00e1mbitos acad\u00e9mico, industrial y gubernamental proliferan llamados mesurados a la cautela. La cuesti\u00f3n no es ya si la IA llegar\u00e1 a \u201cpensar\u201d o \u201cactuar\u201d como un ser humano, sino c\u00f3mo maximizar sus beneficios y contener sus riesgos antes de que se asiente definitivamente en nuestra vida cotidiana.<\/p>\n\n\n\n<p>A lo largo de esta lecci\u00f3n abordaremos primero las reflexiones de Stuart Russell, quien nos invita no a debatir si la IA ser\u00e1 capaz de igualar al intelecto humano, sino a asumirlo y dise\u00f1ar desde hoy las estrategias necesarias. Seguidamente, examinaremos ejemplos reveladores de las limitaciones y fallos de los sistemas actuales, demostrando que \u201chacer lo que se le pide\u201d no siempre equivale a \u201chacer lo que se necesita\u201d. Finalmente, abriremos el horizonte para preguntarnos por los retos emergentes en torno a la diversidad, la equidad y la sostenibilidad, cuestiones que condicionar\u00e1n el modo en que esta tecnolog\u00eda se integre en la sociedad.<\/p>\n\n\n\n<h2 class=\"wp-block-heading has-text-align-center has-nv-c-2-color has-text-color has-link-color wp-elements-2cd49346538ce676da59510eb60ff458\">Desarrollo del tema<\/h2>\n\n\n\n<h3 class=\"wp-block-heading has-text-align-center has-nv-c-1-color has-text-color has-link-color wp-elements-bc845dc69b294d01719aa5b10437ab02\">Si la IA es posible, \u00bfc\u00f3mo deber\u00edamos prepararnos?<\/h3>\n\n\n\n<p>Stuart Russell, quien junto a Peter Norvig escribi\u00f3 el libro <em>Artificial Intelligence &#8211; A Modern Approach<\/em>, nos propone un cambio de enfoque radical: en lugar de preguntarnos si alcanzaremos pronto un nivel de inteligencia artificial equiparable al nuestro, deber\u00edamos aceptar esa posibilidad como inevitable y empezar hoy a planificar sus consecuencias. Imaginemos una IA capaz de sustituirnos en tareas tan variadas como la conducci\u00f3n automatizada, el cuidado de personas dependientes o la atenci\u00f3n financiera online. Si dicha hip\u00f3tesis se convierte en realidad, \u00bfqu\u00e9 oportunidades podr\u00edamos aprovechar y qu\u00e9 peligros deber\u00edamos prever?&nbsp;<\/p>\n\n\n\n<p>Russell se\u00f1ala que, sin una reflexi\u00f3n previa sobre la alineaci\u00f3n de objetivos \u2014c\u00f3mo garantizamos que la m\u00e1quina persiga fines compatibles con valores humanos\u2014 podr\u00edamos enfrentar resultados catastr\u00f3ficos, incluso sin ninguna voluntad maligna por parte del agente artificial. Prepararse, entonces, implica desarrollar marcos de gobernanza, protocolos de control y sistemas de auditor\u00eda que aseguren que la IA opere conforme a criterios de seguridad, justicia y responsabilidad.<\/p>\n\n\n\n<p><strong>Figura 7<\/strong><br><em>\u00bfQu\u00e9 oportunidades podr\u00edamos aprovechar y qu\u00e9 peligros deber\u00edamos prever ante la IA?<\/em><\/p>\n\n\n<div class=\"wp-block-image\">\n<figure class=\"aligncenter size-large\"><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"573\" src=\"https:\/\/i0.wp.com\/evida.ugto.mx\/learning\/wp-content\/uploads\/sites\/7\/2025\/06\/Figura-7-IA.png?resize=1024%2C573&#038;ssl=1\" alt=\"\u00bfQu\u00e9 oportunidades podr\u00edamos aprovechar y qu\u00e9 peligros deber\u00edamos prever ante la IA?\" class=\"wp-image-957\" srcset=\"https:\/\/i0.wp.com\/evida.ugto.mx\/learning\/wp-content\/uploads\/sites\/7\/2025\/06\/Figura-7-IA.png?resize=1024%2C573&amp;ssl=1 1024w, https:\/\/i0.wp.com\/evida.ugto.mx\/learning\/wp-content\/uploads\/sites\/7\/2025\/06\/Figura-7-IA.png?resize=300%2C168&amp;ssl=1 300w, https:\/\/i0.wp.com\/evida.ugto.mx\/learning\/wp-content\/uploads\/sites\/7\/2025\/06\/Figura-7-IA.png?resize=768%2C430&amp;ssl=1 768w, https:\/\/i0.wp.com\/evida.ugto.mx\/learning\/wp-content\/uploads\/sites\/7\/2025\/06\/Figura-7-IA.png?w=1049&amp;ssl=1 1049w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/figure>\n<\/div>\n\n\n<h3 class=\"wp-block-heading has-text-align-center has-nv-c-1-color has-text-color has-link-color wp-elements-c1e1425b15d5c73fc7b17fcaa40ab077\">Hacer lo que se pide versus hacer lo que se necesita<\/h3>\n\n\n\n<p>Para ilustrar cu\u00e1n lejos estamos a\u00fan de una IA \u201cgeneral\u201d verdaderamente confiable, Janelle Shane presenta ejemplos tanto c\u00f3micos como alarmantes. Un algoritmo que inventa sabores de helado ofrece combinaciones tan absurdas como \u201cmostaza de chocolate\u201d o \u201cpepino y salsa de soja\u201d, record\u00e1ndonos que un modelo puede cumplir literalmente las instrucciones de su programador sin entender la intenci\u00f3n de fondo.<\/p>\n\n\n\n<p>M\u00e1s grave a\u00fan, en 2016 el piloto autom\u00e1tico de un veh\u00edculo Tesla provoc\u00f3 un accidente fatal al \u201chacer lo que se le pidi\u00f3\u201d \u2014mantenerse en el carril\u2014 pero no lo que se necesitaba: reaccionar a una gr\u00faa detenida en la carretera.<\/p>\n\n\n\n<p>Un tercer caso estremecedor es el de la herramienta de selecci\u00f3n de curr\u00edculums de Amazon, que aprendi\u00f3 a penalizar perfiles femeninos porque estaba \u201chaciendo lo que le ense\u00f1aron\u201d con datos hist\u00f3ricos sesgados. En todos estos ejemplos subyace la misma lecci\u00f3n: una IA puede optimizar una funci\u00f3n objetivo mal dise\u00f1ada, generando resultados que, lejos de ayudar, perpet\u00faan errores y discriminaciones.<\/p>\n\n\n\n<h3 class=\"wp-block-heading has-text-align-center has-nv-c-1-color has-text-color has-link-color wp-elements-efdf897ca7d377ee34697254888ece07\">Desaf\u00edos emergentes: diversidad, equidad y sostenibilidad<\/h3>\n\n\n\n<p>Si asumimos que la IA se integrar\u00e1 progresivamente en sectores tan diversos como la sanidad, la justicia o el transporte, debemos anticipar sus repercusiones sobre grupos sociales distintos. La historia del algoritmo <a href=\"https:\/\/edblogs.medium.com\/compas-an-ai-tool-sending-or-keeping-people-in-jail-d9228df3a2c6\" target=\"_blank\" rel=\"noreferrer noopener\">COMPAS<\/a> en EE. UU. muestra c\u00f3mo un puntaje de riesgo, aparentemente objetivo, refleja y amplifica disparidades raciales al apoyarse en datos hist\u00f3ricos injustos.&nbsp;<\/p>\n\n\n\n<p>En paralelo, la intensidad energ\u00e9tica de los centros de datos plantea interrogantes ecol\u00f3gicos: \u00bfc\u00f3mo evitamos que el despliegue masivo de modelos de aprendizaje profundo agrave la huella de carbono?&nbsp;<\/p>\n\n\n\n<p>Asimismo, la diversidad en los equipos de dise\u00f1o y en los conjuntos de datos resulta esencial para garantizar que la IA sirva a toda la sociedad y no solo a una minor\u00eda. Estos temas \u2014justicia algor\u00edtmica, sostenibilidad medioambiental y pluralidad cultural\u2014 formar\u00e1n el n\u00facleo de nuestras discusiones en las pr\u00f3ximas sesiones, pues de su atenci\u00f3n depende que la IA contribuya al bien com\u00fan en lugar de reproducir desigualdades.<\/p>\n\n\n<div class=\"h5p-iframe-wrapper\"><iframe id=\"h5p-iframe-80\" class=\"h5p-iframe\" data-content-id=\"80\" style=\"height:1px\" src=\"about:blank\" frameBorder=\"0\" scrolling=\"no\" title=\"Actividad 4. Reflexiona sobre las dos perspectivas presentadas en esta lecci\u00f3n\"><\/iframe><\/div>\n\n\n\n<div style=\"height:20px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<h2 class=\"wp-block-heading has-text-align-center has-nv-c-2-color has-text-color has-link-color wp-elements-be9bfe5492e9c5d10c2077bca3ada533\">Conclusiones<\/h2>\n\n\n\n<p>En esta cuarta lecci\u00f3n hemos pasado de la pregunta hipot\u00e9tica \u2014\u00bfllegar\u00e1 la IA a igualar nuestra inteligencia?\u2014 a la discusi\u00f3n concreta sobre c\u00f3mo deber\u00edamos prepararnos para esa realidad, si finalmente se materializa. Al contrastar la visi\u00f3n optimista de Russell con las an\u00e9cdotas de sistemas que \u201chicieron lo que se les ped\u00eda\u201d pero no lo que se necesitaba, hemos visto la importancia de dise\u00f1ar funciones objetivo bien fundamentadas y de establecer mecanismos de supervisi\u00f3n. Finalmente, hemos esbozado los retos inmediatos en torno a la diversidad, la equidad y la sostenibilidad, cuyas respuestas marcar\u00e1n si la IA se convierte en una herramienta de justicia social o en un reflejo amplificado de nuestras propias desigualdades.<\/p>\n\n\n\n<p class=\"has-text-align-center\">[<a href=\"https:\/\/evida.ugto.mx\/learning\/curso-en-linea-introduccion-a-la-inteligencia-artificial\/\">Regresar al curso<\/a>]<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Introducci\u00f3n Partimos de una premisa decisiva: si aceptamos que la IA alcanzar\u00e1 tarde o temprano un nivel de competencia comparable al humano, surge de inmediato la pregunta \u2014tan sencilla como estremecedora\u2014 de qu\u00e9 haremos a continuaci\u00f3n. Mientras la cultura popular se regodea en visiones apocal\u00edpticas de m\u00e1quinas despiertas que se vuelven contra nosotros, en los&hellip;&nbsp;<a href=\"https:\/\/evida.ugto.mx\/learning\/leccion-4-si-la-ia-es-posible-como-deberiamos-prepararnos\/\" rel=\"bookmark\">Leer m\u00e1s &raquo;<span class=\"screen-reader-text\">Lecci\u00f3n 4. Si la IA es posible, \u00bfc\u00f3mo deber\u00edamos prepararnos?<\/span><\/a><\/p>\n","protected":false},"author":1,"featured_media":922,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"neve_meta_sidebar":"","neve_meta_container":"","neve_meta_enable_content_width":"","neve_meta_content_width":0,"neve_meta_title_alignment":"","neve_meta_author_avatar":"","neve_post_elements_order":"","neve_meta_disable_header":"","neve_meta_disable_footer":"","neve_meta_disable_title":"","footnotes":""},"categories":[2,14],"tags":[],"class_list":["post-853","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-desarrollo-de-talento","category-introduccion-a-la-inteligencia-artificial"],"acf":[],"_links":{"self":[{"href":"https:\/\/evida.ugto.mx\/learning\/wp-json\/wp\/v2\/posts\/853","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/evida.ugto.mx\/learning\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/evida.ugto.mx\/learning\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/evida.ugto.mx\/learning\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/evida.ugto.mx\/learning\/wp-json\/wp\/v2\/comments?post=853"}],"version-history":[{"count":3,"href":"https:\/\/evida.ugto.mx\/learning\/wp-json\/wp\/v2\/posts\/853\/revisions"}],"predecessor-version":[{"id":958,"href":"https:\/\/evida.ugto.mx\/learning\/wp-json\/wp\/v2\/posts\/853\/revisions\/958"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/evida.ugto.mx\/learning\/wp-json\/wp\/v2\/media\/922"}],"wp:attachment":[{"href":"https:\/\/evida.ugto.mx\/learning\/wp-json\/wp\/v2\/media?parent=853"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/evida.ugto.mx\/learning\/wp-json\/wp\/v2\/categories?post=853"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/evida.ugto.mx\/learning\/wp-json\/wp\/v2\/tags?post=853"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}