{"id":331,"date":"2024-08-22T17:24:26","date_gmt":"2024-08-22T15:24:26","guid":{"rendered":"https:\/\/iag-recursos.azurewebsites.net\/?page_id=331"},"modified":"2024-09-20T16:44:50","modified_gmt":"2024-09-20T14:44:50","slug":"4-1-introduccion","status":"publish","type":"page","link":"https:\/\/iag.recursos.uoc.edu\/es\/4-1-introduccion\/","title":{"rendered":"4.1. Introducci\u00f3n"},"content":{"rendered":"<p>La IA generativa presenta varios retos que requieren atenci\u00f3n y consideraci\u00f3n por parte de toda la sociedad, no solo de las entidades creadoras, sino tambi\u00e9n de toda la sociedad usuaria y no usuaria:<\/p>\n<ol>\n<li><b>\u00c9tica y responsabilidad<\/b>. La generaci\u00f3n de IA puede crear contenido que sea enga\u00f1oso, ofensivo o incluso ilegal. Esto plantea cuestiones \u00e9ticas sobre qui\u00e9n es responsable del contenido generado y c\u00f3mo implementar algoritmos de control para evitar abusos.<\/li>\n<li><b>Sesgos en los datos de entrenamiento<\/b>. Las IA generativas aprenden a partir de datos y, si los datos de entrenamiento incluyen sesgos (prejuicios culturales, de g\u00e9nero, etc.), la IA puede aprender estos sesgos y reproducirlos en el contenido que genera.<\/li>\n<li><b>Control sobre la informaci\u00f3n generada<\/b>. Es dif\u00edcil garantizar un control completo sobre qu\u00e9 genera una IA generativa. Ello puede llevar a situaciones donde el contenido generado no refleja las intenciones del usuario o puede malinterpretarse.<\/li>\n<li><strong><b>Desinformaci\u00f3n y manipulaci\u00f3n<\/b> (<em>deepfakes<\/em>)<\/strong>. La habilidad de generar contenido de forma convincente puede utilizarse para crear noticias falsas o manipular la informaci\u00f3n.<\/li>\n<li><b>Derechos de autor y propiedad intelectual<\/b>. \u00bfQui\u00e9n posee los derechos sobre el contenido generado por una IA? Esta es una cuesti\u00f3n legal compleja que todav\u00eda no est\u00e1 claramente definida.<\/li>\n<li><b>Seguridad y privacidad de los datos<\/b>. Las IA generativas almacenan y procesan grandes cantidades de datos. Es importante asegurarse de que estos datos est\u00e9n protegidos y no se usen de forma inadecuada. \u00bfExisten preocupaciones sobre el uso indebido de la informaci\u00f3n personal?<\/li>\n<li><b>Generaci\u00f3n de contenido perjudicial<\/b>. La IA puede usarse para generar contenido que sea ofensivo, discriminatorio o perjudicial. \u00bfC\u00f3mo tiene que gestionarse este tipo de contenido?<\/li>\n<li><b>Transparencia del algoritmo<\/b>. C\u00f3mo se entrena y opera el algoritmo de una IA generativa puede ser opaco y dif\u00edcil de comprender para las personas que no son del campo de la inteligencia artificial.<\/li>\n<li><b>Adopci\u00f3n y acceso equitativo<\/b>. \u00bfC\u00f3mo garantizamos que los beneficios de la IA generativa se distribuyan de forma equitativa y no aumenten las disparidades sociales y econ\u00f3micas?<\/li>\n<li><b>Regulaci\u00f3n y normativas<\/b>. Las leyes y regulaciones que gobiernan el uso de la IA todav\u00eda est\u00e1n en evoluci\u00f3n y pueden ser dif\u00edciles de aplicar en este contexto innovador. De hecho, en muchos casos se trata de recomendaciones m\u00e1s que de regulaciones.<\/li>\n<li><b>Consumo energ\u00e9tico e impronta de carbono<\/b>. l entrenamiento y el uso de grandes modelos de IA generativa pueden requerir cantidades inmensas de energ\u00eda. Esto es un problema si esta energ\u00eda proviene de fuentes no renovables, puesto que aumenta las emisiones de gases de efecto invernadero.<\/li>\n<li><b>Impacto en el mundo laboral<\/b>. \u00bfLa adopci\u00f3n de tecnolog\u00edas de IA generativa puede tener implicaciones para la ocupaci\u00f3n en diferentes sectores? \u00bfSe destruir\u00e1n puestos de trabajo a la vez que se generar\u00e1n otros nuevos, en la misma proporci\u00f3n?<\/li>\n<li><b>Autor\u00eda<\/b>. \u00bfC\u00f3mo nos aseguramos de que las personas puedan distinguir entre el contenido creado por humanos y el generado por IA generativa? Esto es esencial para la transparencia y la confianza en la informaci\u00f3n que utilizamos las personas.<\/li>\n<li><b>Desigualdad de acceso y concentraci\u00f3n de poder<\/b>. El acceso a la tecnolog\u00eda de IA puede no ser equitativo, y las empresas u organizaciones con m\u00e1s recursos pueden tener una ventaja injusta en el uso de estas herramientas. Esto puede conducir a una mayor concentraci\u00f3n de poder y desigualdad en la sociedad.<\/li>\n<\/ol>\n<p>Abordar estos retos y desaf\u00edos requerir\u00e1 una combinaci\u00f3n de acci\u00f3n \u00e9tica, supervisi\u00f3n reguladora y desarrollo tecnol\u00f3gico continuo. Es importante que la sociedad global, incluyendo personal investigador, empresas, responsables de pol\u00edticas y equipos multidisciplinarios de diferentes representantes de las ciencias (fil\u00f3sofos, f\u00edsicos, matem\u00e1ticos, inform\u00e1ticos, ling\u00fcistas, soci\u00f3logos, etc.), trabajen juntos para encontrar soluciones sostenibles y responsables.<\/p>\n<p>El\u00a0<a href=\"https:\/\/unesdoc.unesco.org\/ark:\/48223\/pf0000368303\" target=\"_blank\" rel=\"noopener\">consenso de Pek\u00edn de 2019<\/a>\u00a0sobre inteligencia artificial y educaci\u00f3n hace recomendaciones sobre lo que implica un enfoque humanizado para el uso de la IA en el contexto de la educaci\u00f3n.<\/p>\n<p>La UNESCO ha publicado una serie de recomendaciones y gu\u00edas para regular el uso \u00e9tico, seguro y equitativo de la IA generativa en la educaci\u00f3n y la investigaci\u00f3n.<\/p>\n<p>La recomendaci\u00f3n de la\u00a0<a href=\"https:\/\/www.unesco.org\/en\/artificial-intelligence?hub=32618\" target=\"_blank\" rel=\"noopener\">UNESCO de noviembre de 2021<\/a>\u00a0sobre la \u00e9tica de la inteligencia artificial proporciona un marco normativo para abordar las controversias alrededor de la inteligencia artificial, incluyendo la educaci\u00f3n y la investigaci\u00f3n.<\/p>\n<p>La UNESCO, en 2021, tambi\u00e9n public\u00f3 la gu\u00eda <em>IA y educaci\u00f3n<\/em>:\u00a0<a href=\"https:\/\/unesdoc.unesco.org\/ark:\/48223\/pf0000379376\" target=\"_blank\" rel=\"noopener\"><i>Orientaci\u00f3n para los responsables pol\u00edticos<\/i><\/a>, que propone recomendaciones concretas para la formulaci\u00f3n de pol\u00edticas para dirigir el uso de la IA en la educaci\u00f3n.<\/p>\n<p>En concreto, en 2023 la UNESCO present\u00f3 el siguiente documento de recomendaciones:\u00a0<a href=\"https:\/\/www.unesco.org\/en\/articles\/guidance-generative-ai-education-and-research\" target=\"_blank\" rel=\"noopener\">UNESCO. (2023).<i>\u00a0Guidance for generative AI in education and research<\/i><\/a>.<\/p>\n<p>Adem\u00e1s, la revisi\u00f3n de la UNESCO de las estrategias nacionales existentes de inteligencia artificial indica que los pa\u00edses est\u00e1n adoptando diferentes respuestas pol\u00edticas, desde la prohibici\u00f3n de la IAG hasta la evaluaci\u00f3n de las necesidades de adaptaci\u00f3n de los marcos existentes, o la urgente formulaci\u00f3n de nuevas regulaciones.<\/p>\n<p>La nueva ley europea sobre la inteligencia artificial (IA), conocida como la <strong>ley de la inteligencia artificial de la UE<\/strong>, se presenta como la primera normativa del mundo dedicada exclusivamente a la IA.<\/p>\n<div class=\"featured featured-grey\"><p>Parlamento Europeo (2024). Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial (Ley de Inteligencia Artificial) y se modifican determinados actos legislativos de la Uni\u00f3n (2024\/0138(COD)). <a href=\"https:\/\/www.europarl.europa.eu\/doceo\/document\/TA-9-2024-0138_ES.pdf\" target=\"_blank\" rel=\"noopener\">https:\/\/www.europarl.europa.eu\/doceo\/document\/TA-9-2024-0138_ES.pdf<\/a><\/p>\n<\/div>\n<p>Esta ley busca equilibrar los beneficios de la IA con los riesgos potenciales para la salud, la seguridad y los derechos fundamentales. Los puntos clave de esta ley son los siguientes:<\/p>\n<ul>\n<li><strong>Regulaci\u00f3n basada en el riesgo<\/strong>. La ley clasifica los sistemas de IA en cuatro categor\u00edas de riesgo: m\u00ednimo, espec\u00edfico, alto e inadmisible.\n<ul>\n<li><strong>Riesgo m\u00ednimo<\/strong>:\n<ul>\n<li><strong>Aplicaciones de recomendaci\u00f3n de contenidos<\/strong>: sistemas que recomiendan art\u00edculos de noticias, v\u00eddeos o m\u00fasica a los usuarios, como podr\u00edan ser los algoritmos utilizados por plataformas como Spotify o YouTube.<\/li>\n<li><strong>Juegos de ordenador con IA<\/strong>: videojuegos que utilizan IA para mejorar la experiencia del usuario sin afectar derechos fundamentales o la seguridad.<\/li>\n<\/ul>\n<\/li>\n<li><strong>Riesgo espec\u00edfico<\/strong>:\n<ul>\n<li><strong>Robots conversacionales (<em>chatbots<\/em>)<\/strong>: servicios de asistencia al cliente automatizados que pueden requerir una transparencia especial para asegurar que los usuarios saben que est\u00e1n interactuando con una m\u00e1quina.<\/li>\n<li><strong>An\u00e1lisis de sentimientos<\/strong>: sistemas que analizan comentarios en redes sociales para determinar las actitudes del p\u00fablico respecto a productos o servicios.<\/li>\n<\/ul>\n<\/li>\n<li><strong>Riesgo alto<\/strong>:\n<ul>\n<li><strong>Sistemas de vigilancia biom\u00e9trica<\/strong>: como el reconocimiento facial utilizado en la vigilancia de lugares p\u00fablicos, que podr\u00eda tener un gran impacto en la privacidad y los derechos civiles.<\/li>\n<li><strong>IA en recursos humanos<\/strong>: herramientas de filtraje de curr\u00edculums y selecci\u00f3n de candidatos que pueden influir significativamente en las decisiones sobre puestos de trabajo.<\/li>\n<li><strong>Asistencia sanitaria predictiva<\/strong>: algoritmos que predicen dolencias bas\u00e1ndose en datos m\u00e9dicos personales, los cuales requieren medidas rigurosas de protecci\u00f3n de datos y pueden afectar directamente a la salud y el bienestar de las personas.<\/li>\n<\/ul>\n<\/li>\n<li><strong>Riesgo inadmisible<\/strong>:\n<ul>\n<li><strong>Puntuaci\u00f3n social<\/strong>: sistemas que asignan una puntuaci\u00f3n a las personas bas\u00e1ndose en su comportamiento o atributos personales, que podr\u00edan ser utilizados tanto por entidades p\u00fablicas como privadas.<\/li>\n<li><strong>IA que explota vulnerabilidades<\/strong>: algoritmos dise\u00f1ados para identificar y explotar las debilidades psicol\u00f3gicas de las personas con finalidades de marketing u otras aplicaciones manipulativas.<\/li>\n<li><strong>Reconocimiento facial en tiempo real por las fuerzas de seguridad de los Estados<\/strong>: en la mayor\u00eda de los casos, este uso est\u00e1 prohibido por los riesgos que comporta para la privacidad y las libertades individuales, excepto en circunstancias muy limitadas como la prevenci\u00f3n de delitos graves.<\/li>\n<\/ul>\n<\/li>\n<li><strong>Prohibiciones espec\u00edficas<\/strong>. Hay pr\u00e1cticas de IA que est\u00e1n completamente prohibidas, como la identificaci\u00f3n biom\u00e9trica remota en tiempo real en lugares p\u00fablicos, excepto en circunstancias muy espec\u00edficas.<\/li>\n<li><strong>Transparencia y conformidad<\/strong>. Los sistemas de IA de alto riesgo tendr\u00e1n que ser registrados y sus proveedores tienen que demostrar conformidad con la normativa mediante procesos de evaluaci\u00f3n de conformidad, y asegurar as\u00ed transparencia, supervisi\u00f3n humana y ciberseguridad.<\/li>\n<li><strong>Impacto en derechos fundamentales<\/strong>. Se pide que las empresas que implementen sistemas de IA de alto riesgo hagan evaluaciones de impacto sobre los derechos fundamentales para asegurar la protecci\u00f3n de las libertades individuales y evitar discriminaciones.<\/li>\n<li><strong>Innovaci\u00f3n y excepciones<\/strong>. La ley proporciona un marco para la experimentaci\u00f3n con IA dentro de un contexto regulado, y permite pruebas controladas con estrictas condiciones de seguridad. Asimismo, la ley no se aplica a la IA con fines exclusivamente militares ni a actividades de investigaci\u00f3n hasta la fase de comercializaci\u00f3n.<\/li>\n<li><strong>Regulaci\u00f3n internacional y cooperaci\u00f3n<\/strong>. La ley busca posicionarse como referente global en la regulaci\u00f3n de la IA, e intenta establecer normativas internacionales en colaboraci\u00f3n con otros pa\u00edses y organizaciones internacionales.<\/li>\n<\/ul>\n<\/li>\n<\/ul>\n<p>Este marco legal europeo es un paso importante hacia la adopci\u00f3n segura y \u00e9tica de la inteligencia artificial, puesto que garantiza que el desarrollo tecnol\u00f3gico beneficia a la sociedad sin comprometer los valores fundamentales ni la seguridad de los ciudadanos.<\/p>\n<p>La ley de inteligencia artificial de la UE se empezar\u00e1 a aplicar plenamente hacia el a\u00f1o <strong>2026<\/strong>. La espera de dos a\u00f1os para que la ley sea de cumplimiento obligatorio se ha establecido por varias razones pr\u00e1cticas y estrat\u00e9gicas:<\/p>\n<ul>\n<li><strong>Adaptaci\u00f3n y conformidad<\/strong>. Las empresas y otras entidades que desarrollan o utilizan tecnolog\u00eda de IA necesitan tiempo para adaptarse a las nuevas normativas. Esto incluye la revisi\u00f3n y posiblemente la reestructuraci\u00f3n de sus sistemas y procesos para asegurar la conformidad con los est\u00e1ndares de seguridad, transparencia y protecci\u00f3n de derechos fundamentales establecidos en la ley.<\/li>\n<li><strong>Evaluaci\u00f3n de la conformidad<\/strong>. Los proveedores de sistemas de IA de alto riesgo necesitar\u00e1n someter sus productos a procesos de evaluaci\u00f3n de conformidad. Estos procesos pueden ser complejos y requerir tiempo para poder completarse adecuadamente, incluyendo las pruebas, la documentaci\u00f3n y los ajustes necesarios.<\/li>\n<li><strong>Capacitaci\u00f3n y recursos<\/strong>. Las autoridades reguladoras y de supervisi\u00f3n, y tambi\u00e9n las empresas, necesitan tiempo para formar al personal, desarrollar protocolos y establecer los sistemas necesarios para el seguimiento y la aplicaci\u00f3n de la ley.<\/li>\n<li><strong>Coordinaci\u00f3n internacional y normas<\/strong>. Dado que muchos sistemas de IA operan a trav\u00e9s de fronteras internacionales, una implementaci\u00f3n efectiva requiere de un periodo de transici\u00f3n que permita coordinarse mejor con otras jurisdicciones y est\u00e1ndares internacionales.<\/li>\n<li><strong>Di\u00e1logo y <em>feedback<\/em><\/strong>. Este periodo tambi\u00e9n ofrece una oportunidad para las partes interesadas, incluyendo empresas, expertos en IA, grupos de derechos civiles y el p\u00fablico en general, para proporcionar <em>feedback<\/em> sobre la aplicaci\u00f3n de la ley, que podr\u00eda conducir a ajustes o refinamientos antes de su implementaci\u00f3n completa.<\/li>\n<\/ul>\n<p>Esta fase preparatoria es crucial para asegurar que todas las partes implicadas est\u00e1n completamente preparadas y que la ley se implementa de manera efectiva, de forma que reduce al m\u00ednimo los riesgos y maximiza los beneficios de las tecnolog\u00edas de IA dentro de la sociedad europea.<\/p>\n<p>En resumen, la regulaci\u00f3n de la IAG en educaci\u00f3n y otros \u00e1mbitos requiere una serie de pasos y medidas pol\u00edticas basados en un enfoque centrado en el ser humano para garantizar su uso \u00e9tico, seguro y equitativo.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>La IA generativa presenta varios retos que requieren atenci\u00f3n y consideraci\u00f3n por parte de toda la sociedad, no solo de las entidades creadoras, sino tambi\u00e9n de toda la sociedad usuaria y no usuaria: \u00c9tica y responsabilidad. La generaci\u00f3n de IA puede crear contenido que sea enga\u00f1oso, ofensivo o incluso ilegal. Esto plantea cuestiones \u00e9ticas sobre [&hellip;]<\/p>\n","protected":false},"author":2,"featured_media":0,"parent":0,"menu_order":0,"comment_status":"closed","ping_status":"closed","template":"","meta":{"_acf_changed":false,"footnotes":""},"acf":[],"_links":{"self":[{"href":"https:\/\/iag.recursos.uoc.edu\/es\/wp-json\/wp\/v2\/pages\/331"}],"collection":[{"href":"https:\/\/iag.recursos.uoc.edu\/es\/wp-json\/wp\/v2\/pages"}],"about":[{"href":"https:\/\/iag.recursos.uoc.edu\/es\/wp-json\/wp\/v2\/types\/page"}],"author":[{"embeddable":true,"href":"https:\/\/iag.recursos.uoc.edu\/es\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/iag.recursos.uoc.edu\/es\/wp-json\/wp\/v2\/comments?post=331"}],"version-history":[{"count":2,"href":"https:\/\/iag.recursos.uoc.edu\/es\/wp-json\/wp\/v2\/pages\/331\/revisions"}],"predecessor-version":[{"id":383,"href":"https:\/\/iag.recursos.uoc.edu\/es\/wp-json\/wp\/v2\/pages\/331\/revisions\/383"}],"wp:attachment":[{"href":"https:\/\/iag.recursos.uoc.edu\/es\/wp-json\/wp\/v2\/media?parent=331"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}