4. Criterios éticos para el uso de la IA

4.1. Introducción

La IA generativa presenta varios retos que requieren atención y consideración por parte de toda la sociedad, no solo de las entidades creadoras, sino también de toda la sociedad usuaria y no usuaria:

  1. Ética y responsabilidad. La generación de IA puede crear contenido que sea engañoso, ofensivo o incluso ilegal. Esto plantea cuestiones éticas sobre quién es responsable del contenido generado y cómo implementar algoritmos de control para evitar abusos.
  2. Sesgos en los datos de entrenamiento. Las IA generativas aprenden a partir de datos y, si los datos de entrenamiento incluyen sesgos (prejuicios culturales, de género, etc.), la IA puede aprender estos sesgos y reproducirlos en el contenido que genera.
  3. Control sobre la información generada. Es difícil garantizar un control completo sobre qué genera una IA generativa. Ello puede llevar a situaciones donde el contenido generado no refleja las intenciones del usuario o puede malinterpretarse.
  4. Desinformación y manipulación (deepfakes). La habilidad de generar contenido de forma convincente puede utilizarse para crear noticias falsas o manipular la información.
  5. Derechos de autor y propiedad intelectual. ¿Quién posee los derechos sobre el contenido generado por una IA? Esta es una cuestión legal compleja que todavía no está claramente definida.
  6. Seguridad y privacidad de los datos. Las IA generativas almacenan y procesan grandes cantidades de datos. Es importante asegurarse de que estos datos estén protegidos y no se usen de forma inadecuada. ¿Existen preocupaciones sobre el uso indebido de la información personal?
  7. Generación de contenido perjudicial. La IA puede usarse para generar contenido que sea ofensivo, discriminatorio o perjudicial. ¿Cómo tiene que gestionarse este tipo de contenido?
  8. Transparencia del algoritmo. Cómo se entrena y opera el algoritmo de una IA generativa puede ser opaco y difícil de comprender para las personas que no son del campo de la inteligencia artificial.
  9. Adopción y acceso equitativo. ¿Cómo garantizamos que los beneficios de la IA generativa se distribuyan de forma equitativa y no aumenten las disparidades sociales y económicas?
  10. Regulación y normativas. Las leyes y regulaciones que gobiernan el uso de la IA todavía están en evolución y pueden ser difíciles de aplicar en este contexto innovador. De hecho, en muchos casos se trata de recomendaciones más que de regulaciones.
  11. Consumo energético e impronta de carbono. l entrenamiento y el uso de grandes modelos de IA generativa pueden requerir cantidades inmensas de energía. Esto es un problema si esta energía proviene de fuentes no renovables, puesto que aumenta las emisiones de gases de efecto invernadero.
  12. Impacto en el mundo laboral. ¿La adopción de tecnologías de IA generativa puede tener implicaciones para la ocupación en diferentes sectores? ¿Se destruirán puestos de trabajo a la vez que se generarán otros nuevos, en la misma proporción?
  13. Autoría. ¿Cómo nos aseguramos de que las personas puedan distinguir entre el contenido creado por humanos y el generado por IA generativa? Esto es esencial para la transparencia y la confianza en la información que utilizamos las personas.
  14. Desigualdad de acceso y concentración de poder. El acceso a la tecnología de IA puede no ser equitativo, y las empresas u organizaciones con más recursos pueden tener una ventaja injusta en el uso de estas herramientas. Esto puede conducir a una mayor concentración de poder y desigualdad en la sociedad.

Abordar estos retos y desafíos requerirá una combinación de acción ética, supervisión reguladora y desarrollo tecnológico continuo. Es importante que la sociedad global, incluyendo personal investigador, empresas, responsables de políticas y equipos multidisciplinarios de diferentes representantes de las ciencias (filósofos, físicos, matemáticos, informáticos, lingüistas, sociólogos, etc.), trabajen juntos para encontrar soluciones sostenibles y responsables.

El consenso de Pekín de 2019 sobre inteligencia artificial y educación hace recomendaciones sobre lo que implica un enfoque humanizado para el uso de la IA en el contexto de la educación.

La UNESCO ha publicado una serie de recomendaciones y guías para regular el uso ético, seguro y equitativo de la IA generativa en la educación y la investigación.

La recomendación de la UNESCO de noviembre de 2021 sobre la ética de la inteligencia artificial proporciona un marco normativo para abordar las controversias alrededor de la inteligencia artificial, incluyendo la educación y la investigación.

La UNESCO, en 2021, también publicó la guía IA y educaciónOrientación para los responsables políticos, que propone recomendaciones concretas para la formulación de políticas para dirigir el uso de la IA en la educación.

En concreto, en 2023 la UNESCO presentó el siguiente documento de recomendaciones: UNESCO. (2023). Guidance for generative AI in education and research.

Además, la revisión de la UNESCO de las estrategias nacionales existentes de inteligencia artificial indica que los países están adoptando diferentes respuestas políticas, desde la prohibición de la IAG hasta la evaluación de las necesidades de adaptación de los marcos existentes, o la urgente formulación de nuevas regulaciones.

La nueva ley europea sobre la inteligencia artificial (IA), conocida como la ley de la inteligencia artificial de la UE, se presenta como la primera normativa del mundo dedicada exclusivamente a la IA.

Esta ley busca equilibrar los beneficios de la IA con los riesgos potenciales para la salud, la seguridad y los derechos fundamentales. Los puntos clave de esta ley son los siguientes:

  • Regulación basada en el riesgo. La ley clasifica los sistemas de IA en cuatro categorías de riesgo: mínimo, específico, alto e inadmisible.
    • Riesgo mínimo:
      • Aplicaciones de recomendación de contenidos: sistemas que recomiendan artículos de noticias, vídeos o música a los usuarios, como podrían ser los algoritmos utilizados por plataformas como Spotify o YouTube.
      • Juegos de ordenador con IA: videojuegos que utilizan IA para mejorar la experiencia del usuario sin afectar derechos fundamentales o la seguridad.
    • Riesgo específico:
      • Robots conversacionales (chatbots): servicios de asistencia al cliente automatizados que pueden requerir una transparencia especial para asegurar que los usuarios saben que están interactuando con una máquina.
      • Análisis de sentimientos: sistemas que analizan comentarios en redes sociales para determinar las actitudes del público respecto a productos o servicios.
    • Riesgo alto:
      • Sistemas de vigilancia biométrica: como el reconocimiento facial utilizado en la vigilancia de lugares públicos, que podría tener un gran impacto en la privacidad y los derechos civiles.
      • IA en recursos humanos: herramientas de filtraje de currículums y selección de candidatos que pueden influir significativamente en las decisiones sobre puestos de trabajo.
      • Asistencia sanitaria predictiva: algoritmos que predicen dolencias basándose en datos médicos personales, los cuales requieren medidas rigurosas de protección de datos y pueden afectar directamente a la salud y el bienestar de las personas.
    • Riesgo inadmisible:
      • Puntuación social: sistemas que asignan una puntuación a las personas basándose en su comportamiento o atributos personales, que podrían ser utilizados tanto por entidades públicas como privadas.
      • IA que explota vulnerabilidades: algoritmos diseñados para identificar y explotar las debilidades psicológicas de las personas con finalidades de marketing u otras aplicaciones manipulativas.
      • Reconocimiento facial en tiempo real por las fuerzas de seguridad de los Estados: en la mayoría de los casos, este uso está prohibido por los riesgos que comporta para la privacidad y las libertades individuales, excepto en circunstancias muy limitadas como la prevención de delitos graves.
    • Prohibiciones específicas. Hay prácticas de IA que están completamente prohibidas, como la identificación biométrica remota en tiempo real en lugares públicos, excepto en circunstancias muy específicas.
    • Transparencia y conformidad. Los sistemas de IA de alto riesgo tendrán que ser registrados y sus proveedores tienen que demostrar conformidad con la normativa mediante procesos de evaluación de conformidad, y asegurar así transparencia, supervisión humana y ciberseguridad.
    • Impacto en derechos fundamentales. Se pide que las empresas que implementen sistemas de IA de alto riesgo hagan evaluaciones de impacto sobre los derechos fundamentales para asegurar la protección de las libertades individuales y evitar discriminaciones.
    • Innovación y excepciones. La ley proporciona un marco para la experimentación con IA dentro de un contexto regulado, y permite pruebas controladas con estrictas condiciones de seguridad. Asimismo, la ley no se aplica a la IA con fines exclusivamente militares ni a actividades de investigación hasta la fase de comercialización.
    • Regulación internacional y cooperación. La ley busca posicionarse como referente global en la regulación de la IA, e intenta establecer normativas internacionales en colaboración con otros países y organizaciones internacionales.

Este marco legal europeo es un paso importante hacia la adopción segura y ética de la inteligencia artificial, puesto que garantiza que el desarrollo tecnológico beneficia a la sociedad sin comprometer los valores fundamentales ni la seguridad de los ciudadanos.

La ley de inteligencia artificial de la UE se empezará a aplicar plenamente hacia el año 2026. La espera de dos años para que la ley sea de cumplimiento obligatorio se ha establecido por varias razones prácticas y estratégicas:

  • Adaptación y conformidad. Las empresas y otras entidades que desarrollan o utilizan tecnología de IA necesitan tiempo para adaptarse a las nuevas normativas. Esto incluye la revisión y posiblemente la reestructuración de sus sistemas y procesos para asegurar la conformidad con los estándares de seguridad, transparencia y protección de derechos fundamentales establecidos en la ley.
  • Evaluación de la conformidad. Los proveedores de sistemas de IA de alto riesgo necesitarán someter sus productos a procesos de evaluación de conformidad. Estos procesos pueden ser complejos y requerir tiempo para poder completarse adecuadamente, incluyendo las pruebas, la documentación y los ajustes necesarios.
  • Capacitación y recursos. Las autoridades reguladoras y de supervisión, y también las empresas, necesitan tiempo para formar al personal, desarrollar protocolos y establecer los sistemas necesarios para el seguimiento y la aplicación de la ley.
  • Coordinación internacional y normas. Dado que muchos sistemas de IA operan a través de fronteras internacionales, una implementación efectiva requiere de un periodo de transición que permita coordinarse mejor con otras jurisdicciones y estándares internacionales.
  • Diálogo y feedback. Este periodo también ofrece una oportunidad para las partes interesadas, incluyendo empresas, expertos en IA, grupos de derechos civiles y el público en general, para proporcionar feedback sobre la aplicación de la ley, que podría conducir a ajustes o refinamientos antes de su implementación completa.

Esta fase preparatoria es crucial para asegurar que todas las partes implicadas están completamente preparadas y que la ley se implementa de manera efectiva, de forma que reduce al mínimo los riesgos y maximiza los beneficios de las tecnologías de IA dentro de la sociedad europea.

En resumen, la regulación de la IAG en educación y otros ámbitos requiere una serie de pasos y medidas políticas basados en un enfoque centrado en el ser humano para garantizar su uso ético, seguro y equitativo.