4. Criteris ètics per a l’ús de la IA

4.1. Introducció

La IA generativa presenta diversos reptes que requereixen atenció i consideració per part de tota la societat, no només de les entitats creadores, sinó de tota la societat usuària i no usuària:

  1. Ètica i responsabilitat. La generació d’IA pot crear contingut que sigui enganyós, ofensiu o fins i tot il·legal. Això planteja qüestions ètiques sobre qui és responsable del contingut generat i com es poden implementar algorismes de control per evitar abusos.
  2. Biaixos en les dades d’entrenament. Les IA generatives aprenen a partir de dades i, si les dades d’entrenament tenen biaixos (prejudicis culturals, de gènere, etc.), la IA pot aprendre aquests biaixos i replicar-los en el contingut que genera.
  3. Control sobre la informació generada. És difícil garantir un control complet sobre què genera una IA generativa. Això pot portar a situacions en què el contingut generat no reflecteix les intencions de l’usuari o es pot malinterpretar.
  4. Desinformació i manipulació (deepfakes). L’habilitat de generar contingut de manera convincent es pot utilitzar per crear notícies falses o manipular la informació.
  5. Drets d’autor i propietat intel·lectual. Qui té els drets sobre el contingut generat per una IA? Aquesta és una qüestió legal complexa que encara no està clarament definida.
  6. Privadesa i seguretat de les dades. Les IA generatives emmagatzemen i processen grans quantitats de dades. És important assegurar-se que aquestes dades estiguin protegides i no s’utilitzin de manera inadequada. Hi ha preocupacions sobre l’ús indegut de la informació personal?
  7. Generació de contingut perjudicial. La IA es pot utilitzar per generar contingut que sigui ofensiu, discriminatori o perjudicial. Com s’ha de gestionar aquest tipus de contingut?
  8. Transparència de l’algoritme. Com s’entrena i opera l’algoritme d’una IA generativa pot ser opac i difícil de comprendre per a les persones fora del camp de la intel·ligència artificial.
  9. Adopció i accés equitatiu. Com garantim que els beneficis de la IA generativa es distribueixin de manera equitativa i no augmentin les disparitats socials i econòmiques?
  10. Regulació i normatives. Les lleis i regulacions que governen l’ús de la IA encara estan en evolució i poden ser difícils d’aplicar en aquest context innovador. De fet, en molts casos es tracta de recomanacions més que de regulacions.
  11. Consum energètic i empremta de carboni. L’entrenament i l’ús de grans models d’IA generativa poden requerir quantitats immenses d’energia. Això és un problema si aquesta energia prové de fonts no renovables, ja que augmenta les emissions de gasos d’efecte hivernacle.
  12. Impacte en el món laboral. L’adopció de tecnologies d’IA generativa pot tenir implicacions per a l’ocupació en diferents sectors? Es destruiran llocs de treball a la vegada que se’n generaran de nous, amb la mateixa proporció?
  13. Autoria. Com ens assegurem que les persones puguin distingir entre el contingut creat per humans i el generat per IA generativa? Això és essencial per a la transparència i la confiança en la informació que utilitzem les persones.
  14. Desigualtat d’accés i concentració de poder. L’accés a la tecnologia d’IA pot no ser equitatiu, i les empreses o organitzacions amb més recursos poden tenir un avantatge injust en l’ús d’aquestes eines. Això pot conduir a una major concentració de poder i desigualtat en la societat.

Abordar aquests reptes i desafiaments requerirà una combinació d’acció ètica, supervisió reguladora i desenvolupament tecnològic continu. És important que la societat global, incloent-hi personal investigador, empreses, responsables de polítiques i equips multidisciplinaris de diferents caps de les ciències (filòsofs, físics, matemàtics, informàtics, lingüistes, sociòlegs, etc.) treballin junts per trobar solucions sostenibles i responsables.

El consens de Beijing de 2019 sobre intel·ligència artificial i educació fa recomanacions sobre el que implica un enfocament humanitzat per a l’ús de la IA en el context de l’educació.

La UNESCO ha publicat una sèrie de recomanacions i guies per regular l’ús ètic, segur i equitatiu de la IA generativa a l’educació i la recerca.

La recomanació de la UNESCO de novembre de 2021 sobre l’ètica de la intel·ligència artificial proporciona un marc normatiu per abordar les controvèrsies al voltant de la intel·ligència artificial, incloent-hi l’educació i la investigació.

La UNESCO, l’any 2021, també va publicar la guia IA i educació: Orientació per als responsables polítics que proposa recomanacions concretes per a la formulació de polítiques per dirigir l’ús de la IA a l’educació.

En concret, l’any 2023 la UNESCO va presentar el document de recomanacions següent: UNESCO. (2023). Guidance for generative AI in education and research.

A més, la revisió de la UNESCO de les estratègies nacionals existents d’intel·ligència artificial indica que els països estan adoptant diferents respostes polítiques, des de la prohibició de la IAG fins a l’avaluació de les necessitats d’adaptació dels marcs existents, o la formulació urgent de noves regulacions.

La nova llei europea sobre la intel·ligència artificial (IA), coneguda com la llei de la intel·ligència artificial de la UE, es presenta com la primera normativa del món dedicada exclusivament a la IA.

Aquesta llei busca equilibrar els beneficis de la IA amb els riscos potencials per a la salut, la seguretat i els drets fonamentals. Els punts claus d’aquesta llei són els següents:

  • Regulació basada en el risc. La llei classifica els sistemes d’IA en quatre categories de risc: mínim, específic, alt i inadmissible.
    • Risc mínim:
      • Aplicacions de recomanació de continguts: sistemes que recomanen articles de notícies, vídeos o música als usuaris, com podrien ser els algoritmes utilitzats per plataformes com Spotify o YouTube.
      • Jocs d’ordinador amb IA: videojocs que utilitzen IA per millorar l’experiència de l’usuari sense afectar drets fonamentals o la seguretat.
    • Risc específic:
      • Robots conversacionals (xatbots): serveis d’assistència al client automatitzats que poden requerir una transparència especial per assegurar que els usuaris saben que estan interactuant amb una màquina.
      • Anàlisi de sentiments: sistemes que analitzen comentaris en xarxes socials per determinar les actituds del públic respecte a productes o serveis.
    • Risc alt:
      • Sistemes de vigilància biomètrica: com el reconeixement facial utilitzat en la vigilància de llocs públics, que podria tenir un gran impacte en la privacitat i els drets civils.
      • IA en recursos humans: eines de filtratge de currículums i selecció de candidats que poden influir significativament en les decisions de llocs de treball.
      • Assistència sanitària predictiva: algoritmes que prediuen malalties basant-se en dades mèdiques personals, els quals requereixen mesures de protecció de dades rigoroses i poden afectar directament la salut i el benestar de les persones.
    • Risc inadmissible:
      • Puntuació social: sistemes que assignen una puntuació a les persones basant-se en el seu comportament o atributs personals, que podrien ser utilitzats tant per entitats públiques com privades.
      • IA que explota vulnerabilitats: algoritmes dissenyats per identificar i explotar les debilitats psicològiques de les persones per a finalitats de màrqueting o altres aplicacions manipulatives.
      • Reconeixement facial en temps real per les forces de seguretat dels estats: en la majoria dels casos, aquest ús està prohibit a causa dels riscos que comporta per a la privacitat i les llibertats individuals, excepte en circumstàncies molt limitades com la prevenció de delictes greus.
    • Prohibicions específiques. Hi ha pràctiques d’IA que estan completament prohibides, com la identificació biomètrica remota en temps real en llocs públics, excepte en circumstàncies molt específiques.
    • Transparència i conformitat. Els sistemes d’IA d’alt risc hauran de ser registrats i els seus proveïdors han de demostrar conformitat amb la normativa mitjançant processos d’avaluació de conformitat, i assegurar així transparència, supervisió humana i ciberseguretat.
    • Impacte en drets fonamentals. Es demana que les empreses implementin sistemes d’IA d’alt risc facin avaluacions d’impacte en drets fonamentals per assegurar la protecció de les llibertats individuals i evitar discriminacions.
    • Innovació i excepcions. La llei proporciona un marc per a l’experimentació amb IA dins d’un context regulat, i permet tests controlats amb condicions de seguretat estrictes. Així mateix, la llei no s’aplica a la IA amb finalitats exclusivament militars ni a activitats de recerca fins a la fase de comercialització.
    • Regulació internacional i cooperació. La llei busca posicionar-se com a referent global en la regulació de la IA, i intenta establir normatives internacionals en col·laboració amb altres països i organitzacions internacionals.

Aquest marc legal europeu és un pas important cap a l’adopció segura i ètica de la intel·ligència artificial, ja que garanteix que el desenvolupament tecnològic beneficia la societat sense comprometre els valors fonamentals ni la seguretat dels ciutadans.

La llei d’intel·ligència artificial de la UE es començarà a aplicar plenament cap a l’any 2026. L’espera de dos anys perquè la llei sigui de compliment obligatori s’ha establert per diverses raons pràctiques i estratègiques:

  • Adaptació i conformitat. Les empreses i altres entitats que desenvolupen o utilitzen tecnologia d’IA necessiten temps per adaptar-se a les noves normatives. Això inclou la revisió i possiblement la reestructuració dels seus sistemes i processos per assegurar la conformitat amb els estàndards de seguretat, transparència i protecció de drets fonamentals establerts en la llei.
  • Avaluació de la conformitat. Els proveïdors de sistemes d’IA d’alt risc necessitaran sotmetre els seus productes a processos d’avaluació de conformitat. Aquests processos poden ser complexos i requerir temps per completar-se adequadament, incloent-hi les proves, documentació i ajustaments necessaris.
  • Capacitació i recursos. Les autoritats reguladores i de supervisió, i també les empreses, necessiten temps per formar el personal, desenvolupar protocols i establir els sistemes necessaris per al seguiment i l’aplicació de la llei.
  • Coordinació internacional i normes. Atès que molts sistemes d’IA operen per mitjà de fronteres internacionals, un període de transició permet coordinar millor amb altres jurisdiccions i estàndards internacionals per a una implementació efectiva.
  • Diàleg i feedback. Aquest període també ofereix una oportunitat per a les parts interessades, incloent-hi empreses, experts en IA, grups de drets civils i el públic en general, per proporcionar feedback sobre l’aplicació de la llei, que podria conduir a ajustaments o refinaments abans de la seva implementació completa.

Aquesta fase preparatòria és crucial per assegurar que totes les parts implicades estan completament preparades i que la llei s’implementa de manera efectiva, de manera que redueix al mínim els riscos i maximitza els beneficis de les tecnologies d’IA dins la societat europea.

En resum, la regulació de la IAG en educació i altres àmbits requereix una sèrie de passos i mesures polítiques basats en un enfocament centrat en l’ésser humà per garantir-ne l’ús ètic, segur i equitatiu.