Les institucions de la Unió Europea van pactar la matinada de divendres a dissabte la llei d’intel·ligència artificial que permet o prohibeix l’ús de la tecnologia en funció del risc que suposi per a les persones i que busca impulsar la indústria europea davant gegants com la Xina i els Estats Units.
Brussel·les
EFE
“La llei d’intel·ligència artificial de la UE és pionera al món. Un marc legal únic per al desenvolupament de la intel·ligència artificial en què es pot confiar”, va dir la presidenta de la Comissió Europea, Ursula von der Leyen, en un missatge a la xarxa social X (abans Twitter). L’acord va arribar després de 36 hores de negociacions i encara l’hauran de ratificar el Parlament Europeu i el Consell de la UE, la institució que representa els governs europeus.
Un dels punts més sensibles de les negociacions ha estat l’ús que les forces de l’ordre podran fer de les càmeres d’identificació biomètrica en espais públics per garantir la seguretat nacional. Les càmeres es podran utilitzar amb prèvia autorització judicial per prevenir una amenaça terrorista “genuïna i previsible” o “genuïna i present”, és a dir, que s’estigui produint en aquell moment.
També es podran fer servir per localitzar o identificar una persona que hagi comès delictes de terrorisme, tràfic de persones, explotació sexual o, per exemple, un crim mediambiental i per buscar les víctimes d’aquests delictes.
Durant les negociacions, els governs han pressionat per ampliar la llista de delictes, mentre que l’Eurocambra ha intentat limitar-la al màxim possible i obtenir fortes salvaguardes per als drets fonamentals.
Sistemes prohibits
La norma, a més, prohibeix tots els sistemes de categorització biomètrica per creences polítiques, religioses, filosòfiques o per la raça i l’orientació sexual.
Tampoc no es podran utilitzar els sistemes que puntuen les persones en funció del seu comportament o característiques personals ni la intel·ligència artificial capaç de manipular el comportament humà.
També estaran prohibits els sistemes per expandir o crear bases de dades facials captant dades de manera indiscriminada a través d’Internet o d’enregistraments audiovisuals. A més, als centres de treball o les escoles també estaran prohibits els sistemes d’intel·ligència artificial que poden reconèixer les emocions.
Les negociacions van ser “apassionades”, ja que l’objectiu de la llei és regular l’ús d’una tecnologia amb grans possibilitats per a la societat, que alhora genera dubtes i preguntes que els desenvolupadors de la IA encara no saben respondre, segons fonts coneixedores dels debats.
El reglament permet o prohibeix l’ús de la intel·ligència artificial en funció del risc que genera per a les persones i identifica sistemes dalt risc que només es podran utilitzar si es demostra que respecten els drets fonamentals.
Per exemple, els que es puguin utilitzar per influir en el resultat d’unes eleccions, els que facin servir les entitats financeres per avaluar la solvència i establir la qualificació creditícia.
La presidència espanyola del Consell la UE ha aconseguit un dels seus objectius principals en aquest semestre amb el pacte d’aquesta norma pionera al món. “Hem aconseguit una fita important, que els ciutadans podem decidir què es pot fer i què no amb la intel·ligència artificial”, va dir la secretària d’Estat espanyol de Telecomunicacions i Infraestructura Digital, Carme Artigas.
Està previst que la llei entri en vigor el 2026 però s’aplicarà per fases.
La intel·ligència generativa, com ChatGPT, ha de complir criteris de transparència
L’altre gran assumpte que ha centrat les negociacions és la regulació dels sistemes d’intel·ligència artificial generativa, en què es basen models com ara ChatGPT, de l’empresa OpenAI o Bard, de Google.
Hauran de complir criteris de transparència, com ara especificar si un text, una cançó o una fotografia s’han generat a través de la intel·ligència artificial i garantir que les dades que s’han emprat per entrenar els sistemes respecten els drets d’autor.
Inicialment, la llei no estava pensada per regular aquest tipus de sistemes, perquè encara no s’havien popularitzat quan Brussel·les va proposar la llei l’abril del 2021, però les institucions comunitàries han vist la necessitat de legislar-los des de l’esclat de ChatGPT l’any passat.
El reglament de la Unió Europea no en prohibeix l’ús però sí que ha establert una sèrie de criteris per detectar els models que poden generar un alt risc en funció del context en què es facin servir i obliga els seus desenvolupadors a complir unes salvaguardes més estrictes abans de treure’ls al mercat.