Les moltíssimes derivades que està oferint l’adveniment de la intel·ligència artificial (IA) en tants i tants àmbits de la nostra societat està començat a fer aixecar la veu a moltes persones sobre com s’ha d’utilitzar aquesta tecnologia. Recentment, un miler d’experts han demanat directament aturat el desenvolupament de la intel·ligència artificial alertats pels seus avenços, la figura més mediàtica dels quals és ChatGPT y GPT 4.
Podem estar d’acord que és l’avenç més gran del món quant a software en dècade i la punta del iceberg d’una cada cop més probable revolució tecnològica que es fa difícil ni tan sols definir. Aquests experts parlen directament d’aturar els desenvolupaments o estarem abocats a la destrucció de la civilització. Sona molt radical, però a la velocitat que es mou tot plegat, qui s’atreveix a negar-ho rotundament?
Com passa sempre, la tecnologia corre a una velocitat molt superior a la possible regulació que la podria emmarcar per a definir usos i excessos. Amb l’IA aquest desfase és més sagnant encara. El boom d’aquesta tecnologia ha estat exponencial. Un cop més, governs i institucions mostren la seva incapacitat per a reaccionar i trobar barreres o limitacions per al sector.
La carta oberta dels experts mundials demana aturar sis mesos tots els desenvolupaments, de manera pública i verificable per fer-hi la reflexió de com, per què i fins a on s’ha de treballar en l’IA. Si no, directament, que es faci via intervenció dels governs.
Alguns s’ho han pres al peu de la lletra, com Itàlia. La seva autoritat de protecció de dades, el GPDP (Garante per la protezione dei dati personali), ha prohibit amb efecte immediat l’ús de ChatGPT i ha bloquejat l’eina d’OpenAI per suposada recopilació il·lícita de dades personals. Alhora ha començat una investigació a la companyia. Itàlia ha dit que fins que no compleixi amb el RGPD europeu, no aixecarà la prohibició.
Les qüestions que planteja el GPDP italià són essencials. No es proporciona cap a informació a l’usuari de les dades recopilades i processades per Chat GPT, no hi ha base jurídica adequada en relació a la recopilació de dades personals i el seu tractament destinat a generar algoritmes, no hi cap sistema de verificació d’edat de l’usuari…
Amb aquest precedent, d’altres s’ho han començat a mirar, com Espanya, on l’Agència espanyola de protecció de dades (AEPD) ha iniciat d’ofici també una investigació per un possible incompliment de la normativa. I el tema s’ha elevat ja al Comitè europeu de protecció de dades (EDPB, per les sigles en anglès) perquè valori els tractament globals de dades i l’impacte sobre els drets de les persones. És primer pas. Veure a quina velocitat es mou, però. La privacitat de les dades és una pota només de les afectacions normatives de l’IA, també s’haurà de fer l’abordatge de la transparència i explicabilitat dels algoritmes, l’ètica, l’equitat i no discriminació, i la responsabilitat dels sistemes d’IA