Catalunya
Catalunya

Tecnologia i retallada de drets

La irrupció de la pandèmia ha recuperat un debat que els darrers temps ja despertava molts dubtes: què pot suposar que, en nom de la salut i la seguretat, es retallin drets i llibertats mitjançant eines de control tecnològic? Text: Dani Vilaró, responsable de comunicació d’Amnistia Internacional Catalunya És evident que la tecnologia pot i […]

La irrupció de la pandèmia ha recuperat un debat que els darrers temps ja despertava molts dubtes: què pot suposar que, en nom de la salut i la seguretat, es retallin drets i llibertats mitjançant eines de control tecnològic?

Text: Dani Vilaró, responsable de comunicació d’Amnistia Internacional Catalunya

És evident que la tecnologia pot i ha d’exercir un paper important per salvar vides i contenir la pandèmia, a més d’ajudar a difondre missatges de salut pública o augmentar l’accés als serveis de salut. Però hi ha un aspecte clau, una línia vermella que no s’hauria de creuar mai: que totes les mesures de seguiment o de vigilància que s’adoptin han de quedar fixades prèviament per llei, estar sotmeses a mecanismes externs de supervisió independents i al control judicial, i han de ser necessàries, proporcionals i justificades per aconseguir objectius legítims de salut pública. En resum: hem de recolzar-nos en la tecnologia, sí, però sempre d’una manera regulada.

Estem vivint reculades similars al 2001, quan amb l’excusa de la guerra contra el terrorisme global es van llibertats i drets a la ciutania? Després dels atemptats del 11S, nombrosos governs van enfrontar els seus ciutadans a un dilema fals: seguretat o llibertat. En un estat de dret, on les lleis equilibren tots dos conceptes, les persones són innocents fins que es demostra el contrari i tenen dret que es respecti la seva vida privada. Per tant, abans de violar aquests drets, els governs han de tenir indicis que s’està cometent un delicte.

Això pot traslladar-se, paraula per paraula, a l’àmbit digital i tecnològic. No es poden buscar proves aleatòriament en les nostres comunicacions privades abans que es cometi aquest delicte. Amb aquest plantejament, no solament es retallen drets, sinó que ens converteix a tots en presumptes delinqüents i a les nostres activitats en sospitoses, tot i que no existeixen proves que la vigilància massiva i indiscriminada sigui realment efectiva.

Perquè sigui compatible amb els drets humans, l’extensió de tecnologia a les nostres vides ha de complir un seguit d’obligacions, com ara incorporar en el seu disseny la protecció de les dades i la privacitat dels ciutadans, la qual cosa significa que les dades recopilades han de ser els mínims necessaris i emmagatzemar-se de forma segura. Qualsevol recopilació de dades ha de limitar-se a qüestions concretes i no tenir cap altra finalitat, com fer complir la llei o vetllar per la seguretat . Per descomptat, hem de tenir en compte que aquestes dades, les nostres dades, tampoc han de posar-se a la disposició de tercers ni destinar-se a finalitats comercials, i ha de protegir-se la confidencialitat de totes les dades recopilades, fins i tot si es combinen amb altres conjunts de dades.

Així, ens preocupa també l’extensió de tot aquell programari que es desenvolupa, teòricament para per lluitar contra el crim i el terrorisme, però que els fets ens han demostrat que, en diversos casos, s’ha utilitzat per accedir a informació d’activistes, defensors i defensores de drets humans, periodistes, etc. És el cas del programari espia Pegasus, desenvolupat per la companyia israeliana NSO Group, i que ha estat utilitzat per prendre el control del teclat, la càmera i el micròfon del telèfon mòbil. Aquest programari s’ha utilitzat ja contra un ampli sector de la societat civil, que abraça almenys activistes de drets humans, periodistes i defensores de drets humans.

També és preocupant l’ús de la tecnologia de reconeixement facial amb finalitats d’identificació. El seu funcionament, a grans trets consisteix que sistemes informàtics executen processos de coincidència múltiple on el rostre de la imatge que es presenta al sistema es compara amb una base de dades d’imatges per comprovar si es troben coincidències. Aquest mètode no requereix el registre de credencials prèvies, sinó que busca una sèrie de característiques facials analitzades en tota la xarxa i base de dades, sense necessitat d’una «petjada» registrada prèviament.

La policia utiliza aquests sistemes per identificar individus que figuren en una llista de control; també en els suggeriments d’etiquetatge de fotografies en un entorn comercial (per exemple, etiquetes d’imatges a Facebook o suggeriments de contactes dels telèfons mòbils en fotografies). Normalment, l’individu no participa en aquest procés. Dit d’una altra manera, la identificació facial s’utilitza per determinar la identitat d’una persona, la qual cosa constitueix una violació del dret a la privacitat, dificulta de forma significativa el dret de reunió pacífica i el dret a la llibertat d’expressió i pot afectar de forma desproporcionada grups marginats i menyscabar el dret a la igualtat i a no patir discriminació.

Així també es fan més vulnerables diferents col·lectius, precisament perquè les taxes de precisió de la tecnologia de reconeixement facial són molt inferiors para, per exemple, cares de persones negres i dones. La classificació i categorització de la tecnologia de reconeixement facial és limitada i no permet matisos; per exemple, pot assignar a un rostre un resultat de probabilitat de ser home o dona (amb graus variables d’èxit quant a precisió) però tindrà problemes per identificar amb precisió les identitats no binàries o de gènere fluid.

És a dir, els sistemes d’aprenentatge automàtic estan predisposats per disseny a integrar i augmentar els biaixos existents, reforçant les desigualtats estructurals a través del codi. Els conjunts de dades d’entrenament del sistema poden ser poc representatius i assortir l’efecte de codificar biaixos històrics; les taxes de precisió poden distorsionar-se per afavorir certes característiques si els sistemes es proven i avaluen amb conjunts de dades poc representatives.

Per això, fins que sigui possible abordar plenament els riscos per als drets humans i mitigar qualsevol dany, des d’Amnistia recomanem la prohibició immediata de l’ús de tecnologia de reconeixement facial: només d’aquesta manera protegirem els drets de totes i cadascuna de les persones, independentment del seu gènere o origen ètnic.

Actualment, vivim en un món en el qual l’ús de la tecnologia és inevitable, però no per això hem de renunciar als nostres drets. I qui ha de protegir a la societat d’aquests riscos són els governs de tot el món.

Els governs han de prendre amb urgència mesures per transformar el model empresarial basat en la vigilància i protegir-nos dels abusos de les empreses contra els drets humans, entre les quals l’aplicació de lleis sòlides de protecció de dades i la regulació efectiva de les grans empreses tecnològiques segons el que estableix el dret dels drets humans.

L’ús de la tecnologia domina actualment la nostra vida, perquè empreses, i governs en menor mesura, acumulen un poder sobre el món digital i tecnològic per mitjà de la recopilació i monetització de les dades personals de milers de milions de persones. El seu control de les nostres vides digitals menyscaba l’essència mateixa de la privacitat i és un dels problemes de drets humans que defineixen la nostra època. Per protegir valors humans bàsics, com ara la dignitat, l’autonomia i la privacitat en l’era digital és necessària una transformació radical de la manera en què les grans empreses tecnològiques desenvolupen les seves activitats per donar pas a una Internet i unes xarxes que situïn els drets humans en el centre.