Utilizarea unică a tehnologiei de recunoaștere facială din Australia a provocat controverse și a alimentat temerile legate de confidențialitate, dar există șansa ca aceasta să devină un lider mondial în reglementarea utilizării sale.
În cazul în care o persoană din Australia de Vest contractează Covid-19, aceasta trebuie să rămână în carantină la domiciliu pentru următoarele șapte zile – la fel ca și contactele lor apropiate. Poliția verifică locul unde se află, trimițând mesaje text periodice și solicită ca un selfie să fie trimis înapoi la ei în 15 minute. Poliția folosește tehnologia de recunoaștere facială și urmărirea GPS pentru a determina dacă persoana care a făcut selfie-ul este acasă. Dacă nu sunt, ei vin la usa și pot da o amendă usturătoare.
Aplicația G2G a startup-ului local de tehnologie Genvis a fost folosită de peste 150.000 de persoane din stat de când a fost lansată în septembrie 2020. Aceeași tehnologie, deși oferită de companii diferite, a fost pilotată în statele New South Wales, Victoria, Australia de Sud și Tasmania. Australia se distinge ca singura democrație care utilizează tehnologia de recunoaștere facială pentru a ajuta procedurile de izolare Covid-19, în timp ce alte țări au respins ideea unei astfel de supravegheri.
San Francisco a fost primul oraș din SUA care a introdus o amanare de plată a datoriiilor împotriva poliției care a folosit recunoașterea facială în mai 2019. Acesta a fost urmat rapid de Oakland, de asemenea, în California, și Somerville în Massachusetts. Amazon, Microsoft, IBM și Google au declarat că nu vor vinde algoritmii lor de recunoaștere facială agențiilor de aplicare a legii până când nu există o lege federală în vigoare. În noiembrie 2021, Meta a declarat că Facebook va șterge un miliard de „faceprinturi” și va înceta să mai folosească tehnologia în scopul etichetării oamenilor în fotografii.
Comisia australiană pentru drepturile Omului a cerut un moratoriu asupra tehnologiei până când Australia are o lege specifică pentru a reglementa utilizarea acesteia. Militanții pentru drepturile omului spun că există potențial ca datele cu caracter personal obținute să fie utilizate în scopuri secundare și că este o pantă alunecoasă spre a deveni un stat de supraveghere. Grupuri precum Amnesty avertizează că utilizarea recunoașterii faciale duce la discriminare rasială.
„Pandemia a creat toate aceste noi justificări pentru utilizarea tehnologiei de recunoaștere facialăˮ, declară Mark Andrejevic, profesor de studii media la Universitatea Monash din Melbourne și autorul unei viitoare cărți intitulate Recunoașterea Facială. Totul a mers online, iar organizațiile încercau să facă lucrurile să funcționeze foarte repede. Dar implicațiile nu au fost gândite. Vrem să trăim într-o lume în care totul este redat și nu există spații private? Creează un nou nivel de stres care nu duce la o societate sănătoasă.
Este nevoie de consimțământ pentru ca aplicația G2G să fie utilizată și a fost, de asemenea, necesară în urma incendiilor din Vara neagră din Australia din 2020, când cei care și-au pierdut documentele de identificare au folosit recunoașterea facială pentru a se califica pentru plăți de ajutor în caz de dezastru. Dar au existat cazuri în care tehnologia de recunoaștere facială a fost folosită pe ascuns.
În octombrie, s-a constatat că grupul de magazine 7-Eleven a încălcat confidențialitatea clienților lor prin colectarea de amprente faceprints de la 1.6 milioane de clienți australieni atunci când au finalizat sondajele de satisfacție. Se presupune că amprentele faciale au fost obținute pentru a obține profiluri demografice și pentru a împiedica personalul să joace sondajele prin creșterea evaluărilor lor. Nu au fost amendați pentru asta.
Departamentul de afaceri interne al Australiei a început să construiască o bază de date națională de recunoaștere facială în 2016 și pare gata să o lanseze. În ianuarie, compania a făcut o licitație pentru ca o companie să „construiască și să implementeze” datele.
„Recunoașterea facială este pe punctul de a fi folosită pe scară largăˮ, declară Andrejevic. Australia se pregătește să utilizeze recunoașterea facială pentru a permite accesul la serviciile guvernamentale. Și printre agențiile de aplicare a legii, există cu siguranță o dorință de a avea acces la aceste instrumente. ”
Cele mai multe guverne de stat au furnizat baza de date centrală cu permisele de conducere ale rezidenților lor, iar baza de date stochează, de asemenea, fotografii pentru viză și pașaport.
O lege care reglementează tehnologia de recunoaștere facială a fost propusă în 2019, dar a fost abandonată după ce o revizuire a Comisiei parlamentare a constatat că nu dispune de protecții adecvate privind confidențialitatea. Printre cei mai puternici critici ai săi a fost comisarul australian pentru drepturile omului, Edward Santow.
„Suntem acum în cea mai rea dintre toate situațiile în care nu există o lege dedicată, așa că avem de-a face cu câteva protecții fragmentate care nu sunt complet eficiente și cu siguranță nu sunt cuprinzătoareˮ, spune Santow. „Tehnologia continuă să fie implementatăˮ.
Santow lucrează la modalități de a face dispozițiile privind confidențialitatea mai robuste, cu echipa sa de la Universitatea de Tehnologie din Sydney.
Un răspuns global variat
O parte a proiectului implică examinarea încercărilor altor țări de a reglementa tehnologiile de recunoaștere facială. Există abordări foarte diferite în întreaga lume. Cel mai obișnuit este să se bazeze pe o mână de protecție limitată a confidențialității despre care Santow spune că nu reușesc să abordeze în mod adecvat problema; asa este in Australia.
„Nici o țară din lume nu are dreptate”, spune Santow. „Dacă [protecția vieții private ar fi potrivită], acest proiect ar fi unul foarte simplu.ˮ
Leila Nashashibi este un militant al grupului american de advocatură Fight for the Future, care se străduiește să obțină o interdicție federală privind recunoașterea facială și alte forme de identificare biometrică.
„La fel ca energia nucleară și armele biologice, recunoașterea facială reprezintă o amenințare pentru societatea umană și libertățile noastre de bază care depășesc cu mult orice beneficii potențialeˮ, spune ea. Recunoașterea facială este diferită de orice altă formă de supraveghere, deoarece permite monitorizarea automată și omniprezentă a întregii populații și poate fi aproape imposibil de evitat. Pe măsură ce se răspândește, oamenilor le va fi prea frică să participe la mișcări sociale și demonstrații politice. Libertatea de exprimare va fi pusă la rece.”
Căutând faceprints în social media
Cel mai proeminent furnizor de tehnologie de recunoaștere facială, compania americană ClearVIEW IA, pare să nu fie descurajată de procesele și amenzile grele pe care le acumulează într-o varietate de jurisdicții. Prima dată a atras atenția presei atunci când un miliardar a folosit-o pentru a identifica data cinei fiicei sale și este folosită în prezent de guvernul ucrainean pentru a identifica soldații ruși morți. Familiile lor sunt notificate prin intermediul social media, cu fotografiile trimise uneori ca un atașament.
Recunoașterea facială creează informații acționabile în timp real pentru a preveni crima – Mark Andrejevic
De asemenea, caută ca tehnologia sa să fie utilizată în școlile din statele Unite ca un „sistem de management al vizitatorilorˮ, ceea ce ei cred că ar putea fi folosit pentru a ajuta la prevenirea împușcăturilor în școli prin recunoașterea fețelor elevilor exmatriculați, de exemplu. Tehnologia de recunoaștere facială și de recunoaștere a obiectelor a fost testată în diferite școli deja de diferiți furnizori, inclusiv recunoașterea obiectelor care ar putea identifica o armă ascunsă.
„ClearVIEW IA exploatează teroarea și trauma oamenilor spunând că supravegherea și poliția sunt răspunsulˮ, spune Nashashibi.
Directorul IA ClearVIEW australian și fondator Hoan Ton-That nu este de acord. El spune că tehnologia de recunoaștere facială are un mare potențial pentru prevenirea criminalității, deoarece poate asigura ca numai persoanele autorizate să aibă acces in clădire, cum ar fi, de exemplu, o școală.
„Am văzut tehnologia noastră folosită cu mare succes de forțele de ordine pentru a opri traficul de arme și sperăm că tehnologia noastră poate fi utilizată pentru a preveni crimele tragice cu arme în viitorˮ, a spus el.
În Australia, tehnologia de recunoaștere facială este utilizată pe mai multe stadioane pentru a preveni intrarea suspecților de terorism sau a huliganilor cărora li se interzice accesul la fotbal. Andrejevic consideră că utilizarea recunoașterii faciale ca măsură de securitate reprezintă un pas important în supraveghere și necesită o analiză atentă.
„CCTV este adesea criticat pentru că permite doar dovezi după acest fapt, în timp ce recunoașterea facială creează informații acționabile în timp real pentru a preveni criminalitateaˮ, spune el. „Aceasta este o concepție foarte diferită de securitate.ˮ
Recunoașterea facială live este deja folosită de unele forțe de poliție din întreaga lume. Poliția metropolitană din Londra, de exemplu, o folosește pentru a monitoriza anumite zone pentru o „listă de supraveghere” a unor persoane care ar putea reprezenta un risc pentru public.
ClearVIEW a creat o bază de date cu 20 miliarde de imagini faciale, în mare parte prin căutarea fotografiilor din social media fără consimțământ. Compania nu va lucra cu guverne autoritare precum China, Coreea de Nord și Iran. Cu toate acestea, a întâmpinat probleme în unele democrații. Acesta a fost interzis în Canada și Australia, iar la 24 mai, Biroul Comisarului pentru informații din Marea Britanie (ICO) l-a amendat cu peste 7,5 milioane de lire sterline (9,1 milioane de dolari), în urma unei investigații comune cu Biroul Comisarului australian pentru informații. Acesta a fost obligat să șteargă datele rezidenților britanici din sistemele sale. În decembrie 2021, autoritatea de supraveghere a confidențialității din Franța a constatat că ClearVIEW a încălcat Regulamentul general european privind protecția datelor (GDPR).
Santow spune că scopul în Australia este de a dezvolta o abordare nuanțată care încurajează utilizarea aplicațiilor pozitive și de a impune bariere pentru a preveni daunele. Cel mai rău scenariu ar fi acela de a reproduce sistemul de „credit social” din China, unde indivizii și organizațiile sunt urmărite de guvern pentru a determina „credibilitatea” lor.
„Pentru a determina dacă o utilizare este benefică sau dăunătoare, ne referim la cadrul internațional de bază al drepturilor omului care există în aproape fiecare jurisdicție din lumeˮ, spune Santow.
De exemplu, legea ar necesita consimțământul liber și informat pentru ca recunoașterea facială să fie utilizată. Cu toate acestea, în cazul în care tehnologia ar cauza apariția discriminării prin inexactitatea sa în raport cu anumite grupuri, consimțământul ar deveni irelevant. După cum spune Santow: „Nu poți fi de acord să fii discriminat”.
Din ce în ce mai sofisticat și puternic
„În următorii doi ani, vom vedea o schimbare mare de la persoanele care folosesc parole, care sunt total nesigure. Biometria va deveni implicităˮ, spune O’Hara.
Recunoașterea facială funcționează prin împărțirea feței într-o serie de forme geometrice și cartografierea distanțelor dintre “reperele” sale, cum ar fi nasul, ochii și gura. Aceste distanțe sunt comparate cu alte fețe și transformate într-un cod unic numit marker biometric.
„Când utilizați o aplicație de recunoaștere facială pentru a vă deschide telefonul, nu este o imagine a feței pe care o stochează telefonulˮ, explică Garrett O’Hara, tehnician șef de teren la compania de securitate Mimecast. Stochează o derivare algoritmică a ceea ce fața ta este matematic. Pare un cod lung de litere și cifre.”
Recunoașterea facială a parcurs un drum lung de când a fost dezvoltată pentru prima dată în anii 1960, deși rata de eroare variază semnificativ între diferitele sisteme utilizate astăzi. La început, nu a putut distinge între frați sau schimbările de pe fața unei persoane pe măsură ce îmbătrânea. Acum este atât de sofisticat încât poate identifica pe cineva care poartă ochelari de soare sau mască și poate face acest lucru de la mai mult de un kilometru distanță.
Cel mai bun algoritm de identificare a feței are o rată de eroare de doar 0.08%, potrivit testelor Institutului Național de Standarde și Tehnologie. Cu toate acestea, acest nivel de precizie este posibil numai în condiții ideale, în cazul în care caracteristicile faciale sunt clare și neacoperite, iluminarea este bună și individul este în fața camerei. Rata de eroare pentru persoanele capturate “în natură” poate fi de până la 9.3%.
„Este o tehnologie extrem de utilă. Dar dacă cineva ne-ar fi întrebat acum 20 de ani când a început rețeaua globală dacă am fi vrut să trăim într-o lume în care interacțiunile și activitatea noastră ar fi fost colectate și urmărite, majoritatea dintre noi probabil că ar fi spus că sună ciudatˮ, spune O’Hara. Acum replicăm urmărirea spațiului online pentru a include și spațiul fizic. Și nu ne punem întrebările despre asta așa cum ar trebui să facem.”
Unul dintre aspectele sale cele mai problematice este potențialul său de discriminare rasială și părtinire. Majoritatea aplicațiilor de recunoaștere facială au fost inițial instruite folosind seturi de date care nu erau reprezentative pentru întreaga gamă a comunității.
„În primele zile, seturile de date utilizate au fost luate de la bărbați albi sau de la oameni albi în generalˮ, spune O’Hara. Și, în mod clar, aceasta duce la probleme atunci când aveți oameni de culoare sau de diferite etnii sau medii care nu se potrivesc cu modelele lor de testare. Până la urmă, este doar matematică. Aceasta este problema.ˮ
Ca urmare, sistemele de recunoaștere facială sunt predispuse la greșeli atunci când încearcă să recunoască persoanele care aparțin unui grup etnic minoritar, femeile, persoanele cu handicap și persoanele în vârstă. Utilizarea sa a dus la arestări false și alte consecințe care au schimbat viața, subliniază Nashashibi.
Falsurile profunde duc frauda la noi culmi
Fie că este vorba de o amprentă, o scanare a irisului, o analiză a mersului sau o citire capilară, nicio formă de biometrie nu este o dovadă proastă. Pe măsură ce tehnologia devine mai sofisticată, la fel devin și încercările hackerilor de a o manipula pentru propriul lor câștig. Falsurile profunde au apărut ca o evoluție a tehnicilor de fraudă, în special în ceea ce privește recunoașterea facială digitală (adică fotografii).
„Aveam nevoie de mai multe ore pentru a crea un fals profund folosind instrumente de animație – acum durează câteva minuteˮ, spune Francesco Cavalli, co-fondator al Sensity IA din Amsterdam. Tot ce ai nevoie este o fotografie pentru a crea un fals 3D. Aceasta înseamnă că escrocii își pot extinde operațiunile și atacurile lor cresc vertiginos.. Nici măcar nu trebuie să fii dezvoltator sau inginer. Poți s-o faci singur. Există tone de aplicații care vă permit să reproduceți fața cuiva.
Sensity IA ajută guvernele, institutele financiare și chiar site-urile de Dating să identifice aplicații frauduloase, fie pentru a obține plăți de ajutor Covid-19, pentru a stoca bani spălați într-un cont bancar sau pentru a șantaja pe cineva pe Tinder. Testul de vivacitate în infraroșu determină temperatura corpului și clipirea atunci când cineva face o fotografie online, ceea ce înseamnă că o fotografie a unei persoane „sintetice” va fi detectată.
„La un moment dat, escrocii lucrează la modul de a păcăli diferitele noastre modele, așa că trebuie să venim în mod continuu cu noi tehniciˮ, spune el.
În ciuda provocărilor din calea spre reglementare până în prezent, Santow este optimist că Australia ar putea deveni un lider mondial în reglementarea recunoașterii faciale. „Nu pot vorbi în numele guvernelor federale și de stat. Dar știu că înțeleg că există preocupări puternice ale comunității și că este nevoie să avem încredere în tehnologie.”
„Australia ar putea oferi un model bun din mai multe motiveˮ, a adăugat el. „Avem un puternic respect instituțional și corporativ pentru drepturile omului. Poate că nu este perfect, dar este fundamental pentru cine suntem noi ca țară. Suntem, de asemenea, un dezvoltator sofisticat și adoptator de tehnologie. ˮ
„ Percep cea mai mare provocare nu de a elabora o lege perfectă, ci de a mă asigura că legea în sine nu este ignorată”.
De Jessica Mudditt
Sursă text: BBC