Se pare că Google Chrome descarcă un model de IA de 4 GB pe PC-urile utilizatorilor fără consimțământul acestora și fără informări prealabile. Această practică face ca utilizatorii mai puțin tehnici să nu poată descoperi acest lucru pe cont propriu. Potrivit lui Alexander Hanff, care publică un blog numit „That Privacy Guy”, Google Chrome instalează local un model Gemini Nano de 4 GB fără consimțământul utilizatorului.
Cercetătorul a descoperit că Google Chrome descarcă și instalează automat modelul local de IA, fără nicio intervenție din partea utilizatorului. Google Chrome inițiază acest proces prin crearea unui folder „OptGuideOnDeviceModel”, care conține un fișier „weights.bin” de exact 4 GB.
Printre sarcinile locale de IA pe care Gemini Nano le poate gestiona se numără rezumarea paginilor web pe care le vizitați, organizarea filelor Chrome, avertizarea cu privire la escrocheriile online și oferirea de ajutor la scriere sau reformularea textului pe măsură ce tastați, conform unei pagini de asistență Google.
Chrome descarcă modelul de IA fără consimțământ și simpla ștergere nu va funcționa
Google Chrome scanează automat dispozitivul pentru a evalua dacă poate rula modele locale de IA și declanșează descărcarea doar când funcțiile de IA sunt active. Nu există nicio casetă de selectare specifică în setările browserului care să indice descărcarea unui model AI local de 4 GB. Potrivit lui Hanff, nu există un flux clar de consimțământ pentru această descărcare. El spune că Chrome nu afișează un mesaj care să explice că un model AI de mai mulți GB va fi stocat local și nici nu oferă o setare simplă pentru a împiedica acest lucru.
Utilizatorii care descoperă și șterg fișierul vor constata că acesta este descărcat din nou mai târziu, cu excepția cazului în care dezactivează anumite opțiuni experimentale sau elimină Chrome în totalitate.
Fișierul specific se numește weights.bin. Pe Mac se găsește în folderul Applications Support al Chrome din Finder:
~/Library/Application Support/Google/Chrome/OptGuideOnDevice Model/
Utilizatorii de Windows vor găsi fișierul în directorul AppData:
C:\Users\
Pentru a ajunge la directorul AppData, apăsați tasta Windows + R, tastați %LOCALAPPDATA%\Google\Chrome\User Data\ direct în caseta de dialog, apoi apăsați Enter.
Acest fișier include „ponderile” pentru Gemini Nano, modelul local de IA care se află în browserul Chrome al Google. Spre deosebire de Gemini din cloud, Nano se află direct pe PC-ul personal și efectuează o varietate de sarcini de IA direct pe sistem.
Simpla ștergere a fișierului weights.bin nu va funcționa, deoarece Chrome va reinstala automat fișierul lipsă. Dar se poate elimina descărcarea de 4 GB într-un alt mod, modificând o setare Chrome. Mergeți la Setări > Sistem, apoi comutați setarea „AI pe dispozitiv” la Oprit.
Desigur, dezactivarea setării AI locale a Chrome va anula funcționalitatea AI locală a Chrome, inclusiv sugestiile de text și avertismentele privind escrocheriile.
Costurile ecologice și de lățime de bandă
A avea un model AI local pe computerul personal oferă o serie de avantaje în funcție de sarcină, inclusiv o latență mai mică și o confidențialitate potențial mai mare, deși Chrome ar putea să partajeze în continuare cel puțin o parte din activitatea dvs. de navigare cu sediul central Google.
Un aspect central al articolului lui Hanff îl constituie costul ecologic al distribuirii silențioase a unui model de IA de 4 GB, în care el subliniază riscurile distribuirii unui fișier de această dimensiune la scară globală. În cazul implementării pe sute de milioane sau miliarde de dispozitive, se estimează că impactul total al emisiilor generate doar de distribuirea fișierului, fără a-l utiliza, este considerabil.
Pentru mulți utilizatori, preocuparea imediată este lățimea de bandă. O descărcare de 4 GB este nesemnificativă pe o conexiune de fibră optică nelimitată, dar aceasta nu este deloc norma globală. Pentru utilizatorii ale căror date sunt limitate, contorizate sau costisitoare, inclusiv majoritatea celor din țările în curs de dezvoltare, transferul silențios de gigabiți de date poate avea consecințe financiare reale. Chiar și pe piețele dezvoltate, utilizatorii care folosesc hotspoturi mobile sau conexiuni rurale pot resimți impactul în mod acut.
Problemele juridice și practici obscure
Dincolo de detaliile tehnice, cercetătorul ridică probleme juridice. El susține că această practică încalcă probabil prevederile legislației UE, inclusiv regulile Directivei ePrivacy privind stocarea datelor pe dispozitivele utilizatorilor și cerințele GDPR privind transparența și prelucrarea legală. Aceste practici reflectă o tensiune crescândă între lansarea agresivă a funcționalităților software și condițiile de reglementare, în special în Europa.
Această practică întărește o critică familiară la adresa marilor platforme tehnologice. Potrivit lui Hanff, Google a acționat mai întâi și a lăsat utilizatorii să descopere consecințele mai târziu. Dispozitivul utilizatorului este tratat ca o țintă de implementare, mai degrabă decât ca ceva pe care utilizatorul îl controlează activ. Această formulare poate părea dură, dar se aliniază plângerilor de lungă durată privind „modelele obscure” (dark patterns) din proiectarea software-ului.
Un dark pattern, sau „model înșelător/obscur” este o funcționalitate software concepută intenționat pentru a manipula sau a păcăli utilizatorii să facă acțiuni pe care nu le-ar face în mod normal, cum ar fi cumpărarea unui produs suplimentar, abonarea la servicii sau partajarea datelor personale. Aceste practici sunt contrare eticii de design, vizând beneficiul financiar al companiei în detrimentul utilizatorului.
În acest caz funcțiile care avantajează platforma în detrimentul utilizatorului sunt activate în mod implicit, ascunse în spatele unor setări obscure sau implementate în moduri care le fac dificil de eliminat. Raportul sugerează că trecerea către IA pe dispozitiv nu schimbă această dinamică și, de fapt, s-ar putea să o accelereze.
