Un stat european și-a spionat cetățenii în gările aglomerate cu camere AI

Camere de luat vederi care utilizează un software de inteligență artificială au fost folosite pentru a supraveghea mii de călători cu trenul în Regatul Unit, fără ca acest fapt să fie făcut cunoscut în mod corespunzător.

Foto: Unsplash


Un raport publicat în urma unei cereri privind libertatea de informare (FOI) detaliază modul în care un sistem de recunoaștere a imaginilor a fost implementat pentru testare în opt stații din Regatul Unit. Stații importante precum Waterloo din Londra și Piccadilly din Manchester au făcut parte din testul care susține că a urmărit să îmbunătățească securitatea în și în jurul nodurilor feroviare.

Camerele cu inteligență artificială învață să recunoască obiecte și acțiuni și au fost prezentate ca o modalitate de a monitoriza și de a ajuta personalul să rezolve probleme precum supraaglomerarea, furtul și comportamentul antisocial. Dar tehnologia Amazon "Rekognition", care este declanșată atunci când pasagerii trec pe lângă ea, face posibilă și analiza demografică a clienților în funcție de vârstă, sex și chiar emoții. Big Brother Watch, grupul pentru libertăți civile din spatele cererii FOI, a criticat amploarea utilizării camerei și lipsa unei conștientizări publice adecvate a procesului. "Desfășurarea și normalizarea supravegherii AI în aceste spații publice, fără prea multe consultări și discuții, este un pas destul de îngrijorător", a declarat Jake Hurfurt, responsabilul grupului pentru cercetare și investigații, relatat de Wired.

Foto: Shutterstock

La fiecare stație au fost instalate între cinci și șapte camere sau senzori, iar la Leeds au fost conectate la sistem până la 350 de camere. Raportul enumeră diverse utilizări potențiale ale tehnologiei. Printre acestea se numără detectarea supraaglomerării, a podelelor alunecoase și a hoților de biciclete, prevenirea comportamentelor periculoase, cum ar fi alergatul, skateboarding-ul și chiar fumatul pe peroane și în jurul acestora, până la supravegherea sinucigașilor. Potrivit lui Hurford, capacitatea tehnologiei de a "analiza emoțiile", cum ar fi "fericit, trist și furios", este unul dintre cele mai "îngrijorătoare" aspecte ale testelor, raportul sugerând mai degrabă utilizări comerciale decât de sănătate și siguranță pentru date. Autorii au remarcat analiza emoțiilor și colectarea de date privind "satisfacția" pasagerilor care ar putea "fi utilizate pentru a maximiza publicitatea și veniturile din vânzarea cu amănuntul". Acest lucru se întâmplă în ciuda unui avertisment al comisarului pentru informații din 2022, conform căruia o astfel de tehnologie este imatură și ar putea fi discriminatorie.

Foto: Unsplash

Ca răspuns la criticile privind amploarea "alarmantă" a procesului, un purtător de cuvânt al Network Rail a declarat: "Atunci când utilizăm tehnologii, colaborăm cu poliția și serviciile de securitate, pentru a ne asigura că luăm măsuri potrivite și respectăm întotdeauna legislația relevantă privind utilizarea tehnologiilor de supraveghere". Între timp, Hurford a fost de acord că "tehnologia poate avea un rol în creșterea siguranței căilor ferate", dar a precizat că "trebuie să existe o dezbatere publică solidă cu privire la necesitatea și proporționalitatea instrumentelor utilizate". Folosirea tehnologiei camerelor cu inteligență artificială este din ce în ce mai răspândită. Aceasta va fi utilizată la Jocurile Olimpice de la Paris pentru a supraveghea mulțimile în vederea depistării potențialelor arme și amenințări cu bombă.

AMI MÉG ÉRDEKELHET