Privacy by design, czy raczej privacy by apology? Apple lubi podkreślać w materiałach marketingowych, że bardzo troszczy się o prywatność użytkowników i ochronę ich danych. W praktyce właściciele urządzeń tej marki mogą być traktowani jak „dane do przetworzenia”, o czym przekonali się Amerykanie w ostatnich latach. Wirtualna asystentka Siri mogła bowiem nagrywać ich rozmowy — bez wiedzy i zgody.
Choć Apple od lat kreuje się na obrońcę prywatności, amerykański sąd federalny w Kalifornii zaakceptował wart 95 mln dol. układ w sprawie pozwu zbiorowego dotyczącego gromadzenia i odsłuchiwania prywatnych rozmów przez wirtualną asystentkę Siri. Ugoda obejmuje wszystkich mieszkańców Stanów Zjednoczonych, którzy między 17 września 2014 r. a 31 grudnia 2024 r. korzystali z dowolnego urządzenia obsługującego asystentkę głosową Apple.
Każdy klient może zgłosić do pięciu urządzeń i — pod warunkiem złożenia przysięgi, że doświadczył niezamierzonej aktywacji Siri podczas prywatnej konwersacji — otrzymać do 20 dol. za sprzęt (maksymalnie 100 dol.). Roszczenia należy składać do 2 lipca 2025 r., a ostateczna aprobata ugody ma zapaść 1 sierpnia 2025 r.
Źródłem sporu była praktyka tzw. gradingu, ujawniona światu w lipcu 2019 r. przez sygnalistów zatrudnionych w firmie zewnętrznej. W rozmowach z dziennikiem The Guardian opisali oni, że rutynowo słuchali nagrań zawierających dane medyczne, rozmowy intymne czy szczegóły transakcji narkotykowych — wszystko to trafiało na ich słuchawki wskutek przypadkowych, błędnych wybudzeń Siri bez wypowiedzianej frazy „Hey Siri”, która miała aktywować usługę.
Po kilku dniach Apple wstrzymało cały program i ogłosiło audyt procesu, a pod koniec sierpnia 2019 r. oficjalnie przeprosiło użytkowników, zapowiadając, że od następnej aktualizacji systemu iOS nagrania będą trafiać do ludzi-recenzentów wyłącznie za wyraźną zgodą właściciela urządzenia.
Siri słuchała wtedy, gdy nie powinna
Technicznie rzecz biorąc Siri musi stale „nasłuchiwać” otoczenie, aby wychwycić komendę aktywującą „Hey Siri”. Robi to na układach niskiego poboru mocy, które w pętli buforują ułamki sekund z mikrofonu. Jeżeli algorytm zakwalifikuje wycinek dźwięku jako „Hey Siri”, wysyła go — wraz z kilkusekundowym kontekstem sprzed i po wywołaniu — na serwery Apple w celu rozpoznania mowy.
Dopóki skuteczność lokalnego rozpoznawania była ograniczona, firma ustawiła próg wykrywania na bardzo czuły, by uniknąć sytuacji, w której Siri nie reaguje na polecenie. Skutkiem ubocznym były tysiące fałszywych pozytywów dziennie, których Apple potrzebowało do szkolenia modeli głosowych — te właśnie fragmenty trafiały do „graderów”.
Praktyka ta mogła trwać niemal dekadę i działała w cieniu pięknego, ale dość ogólnego hasła: „Privacy. That’s iPhone”. W styczniu 2019 r. ogromny billboard z tym sloganem stanął w Las Vegas, tuż obok targów CES, kpiąc z konkurencji i sugerując, że urządzenia Apple nie „wynoszą danych” poza ekosystem firmy.
Rzeczywistość okazała się bardziej złożona. Apple wprawdzie szyfrowało i anonimizowało pakiety Siri, lecz ich odsłuchiwanie przez człowieka — nawet bez przypisanych metadanych — łamało społeczne oczekiwania prywatności i, jak twierdzili powodowie, stanowe przepisy o nagrywaniu bez zgody rozmówcy.
Apple od początku sporu zapewniało, że nagrań nie sprzedawało reklamodawcom i że służyły wyłącznie poprawie jakości usługi. Ostatecznie firma poszła na ugodę. Dlaczego? Bo pewnie sama kara nie jest na tyle wysoka, aby się nią szczególnie przejmować i lepiej sprawę rozwiązać możliwie szybko i po cichu. 95 mln dol. kary to mniej więcej dziewięć godzin zysku spółki, więc ugoda nie da się finansowo we znaki. Niemniej fakt, że Apple godzi się zapłacić — nadal zaprzeczając winie — stanowi już precedens, którego firma chciała uniknąć w otwartym procesie.
Narracja o prywatności to bajka
Sprawa Siri wpisuje się w szerszy obraz rosnącego napięcia między narracją Apple o „prywatności jako prawie człowieka” a realnymi kompromisami technologicznymi. W marcu 2025 r. Apple zostało pozwane także za wprowadzającą w błąd promocję pakietu Apple Intelligence, czyli rozbudowanej, spersonalizowanej wersji Siri opartej na AI, której premiera została opóźniona o wiele miesięcy. Konsumenci twierdzą, że kupowali nowe telefony z serii iPhone w oczekiwaniu na przełomowe funkcje, a zamiast nich dostali kolejne obietnice.
Ugoda w sprawie Siri nie kończy debaty o prywatności w ekosystemie Apple, lecz odsłania paradoks korporacji, która z jednej strony inwestuje miliardy w bezpieczeństwo danych, a z drugiej — w imię użyteczności i postępu uczenia maszynowego — wystawia użytkowników na ryzyka wynikające z ludzkiego czynnika. Dziesięcioletni okres, którego dotyczy pozew, pokazuje, że nawet w firmie słynącej z kontroli detali drobny parametr algorytmu może niepostrzeżenie przerodzić się w systemowy problem wymagający interwencji sądu.
Czy 20 dol. za urządzenie rekompensuje potencjalne naruszenie zaufania? Dla większości posiadaczy iPhone’ów to kwota symboliczna, ale dla Apple to ostrzeżenie. Hasło „Co dzieje się na twoim iPhonie, zostaje na twoim iPhonie” będzie teraz oceniane nie po chwytliwych sloganach, lecz po zgodności praktyk z deklaracjami i transparentności procesów uczenia maszynowego.
Jeśli firma chce nadal sprzedawać prywatność jako produkt premium, musi zadbać, aby kolejne odsłony Siri — zwłaszcza te obiecujące głęboką, kontekstową inteligencję — powstawały od pierwszej linijki kodu w duchu podejścia privacy by design, a nie privacy by apology.
businessinsider.com.pl