13:48
16/8/2021

Nie dajcie się zwieść marketingowi firmy Apple. Wprowadzane do systemów iOS i macOS zmiany stanowią poważne zagrożenie dla prywatności. Może nie “już teraz” i może “jeszcze nie dla wszystkich”, ale to może się bardzo szybko zmienić i nie będzie można się z tego wycofać. I to właśnie jest największy problem afery dotyczącej decyzji Apple…

Na czym dokładnie polegać będzie skanowanie urządzeń Apple pod kątem treści niepożądanych (w tym pedofilskich)? Wiele osób, także branżowe serwisy, wypisują na ten temat bzdury. Oto na czym faktycznie polega i kogo dotyczy wprowadzany przez Apple mechanizm “Expanded Protections for Children“.

To 2 różne funkcje

Po pierwsze, wprowadzane przez Apple zmiany to tak naprawdę dwa różne mechanizmy:

  1. CSAM Detection: Wychwytywanie zdjęć będących znanych treści pedofilskich
  2. Communication Safety: Wychwytywanie wiadomości iMessage o charakterze pornograficznym

CSAM Detection dotyczy tylko osób z USA (na razie!), które mają włączoną synchronizację zdjęć z iCloud (warunek konieczny). Ich urządzenia pracujące pod kontrolą iOS 15, iPadOS 15, watchOS 8 lub macOS Monterey pobiorą bazę zdjęć zawierającą potwierdzone fotografie o charakterze pedofilskim (tzw. CSAM, Child Sexual Abuse Material). Nie bedą to faktyczne zdjęcia a ich “skróty”.

Następnie urządzenie policzy skróty “swoich” zdjęć i porówna je z bazą CSAM. Przy znalezieniu dopasowania, konto użytkownika zostanie oflagowane, a po zebraniu pewnej liczby flag, oflagowane fotografie zostaną przejrzane ręcznie przez pracownika Apple. Apple nie jest precyzyjne, co do tego ilu, ani tego czy flagi mają “wagi”. Jeśli pracownik stwierdzi, że oflagowane zdjęcia to faktycznie fotografie z bazy CSAM, konto użytkownika zostanie zablokowane, a jego dane przekazane amerykańskim organom ścigania.

Warto tu zaznaczyć, że “skrót obrazka” to nie to samo co skrót kryptograficzny. W przypadku Apple, każdy obrazek będzie reprezentowany przez “nieodwracalny” ciąg cyfr, dzięki czemu nie będzie się dało na podstawie przechwycenia tego ciągu odtworzyć oryginalnego “zdjęcia pedofilskiego”. Skróty obrazków biorą też pod uwagę pewne zmiany w obrazie, po to aby wychwycić np. znane zdjęcie o charakterze pedofilskim, ale zmodyfikowane. To oczywiście powoduje ryzyko tzw. fałszywych dopasowań (false positives), stąd właśnie konieczność ręcznej, manualnej analizy oflagowanych zdjęć przez człowieka

Według firmy istnieje niewielkie ryzyko, że zdjęcie nagiego dziecka wykonane przez jego rodzica np. w wannie, podczas kąpieli, zostanie oflagowane. O ile w bazie CSAM nie ma naprawdę bardzo podobnego zdjęcia…

Communication Safety to natomiast skanowanie zaszyfrowanej komunikacji (end-to-end encrypted) w iMessages, realizowane na urządzeniu dziecka i dotyczący tylko kont dzieci przypisanych do tzw. “kont rodzinnych” wyłącznie po tym jak rodzic włączy usługę “Communication Safety” dla rodziny.

Jeśli dziecko otrzyma lub będzie próbowało komuś wysłać fotografię, która wedle algorytmu zawiera nagie części ciała, to:

  • Dzieci młodsze niż 12 lat: zobaczą ostrzeżenie i będą musiały podjąć decyzję, czy wyświetlić/wysłać takie treści, czy nie. Jeśli zdecydują się na zobaczenie/wysłanie, konto rodzica otrzyma powiadomienie o tym fakcie.
  • Dzieci starsze niż 12 lat: też zobaczą ostrzeżenie, ale jeśli zdecydują się zobaczyć/wysłać takie treści, rodzice się o tym nie dowiedzą.

Ta usługa nie powoduje wysyłania zgłoszeń do organów ścigania w przypadku materiałów pedofilskich (chyba, że zostaną zapisane w albumie ze zdjęciami przez nastolatka z USA, który ma włączone synchronizowanie zdjęć do konta iCloud — bo wtedy zadziała mechanizm CSAM Detection).

Posłuchaj naszego podcastu!

Temu tematowi poświęciliśmy 40 odcinek naszego podcastu Na Podsłuchu:

Jeśli wolisz wersję audio, to znajdziesz ja na Spotify.

Ale my to projektowaliśmy z myślą o Waszej prywatności!

Tak przy każdej okazji podkreśla Apple. Ale to nie gasi burzy jaką zapowiedź wdrożenia tych mechanizmów wywołała wśród użytkowników urządzeń Apple. Podkreślmy — problem materiałów przedstawiających seksualne wykorzystywanie nieletnich, to bardzo poważny problem. Nie należy go ignorować — należy z nim walczyć. Ale sposób walki przedstawiony przez Apple budzi zastrzeżenia, ponieważ wdrożenie zmian pozwalających na walkę z treściami pedofilskimi tak naprawdę za chwilę może zostać wykorzystane do walki z innymi typami mniej kontrowersyjnych treści, które podobnie jak dziecięca pornografia też są “nielegalne” w niektórych krajach.

Apple samo nie zaprzecza, że do bazy zdjęć “zakazanych” nie da się wstrzyknąć innych typów treści niż materiały pedofilskie, co spowodowałoby wykorzystanie tego mechanizmu do wykrywania np. zdjęć broni, narkotyków czy choćby treści LGBTQ+. Apple twierdzi jedynie że będzie “odmawiać takim prośbom“. Innymi słowy, trzeba zaufać firmie, że zdania nagle nie zmieni. Problem w tym, że Apple już wiele razy nagięło się do lokalnego prawa. W Chinach czy Arabii Saudyjskiej. Pełna lista cenzury by Apple jest na Wikipedii.

Trzeba pamiętać, że Apple to firma. Ma zarabiać. A chęć zysku często wygrywa z etyką i przyzwoitością.

Google, Microsoft, Discord, Reddit robią to od dawna

No, powiedzieliśmy co myślimy o Apple. To teraz akapit rozczarowania dla wszystkich hejterów urządzeń z jabłuszkiem, którzy jednocześnie korzystają z usług takich firm jak Adobe, Discord, Reddit, Microsoft czy Google. Te firmy od dawna skanują treści umieszczane na swoich serwerach pod kątem dziecięcej pornografii i zgłaszają takie przypadki organom ścigania.

Różnica? Apple skanowanie przeprowadza na urządzeniu klienta, przed “chmurą”, no bo tak zaprojektowało swoje usługi, że treści składowane w iCloud są szyfrowane inaczej niż w przypadku ww. firm. Apple faktycznie nie ma do nich dostępu (a przynajmniej do części z nich — zobacz czego nie trzymać na iCloud, bo nie jest szyfrowane E2EE).

Mechanizmy Apple nie psują szyfrowanie end-to-end, ale jednak pozwalają na “zajrzenie” do środka szyfrowanej komunikacji.

Mam sprzęt Apple — co robić, jak żyć?

Na razie nic nie musisz robić, bo problem nie dotyczy Polaków. Jeśli jesteś Amerykaninem i nie chcesz, aby Twoje zdjęcia były skanowane, flagowane i przeglądane przez pracownika Apple, jeśli algorytm uzna, że są podobne do znanych treści pedofilskich, to wyłącz synchronizację zdjeć z iCloudem.

Jeśli uważasz, że Apple zdradziło swoje ideały, to oczywiście zacznij się rozglądać za innym smartfonem i systemem operacyjnym niż iOS. Patrząc jednak na to jak inne firmy również wykrywają podobne treści, to chyba będzie ciężko znaleźć jakiś rozsądny zamiennik.

Zobaczymy jak sprawa potoczy się w najbliższych miesiącach. Aferka jest niemała… Będziemy się jej przyglądać.

PS. Chcesz posłuchać więcej naszych przemyśleń na temat zmian wprowadzanych przez Apple? Przesłuchaj 40 odcinek naszego podcastu “Na Podsłuchu”:

Przeczytaj także:

60 komentarzy

Dodaj komentarz
  1. Wielki brat jest pod wrażeniem

    • Już widzę następne zastosowanie: system Apple automatycznie wykrywa wszystkie zeskanowane kody QR odpowiadające kryptowalutowym adresom, koreluje z publicznie dostępnymi danymi o przesłanych transakcjach i przesyła informację do odpowiedniego urzędu, żeby upewnić się, że transakcja “nie sponsoruje terroryzmu”…

  2. Rozumiem że w związku z ostatnimi działaniami firmy spod znaku nadgryzionego jabłka, nie będzie już rekomendować ich telefonów jako najbezpieczniejszych? :)

    • Nie ma czegoś takiego jak najbezpieczniejszy telefon. Taką rekomendacje trzeba osadzić w kontekście osoby i jej profilu zagrożeń. iPhony wciąż są naszym zdaniem najlepszym smartfonem dla wielu osób, zwłaszcza nie-power-userów, bo nie da się ich zainfekować tak łatwo jak słuchawki z Androidem (patrz ostatnie ataki z SMS-ami o poczcie głosowej lub regularne doniesienia o złośliwych aplikacjach w oficjalnym sklepie). Aha! I nie zapominajmy, że problem dotyczy nie tylko smartfonów Apple, ale także iPadów, zegarków i komputerów.

  3. Kochana Redakcjo! Błagam, zatrudnijcie korektora, bo od kilku-kilkuanstu miesięcy macie ewidentny problem ze “stosowaniem języka polski” ;-)

    • To i tak nic w porównaniu z Onetem :)

  4. Brawo Apple. Mechanizm jest dla mnie w pełni akceptowalny.

    • Nie tyle akceptowalny, co wręcz nielogicznie powściągliwy. Mechanizm powiadomienia rodzica PO FAKCIE wysłania przez dziecko intymnego zdjęcia jest kuriozalny. Wysyłka zdjęcia uznanego przez automat za nieodpowiednią treść powinna być całkowicie zablokowana do czasu weryfikacji przez rodzica. W innym przypadku nie wiem przed czym to ma chronić.

    • W tym konkretnym przypadku z powiadomieniem rodzica, mechanizm blokuje potencjalnie niepożądane treści które KTOŚ INNY wysyła dziecku – a nie w drugą stronę.

    • @wombat: No nie. To działa dwukierunkowo: “When a child account sends or receives sexually explicit images, the photo will be blurred and the child will be warned, presented with helpful resources and reassured it is okay if they do not want to view or send the photo. As an additional precaution, young children can also be told that, to make sure they are safe, their parents will get a message if they do view it.”

    • Chcę zrobić kontrolę rodzicielska foss p2p darmowa

  5. Apple sprzedało się tym jak Kukiz.
    Sorry, ciężko tutaj nie widzieć wielkiej polityki, oj stracą na tym. Najpierw dzieci, potem każdy za wszystko i mamy George Orwela 1984.

    • Spokojnie, już wierne owce piszą poradniki, że wystarczy wyłączyć jedną funkcję i już nie będzie skanować, pytanie czy chcą chronić normalnych czy pedo…

  6. Sprostowanie : Apple nie używa PhotoDNA, tylko swojego NeuralHash (co jest zrozumiałe bo odpala sprawdzanie lokalnie a nie w chmurze)

  7. Zważywszy, że analiza treści “w celu ochrony” pod kątem pedofilii zazwyczaj jest druga w kolei po analizie pod kątem terroryzmu, to należy się spodziewać, że od jakiegoś czasu jabłko już chroni nas jakimś sprytnym mechanizmem. Należałoby zmienić symbol z nadgryzionego na nadgniłe jabłuszko…

  8. “Ja wiedziałem że tak będzie”

    https://www.youtube.com/watch?v=WCfAAw4-WDU

  9. Jak Apple odróżnia czy konto iCloud należy do obywatela Ameryki czy nie, czy chodzi o ludzie, który go zarejestrowali w Ameryce, a może używają w Ameryce?
    Kurczę i znowu niczemu niewinni ludzi muszą kombinować, bo rządy chcą nam teraz zajrzeć już nie do sypialnie ale znacznie głębiej.

    • A po co ma odróżniać czy konto należy do Amerykanina, Meksykaninem czy Polaka?
      Będą czesać wszystkich, których których geolokalizacja i ostatnia aktywność jest na terenie USA. Ewentualnie zafundują Tobie darmową wycieczkę, rządowym helikopterem na Kubę.

  10. Dobrym zamiennikiem jest Sailfish OS. Bez zbędnych wodotrysków, ale też dający bardzo dużą prywatność.

  11. Takie pytanie, apple od dawna ma funkcję automatycznego rozpoznawania twarzy w aplikacji zdjęcia, dlaczego dla nikogo ta funkcja nie jest problemem a jest problemem skanowaniu w poszukiwaniu dziecięcej pornografii?

    • Dlatego, że te mechanizmy działają zupełnie inaczej.

    • Ale appka Zdjęcia nie zgłasza automatycznie do CIA wszystkich Twoich zdjęć z kimś, kto wydaje się algorytmom, na podobnego do Bin Ladena czy innej niechcianej osoby, a agencja by default wysyła Predatora?

  12. Już widzę te wypłaty odszkodowań dla pracowników co będą to przeglądać. Nic się nie nauczyli od Youtube gdzie ludzie oglądający brutalne filmy zgłaszane do weryfikacji doprowadziły do stresu pourazowego wiele osób.

  13. “Te firmy od dawna skanują treści umieszczane na swoich serwerach pod kątem…” – Tylko “umieszczane” na serwerach? Czy MS przypadkiem podczas skanowania Defenderem komputera nie wychwytuje takich “zabronionych” plików?

  14. I bardzo dobrze. Trzeba chronić ludzi przed nimi samymi. Jeżeli ktoś uważa inaczej, powinien wrócić do nokii 3310.

    • Nokia 3310 może wyrządzić krzywdę, również jej użytkownikowi; np. gdy dodanie na duży palec stopy ;)

  15. Taa najpierw obiecywali że to co się dzieje na moim iPhone pozostanie na moim iPhone jak się okazuje kłamali, teraz obiecują że nie będą tego wykorzystywać w innych celach niż ściganie pedofili i mam im zaufać? Lekko strzał w kolano sobie robią, ja wyłączam iCloud zdjęcia na wszelki wypadek już dziś.

    • Nie kłamali. Musisz mieć włączoną synchronizację z iCloud żeby to skanowanie działało, a co jest w iCloud, jest na serwerach Apple, a nie tylko na Twoim telefonie.

  16. Hehehe mam konto iTunes amerykańskie, bo przecież jak miałem pierwszego iPhone’a to nie można było założyć polskiego. Na dodatek na polskim koncie po zakupie nowego urządzenia dostaje się 7 dni appletv+, na jakimkolwiek innym (testowałem na niemieckim i amerykańskim) dostaje się rok. Do tego te kłamstwa o 3 miesiącach gratis do appletv+ i te zapychanie aktualnie pojemności icloud zdjęciami z wiadomości (nigdy nie wchodziły do limitu, teraz mam 100% zajętości icloud, kasuje 3GB zdjeć z wiadomości a tu nadal 100% zajętości bo limit wypełniają teraz starsze zdjęcia, których przed chwilą nie było a teraz już są tylko po to by limit zapchać i napędzić klientów na 50GB icloud). Ech apple znowu potrzebuje Steva jako prezesa a nie tęczowego misia z marketingu.

    • Co do darmowego okresu Apple TV – w PL normalnie dawali rok, co więcej po pierwszym roku dali mi jeszcze pół na zachęte (w pierwszym obejrzałem tylko jeden film, może to dlatego :D) więc chyba nie do końca dobrze mówisz, dodatkowo nigdy nie widziałem żeby zdjęcia z wiadomości szły do iCloud, może kwestia odpowiednich ustawień co synchronizować? Ja synchronizuję tylko zdjęcia i kontakty, bo 64GB na telefonie to za mało gdy mam zdjęcia z ostatnich 6-7 lat, a pakiet 50GB kosztuje szałowe 4zł miesięcznie :P

      A jeszcze co do Apple TV, ostatnio coś widziałem że już mają przestać oferować darmowy rok za zakup sprzętu, ale nie wiem czy już przestali, czy dopiero przestaną, na pewno jeszcze kilka miesięcy temu normalnie dawali.

  17. Nie ma co się martwić na zapas. Zanim to wejdzie do Polski podobny mechanizm będzie już w Androidzie, Windowsie 11 i nawet najpopularniejszych dystrybucjach Linuksa.

    To idealne narzędzie do wyłapywanie uderzających w rządy memiarzy, osób nagrywających interwencje policji, polityków bez maseczek, itd. Zostanie standardowo grapheneos i nic więcej.

    • Są już aparaty fotograficzne (nie-telefony) z szyfrowaniem pamięci wewnętrznej i kart pamięci. Bardzo dobre do nagrywania interwencji policji, ale mało kto nosi aparat ze sobą.

    • Jeżeli coś takiego wejdzie do którejś dystrybucji to jestem pewien że szybko umrze. Linux będąc systemem otwartym, bazującym na tym że jest twój i nikogo innego, przez co zachowuje w jak największym stopniu prywatność użytkownika, nie ma szans na wprowadzenie takiej funkcji, a jak wejdzie to najprawdopodobniej utworzony zostanie fork kernela jeżeli mówimy ogólnie o Linuxie, albo, jak wcześniej pisałem, użytkownicy będą migrować na inne dystrybucję. Rozumiem że Apple chce wprowadzić coś co ma chronić dzieci itd. ale na dłuższą metę taki system może być wykorzystany w innych celach niż skanowanie treści o tematyce pedofilskiej. A w innych przypadkach zamknięto źródłowych najprawdopodobniej i tak dodadzą co im się spodoba

    • Red Star dawno padł wersja open source only Linuxie pujdzie albo użyj talisa – nawet jak prześlę nie znajdą cie

    • Tali’s np

  18. A w jaki sposób ma odbywać się ręczne sprawdzanie konta, skoro wszystko co wyślemy na iCloud jest zaszyfrowane? Apple poprosi nas o klucz?

    • Ty nadal wierzysz, że ten klucz jest nikomu nie znany i zapisany tylko w Twoim urządzeniu?
      :)

    • To nie chodzi o kwestie wiary, tylko o to co jest oficjalnie podane przez Apple. Ja po prostu bez domysłów chciałbym wiedzieć oficjalnie czy Apple ma dostęp do tych kluczy czy nie.

  19. To bardzo dobre rozwiązanie. Wreszcie coś się robi w kwestii pedofilii. Z czasem może ulepszą.

    • Wystarczyłby przełącznik w ustawieniach – „jestem duchownym rzymsko-katolickim” :P

  20. Mogli by tez przy okazji poszukac terrorystow… albo przynajmniej powiedziec ze beda ich szukac zeby nie bylo siary jak wsrod otagowanych zdjec znajdzie sie przypadkiem 50 letni opozycyjny dziennikarz :)

    • Fair phone new ROM is coming sooon

  21. Zdjęcia w iCloud są zszyfrowane “in transit” i “on server”, ale nie są wymienione jako end-to-end encrypted: https://support.apple.com/en-us/HT202303. To, że zdjęcia są przechowowane w zaszyforwanej formie oznacza, że sam dysk wyciągnięty z serwerowni nic nikomu nie da, ale skoro zdjęcia nie są oznaczone w dokumentacji jako end-to-end encrypted to zakładam, że samo Apple ma klucze deszyfrujące. Na początku pomyślałem, że w skanowaniu CSAM chodzi również o zdjęcia przechowywane wyłącznie lokalnie na telefonie. I teraz zaczyna się część której nie rozumiem – skoro okazuje sie, że skanowanie CSAM będzie działać tylko dla zdjęć wrzuconych do iCloud, to o co kaman -> przecież Apple już miało możliwość przeglądania tych zdjęć od zawsze, right? Gdzie popełniam błąd?

  22. W końcu Apple pokazało swą prawdziwą twarz, a w zasadzie wredną mordę. Po mistrzowsku wykorzystując case 9/11, by ludzie przehandlowali swoją prywatności w imię tzw. „wyższego dobra”. Swoją drogą ciekawe co na takie akcje amerykańska konstytucja?

    Kiedyś by przeprowadzić taką akcje, tj. przeszukać bibliotekę zdjęć konieczny byłby nakaz prokurator czy też choćby jakieś „uzasadnione podejrzenie” poparte mniej lub bardziej wiarygodnymi dowodoposzlakami.
    Teraz każdy użytkownik zostaje potraktowany tak, jakby by default ciążyło na nim podejrzenie o dokonywanie czynów lubieżnych w stosunku do nieletnich. Super.
    I wystarcza tu akceptacja licencji.

    Potem znajdzie się jakiś kolejny „ważny” powód, by skanować fotki, dokumenty, nagrania i cokolwiek tam jeszcze się da. Tak, że każdy niepożądany przez Iluminatów przejaw aktywności będzie automatycznie zgłaszany i karany blokadą konta, a co za tym idzie blokadą dostępu do wszystkiego. Poczynając od sprzętu, przez zgromadzone na nim dane, a niektórzy nie wyjdą lub nie wejdą do domu (Apple Home im drzwi nie otworzy, wyłączy prąd i zamknie lodowkę), nie zrobią zakupów (Apple Pay zablokuje im transakcje) itd.
    Automatycznie, bo w pewnym momencie ilość gromadzonych danych i zgłaszanych potencjalnych „zagrożeń dla społeczeństwa” będzie tak duża, będzie tego weryfikował żaden człowiek. I nadejdzie Dzień Sądu. Kilka tygodni dłużej przeżyją tylko prepersi z zapasami wody i żywności, posługujący się starymi Nokiami 6110 i CB radiem.

    Swoją droga teraz Apple może w każdej chwili uzyskać dostęp do każdego wyprodukowanego przez siebie sprzętu. By się o tym przekonać wystarczy zrobić jakiekolwiek zgłoszenie problemu na apple.dom/support. Niby zdalny dostęp i przejęcie kontroli wymaga wciąż zgody użytkownika. Ale czy napewno? A może po prostu nie korzystają z tego na szerszą skalę. A mając zdalny dostęp do urządzenia, z poziomem uprawnień wyższym niż jego właściciel można duuuuuuużo. Do tego wystarczy dodać możliwość zdalnego „zachęcenia” użytkownika do kontaktu z serwisem i drzwi otwarte. Choćby stary myk, z ograniczeniem wydajności urządzenia czy programową „usterką” wyświetlacza.

    • “Kilka tygodni dłużej przeżyją tylko prepersi z zapasami wody i żywności, posługujący się starymi Nokiami 6110 i CB radiem.”
      Jeszcze dłużej ci, którzy dodatkowo potrafią obsługiwać konia i pług, i mają jakie takie pojęcie o uprawie roli. :-)

    • Mam zapałki w mieszkaniu no o nożyce do kabli HahA

    • I cynfoliowa czapeczka, zapomniałeś o czapeczce!

    • Nic ci nie da ani Nokia 6110 (2G i 3G będą już dawno wyłączone, żebyś musiał używać tylko nowych telefonów z całkowitym śledzeniem), ani CB radio – prędzej czy później rządy rozprawią się z prywatną radiokomunikacją i pokonfiskują urządzenia CB czy krótkofalarskie.

  23. Jeżeli ktoś zastanawia się nad prawnymi powodami takiej decyzji to polecam przeczytać ten wpis na wiki https://en.wikipedia.org/wiki/Section_230. O ten przepis toczy się w USA permanentna dyskusja. Odpowiedzialność w USA hostingodawcy jest o wiele bardziej rygorystyczna niż w UE (zob. art. 14 dyrektywy 2000/31 i art. 14 polskiego Uśude. Co więcej, w planowanych regulacjach UE wprowadza się wyłączenie odpowiedzialności podmiotów aktywnie filtrujących treści bezprawne z własnej inicjatywy.

  24. Swoja droga jesli chca sie zaslaniac walka z pedofilia to niech przynajmniej zadbaja o sensowne kary – bo infiltracja milionow obywateli tylko po to zeby kogos przeniesc do innej parafii to ewidentnie pokazuje ze pedofilia to tylko pretekst. Jakos nigdzie nie slyszalem o lobbowaniu za zaostrzeniem kar (oficjalnych) czy przenoszeniu tych nielicznych do generalnej populacji wiezniow z tych hoteli co maja obecnie.

    Do czego obawiam sie to sprowadza to do zaboru kreatywnosci (ten sam pomysl co cloud zreszta) – chciwe korporacje (klasyczny krwiopijczy kapitalizm) patrza tylko zeby “wyciumkac” co sie da z pracownikow i klientow a to zabija ich kreatywnosc, wiec powoli sie szykuja do tego zeby krasc pomysly i prace innych.

  25. Jedno słowo: pinephone

  26. A wie kto co to Jailbreak to może pomóc :( Mać, kabel tyle potrzeba a pedofil umie wyłączać synchronizację tak czy siak nawet bez Jailbreak.

  27. Tak swoja droga, interakcja “kreatywna” dzieciakow z swiatem zewnetrznym powinna byc generalnie ograniczona do ich grypu kolezensko-rowiesniczej i regularnie czyszczona po potwierdzeniu ze nie mialo miejsca nic nielegalnego (przesladowanie, molestowanie etc.).

    Bo z jakiej racji nastoletni konkurs wymiotowania na odleglosc “sponsorowany przez ipecac”, jakiegos przyszlego ministra spraw zagranicznych miala by byc dostepna w domenie publicznej? Dzieciaki robia rozne glupoty (niekoniecznie nielegalne czy niemoralne) i nie widze dlaczego ktokolwiek mialby miec prawo wykorzystywac to pozniej przeciwko nim, tylko dlatego ze moze a jemu samemu tego oszczedzono…

    • A swoja droga… zauwazylem ze mocno naduzywam tego idiomu :p

      Winie skrzywienia zawodowe ( if…else , itp. ) ;)

  28. To samo tyczy sie juz wszystkich urzadzen jak i operatorow i dostawcow uslug google robi to samo od dawna. Zreszta tak bylo od poczatku tylko teraz jest to jawnie przekazywane. Kto wie co robic to zadna metodyka inwigilacji nie jest mu grozna. Poza tym nikt kto chce sie ukryc nie bedzie korzystal z cywilnych urzadzen albo wogole nie bedzie z nich korzystal.

  29. Więc już wiadomo, dlaczego wcześniej rozdmuchano spór z Facebookiem i Apple był “czempionem prywatności”.
    A w praktyce, w myśl Goebbelsowskiej zasady “zagroźcie ich dzieciom a zgodzą się na wszystko”, to po prostu albo wigiliantyzm firmy Apple, albo (co bardziej prawdopodobne) testowanie rozwiązania którego nie obejmują przepisy rządowe. Wymóg iClouda to listek figowy (jak z domestic surveillance) aby uzasadnić skanowanie na urządzeniu – gdzie za wigiliantyzm płaci prądem i czasem sam właściciel.

  30. Jedyne co pozostaje to smartfon z LineageOS i własne lokalne backupy aby Wielki Brat miał trudniej

Odpowiadasz na komentarz Bartłomiej

Kliknij tu, aby anulować

Zamieszczając komentarz akceptujesz regulamin dodawania komentarzy. Przez moderację nie przejdą: wycieczki osobiste, komentarze nie na temat, wulgaryzmy.

RSS dla komentarzy: