21:39
20/9/2017

Bardzo ciekawy artykuł na temat oszukiwania systemów AI, które “rozpoznają” obiekty. Wystarczy nałożenie niezauważalnego dla ludzkiego oka filtra, aby maszyny rozpoznawały zupełnie inne obiekty od faktycznie widocznych. Tu przykład:

Złośliwe zastosowanie? Ogłupianie algorytmów wbudowanych w samochody, które zamiast znaku STOP zobaczą znak “masz pierwszeństwo” i nie zatrzymają się na skrzyżowaniu.

Przeczytaj także:

Ten wpis pochodzi z naszego linkbloga *ptr, dlatego nie widać go na głównej.
*ptr możesz czytać przez RSS albo przez sidebar po prawej stronie serwisu.

Dowiedz się, jak zabezpieczyć swoje dane i pieniądze przed cyberprzestępcami. Wpadnij na nasz kultowy ~3 godzinny wykład pt. "Jak nie dać się zhackować?" i poznaj kilkadziesiąt praktycznych i przede wszystkim prostych do zastosowania porad, które skutecznie podniosą Twoje bezpieczeństwo i pomogą ochronić przed atakami Twoich najbliższych. Uczestnicy tego wykładu oceniają go na: 9,34/10!

Na ten wykład powinien przyjść każdy, kto korzysta z internetu na smartfonie lub komputerze, prywatnie albo służbowo. Wykład prowadzimy prostym językiem, wiec zrozumie go każdy, także osoby spoza branży IT. Dlatego na wykład możesz spokojnie przyjść ze swoimi rodzicami lub mniej technicznymih znajomych. W najbliższych tygodniach będziemy w poniższych miastach:

Zobacz pełen opis wykładu klikając tutaj lub kup bilet na wykład klikając tu.

3 komentarzy

Dodaj komentarz
  1. Podrzucam pomysł dla rosyjskiego lub chińskiego wywiadu. Poczekać parę lat aż się autonomiczne auta upowszechnią, i zamiast atakować wzór znaku drogowego, który będzie już mocno bronionym celem, nauczyć autka że flaga USA oznacza STOP.
    Wytargetowany geograficznie, solidny atak nie powodujący w zasadzie bezpośrednich ofiar w ludziach, za to blokujący infrastrukturę. Podejrzewam że karetki i służby, jako że muszą jechać ‘ofensywnie’ to nie będą miały cyfrowego kierowcy, więc ich ten atak nie sięgnie.

    • SZACUN!
      Zgłosiłbym Cię na kandydata do pokojowej nagrody Nobla za najlepszy, największy atak, który nie zabija. I przy okazji pokazuje wyższość ludzi nad maszynami, żeby co niektórzy, np. w eurokołchozie, nie chcieli zmuszać do przejścia na wyłącznie autonomiczne auta.

  2. Pisaliśmy również o tym zagadnieniu w kontekście WAF i ML/AI https://blog.greywizard.com/2017/02/uczenie-maszynowe-w-srodowisku.html

Twój komentarz

Zamieszczając komentarz akceptujesz regulamin dodawania komentarzy. Przez moderację nie przejdą: wycieczki osobiste, komentarze nie na temat, wulgaryzmy.

RSS dla komentarzy: