21:39
20/9/2017

Bardzo ciekawy artykuł na temat oszukiwania systemów AI, które “rozpoznają” obiekty. Wystarczy nałożenie niezauważalnego dla ludzkiego oka filtra, aby maszyny rozpoznawały zupełnie inne obiekty od faktycznie widocznych. Tu przykład:

Złośliwe zastosowanie? Ogłupianie algorytmów wbudowanych w samochody, które zamiast znaku STOP zobaczą znak “masz pierwszeństwo” i nie zatrzymają się na skrzyżowaniu.

Przeczytaj także:

Ten wpis pochodzi z naszego linkbloga *ptr, dlatego nie widać go na głównej.
*ptr możesz czytać przez RSS albo przez sidebar po prawej stronie serwisu.
 

3 komentarzy

Dodaj komentarz
  1. Podrzucam pomysł dla rosyjskiego lub chińskiego wywiadu. Poczekać parę lat aż się autonomiczne auta upowszechnią, i zamiast atakować wzór znaku drogowego, który będzie już mocno bronionym celem, nauczyć autka że flaga USA oznacza STOP.
    Wytargetowany geograficznie, solidny atak nie powodujący w zasadzie bezpośrednich ofiar w ludziach, za to blokujący infrastrukturę. Podejrzewam że karetki i służby, jako że muszą jechać ‘ofensywnie’ to nie będą miały cyfrowego kierowcy, więc ich ten atak nie sięgnie.

    • SZACUN!
      Zgłosiłbym Cię na kandydata do pokojowej nagrody Nobla za najlepszy, największy atak, który nie zabija. I przy okazji pokazuje wyższość ludzi nad maszynami, żeby co niektórzy, np. w eurokołchozie, nie chcieli zmuszać do przejścia na wyłącznie autonomiczne auta.

  2. Pisaliśmy również o tym zagadnieniu w kontekście WAF i ML/AI https://blog.greywizard.com/2017/02/uczenie-maszynowe-w-srodowisku.html

Twój komentarz

Zamieszczając komentarz akceptujesz regulamin dodawania komentarzy. Przez moderację nie przejdą: wycieczki osobiste, komentarze nie na temat, wulgaryzmy.

RSS dla komentarzy: