11:18
7/9/2023

W czerwcu Parlament Europejski przegłosował regulacje związane ze sztuczną inteligencją, tzw. AI Act. Wiele osób zastanawia się teraz, czy dokument ten realnie chroni nas przed zagrożeniami AI? Czy jego twórcy pominęli istotne kwestie w zakresie m.in. cyberbezpieczeństwa, które szybko odczuje także rynek tradycyjnego biznesu?

Najważniejszą częścią AI Act są kategorie ryzyka związane ze stosowaniem sztucznej inteligencji – minimalne, ograniczone, wysokie oraz niedopuszczalne. Szczególne znaczenie dla rozwoju systemów AI mają dwie ostatnie. Kategoria „wysokiego ryzyka” dotyczy sytuacji, w której sztuczna inteligencja może mieć negatywny wpływ na bezpieczeństwo osób i państw (w tym bezpieczeństwo militarne) oraz prawa człowieka i jego wolności.

– Systemy wysokiego ryzyka mogą mieć krytyczny wpływ między innymi na ludzkie życie i zdrowie. Chodzi o modele do tworzenia recept czy dobierania lekarstw. Konsekwencje tego typu aktywności AI mogą być poważne. Dlatego tego rodzaju systemy z kategorii wysokiego ryzyka mają znaleźć się pod szczególną zewnętrzną kontrolą – mówi Maksymilian Arciemowicz, ekspert ds. cyberbezpieczeństwa oraz biznesowego wykorzystania sztucznej inteligencji w Capgemini Polska.

Niedopuszczalne ryzyko – zakaz w Unii Europejskiej

Z punktu widzenia bezpieczeństwa najważniejsza w AI Act jest kategoria „niedopuszczalne ryzyko”. Systemy AI przyporządkowane do tej kategorii mają być całkowicie zakazane w Unii Europejskiej. Chodzi o wyjątkowo wrażliwe dane, które mogą być wykorzystane do nadużyć w sferze bezpieczeństwa i praw obywateli. Twórcy AI Act uznali, że poznawczo-behawioralne manipulowanie ludźmi, scoring (klasyfikowanie ludzi na podstawie ich zachowań, statusu społeczno-ekonomicznego lub cech osobistych), a także skanowanie twarzy w czasie rzeczywistym, są niedopuszczalną aktywnością sztucznej inteligencji. W tym ostatnim przypadku unijni urzędnicy zapowiadają pewne odstępstwa, związane głównie ze ściganiem przestępstw.

– Skanowanie twarzy jest złożonym problemem. Jeśli chodzi o ochronę prywatności to sprawa jest oczywista. Ale musimy jeszcze uwzględnić sferę bezpieczeństwa związaną z terroryzmem i walką z nim. Poza tym, dzisiaj nie tylko twarz czy tęczówka oka są zabezpieczeniem prywatności. Również chód, a nawet budowa ucha jest rozważana przez ekspertów od bezpieczeństwa jako czynnik biometryczny – komentuje Maksymilian Arciemowicz

Czego najbardziej obawiają się eksperci i ekspertki ds. bezpieczeństwa?

Najważniejszym zagadnieniem, na które zwracają uwagę osoby specjalizujące się w cyberbezpieczeństwie to sposób przetwarzania danych, które dostarczamy systemom sztucznej inteligencji. Podczas wykorzystywania narzędzi AI często wprowadzamy informacje, które są bardzo indywidualne – dotyczą naszego zawodu, biznesu, rodziny, stylu życia. Z jednej strony są naszym wkładem w rozwój tej technologii, a z drugiej strony dostarczają dane, które można wykorzystać w przeciwko nam. Osoby pracujące ze sztuczną inteligencją uważają, że AI Act nie bierze pod uwagę takiego zagrożenia naszego bezpieczeństwa.

– Konieczność szybkiego przetłumaczenia umowy z kontrahentem lub innych dokumentów firmowych zmusi nas kiedyś do skorzystania z narzędzia AI. Wszystkie dane zawarte w tych dokumentach nagle znajdą się na nieznanych nam serwerach. To prosta droga do skopiowania modelu biznesowego. Tego nie reguluje jeszcze ustawa, co sprawi, że wielu inwestorów ma ograniczone zaufanie do AI – wyjaśnia Maksymilian Arciemowicz – W Capgemini mamy bardzo jasny przekaz, jeśli chodzi o AI: obowiązuje nas transparentność. Jeżeli pracujesz jako deweloper czy deweloperka, to decyzji o tym, czy korzystać ze sztucznej inteligencji, czy nie, nie możesz podjąć samodzielnie. Na to musi zgodzić się klient. Nikt z nas nie wie, gdzie znajdą się dane, które wprowadzamy – dodaje.

To będzie rewolucja w cyberbezpieczeństwie

AI Act nie przewidziało rewolucji w cyberbezpieczeństwie, którą niesie ze sobą sztuczna inteligencja. Ta rewolucja jest dopiero przed nami i będzie miała potężny wpływ na całą branżę, także z obszaru przestępczego. Przykładem może być początkujący cyberprzestępca, który posiada już jakąś wiedzę, jak i gdzie się włamać. Jednak wiedza ta jest niewystarczająca. Prosi zatem ChatGPT o fragment brakującego kodu i w kilka sekund go dostaje. Dla młodego cyberprzestępcy napisanie narzędzia do tzw. backdoorów w różnych językach programowania nie będzie już problemem.

– O wiele łatwiej jest dzisiaj być także spamerem. AI pozwala na stworzenie 50 tysięcy e-maili w różnych wersjach, z różnymi słowami kluczowymi, które przejdą niezauważone przez filtry antyspamowe. Dzięki sztucznej inteligencji i informacjom, które ma na nasz temat, można dostosować atak phishingowy pod konkretną osobę. Pewną nadzieję przynosi fakt, że AI wykorzystywana jest także w systemach antyspamowych – zauważa Jakub Orlik z Niebezpiecznik.pl.

Czy narzędzia sztucznej inteligencji można oszukać?

Mimo ograniczeń i zabezpieczeń, które wprowadzają twórcy narzędzi AI, zdobycie niebezpiecznej wiedzy nie jest zbyt trudne. Zwykle jest to kwestia odpowiedniego kontekstu, w którym osadzimy nasze zapytanie.

– Klasycznym przykładem jest pytanie, jak zbudować bombę? Wzbudza to oczywiste wątpliwości etyczne i dlatego dostaniemy informację zwrotną, że AI nie może pomóc w tej sprawie. Sytuacja zmieni się, gdy wejdziemy w interakcję, stworzymy odpowiedni kontekst i wytłumaczymy sztucznej inteligencji, że piszemy książkę lub pracę naukową i taka wiedza jest nam potrzebna. Wtedy informację o budowie bomby możemy uzyskać. W ten sam sposób można zdobyć exploity, które będą miały za zadanie atakować użytkowników i powodować szkody. – tłumaczy Grzegorz Borowiec, konsultant ds. Bezpieczeństwa w Capgemini Polska.

Podobnie zachowają się narzędzia AI, gdy zapytamy o źródła nielegalnych wersji filmów. Pierwsza odpowiedź będzie oczywista – piractwo jest przestępstwem, itd. System „podda się”, gdy w naszym pytaniu pojawi się obawa przed piractwem. Jakich stron unikać, aby nie być piratem? To zdanie doprowadzi nas do listy serwisów z nielegalnymi materiałami.

Powyższe sytuacje niosą za sobą pewne zagrożenia, eksperci zastanawiają się więc, czy jest możliwe zbudowanie nieoszukiwalnego modelu AI? Ich zdaniem im bardziej model będzie jak człowiek, tym bardziej będzie podatny jak człowiek na próby manipulacji. Tego nie da się zatrzymać. Trzeba będzie z tym walczyć.

Zagrożenie bezpieczeństwa – ryzyko inwestorów

Eksperci i ekspertki zauważają także inny problem, który wynika z rozwoju AI. Systemy wysokiego ryzyka muszą zapewnić odpowiednią ochronę od strony technicznej i prawnej, co podniesie koszty działalności. Konsekwencją może stać się osłabienie zaangażowania finansowego inwestorów w ten sektor technologii. Problemem dla inwestujących będzie też samo prawo. Chodzi o brak pewności, jaki będzie jego kształt za rok lub dwa.

Więcej na temat AI Act i zagrożeń dotyczących sztucznej inteligencji znajdziecie w tym odcinku podcastu Capgemini TechChatter.

Niniejszy artykuł został przygotowany przez Capgemini i za jego publikację otrzymaliśmy wynagrodzenie.

Przeczytaj także:

10 komentarzy

Dodaj komentarz
  1. Moim zdaniem AI będzie przede wszystkim użyte do:
    1) wyszukiwania furtek w prawie, i to w takim tempie że prawo nie nadąży
    2) gry na giełdzie w tempie całkowicie eliminującym ludzi z tej zabawy (już Dukaj o tym pisał)
    3) wywalenia 99% całej kadry zarządzającej gdy tylko inwestorzy się zorientują, że AI podejmuje co najmniej tak samo dobre decyzje i kosztuje ułamek tego co człowiek

    Przykład z AI podpowiadającym kod hakerowi to jest dziecinada.

    • 2) Gdy wszyscy przejdą na AI, to gra na giełdzie zacznie przypominać ruletkę. Już istniejące boty giełdowe często podejmowały skrajnie idiotyczne decyzje w brzegowych przypadkach, a AI przeciwko AI będzie skutkowało fluktuacjami cen ograniczonymi tylko limitami giełdy.

      3) Statystycznie i “średnio” będzie podejmować tak samo dobre decyzje, ale sytuacje brzegowe będą znacznie bardziej rozstrzelone, bo statystycznie jeśli na 10 firm 5 straci, a 5 zyska dużo, to będzie to tak samo, jak 5 zyska mało, a 5 zyska średnio. Albo stwierdzi, że 50.5 człowieka to idealna wielkość zatrudnienia i będzie co miesiąc zatrudniać, a następnie zwalniać i tak w kółko. To nie jest inteligencja, a statystyka oparta o big-data.

    • Nowe wersje modelu GPT to nie jest zadna czysta statystyka oparta na podstawie wprowadzonych danych. Ba, juz znacznie wczesniej np. algorytmy szachowe tak nie dzialaly – ruch na planszy nie jest wynikiem przeliczenia 150 tysiecy wariantow ruchow do przodu. BlueMind i gra GO ze slynnym ruchem magic move, w trzydziestym ktoryms posunieciu, ktorego nikt nigdy nie stosowal bo to prosta droga do przegranej. AI zrobila ten ruch, wygrala i teraz wszyscy siedza i analizuja, jak bylo mozliwe wygranie bo lamalo to tysiacletnie kanony tej gry. Przyklady, ze nie jest to czyste manipulowanie i wyciaganie wnioskow na podstawie tylko big-data mozna mnozyc

  2. Ten artykuł napisała genAI? Ten Maksymilian nie istnieje, nie ma takiego pracownika na LinkedIn.

    • I co w zwiazku z tym? Mnie tez tam nie ma, a istnieję.

    • A to jakaś nowa “świecka tradycja” że każdy musi mieć konto na LinkedIn ? Wg. tej tradycji ja tez nie istnieję, i nigdy nie pracowałem w firmie, w której pracuję….

    • @Jan

      Na szczęście posiadanie konta na LinkedIn i zasilanie swoimi danymi ich algorytmów nie jest obowiązkowe, co więcej, wbrew popularnemu mitowi, i da się bez niego znaleźć pracę, i z nim nie zawsze.
      Dla mnie w ogóle dość słabe jest afiszowanie się na linkedinie z tym że jest się gostkiem od cybersecurity. To plus nazwa firmy stwarza pole do bardzo ciekawych scenariuszy.
      Chyba że jest się dziennikarzem, albo innym popularyzatorem, rzecznikiem prasowym, nie wiem. W przypadku człowieka robiącego zabezpieczenia, czy to fizyczne czy cyfrowe, im mniej o nim publicznie wiadomo tym lepiej.

  3. Przyklad z oszukiwaniem modelu GPT z zastosowaniem kontekstu nie dziala juz w taki prymitywny sposob, jaki jest podany w przykladzie.

  4. AI (czytaj firmy) kradna na beszczelnego prace innych pod pozorem uczenia sie – i nic sie z tym nie robi. Gdybym ja poszedl do kina i uczyl moja kamere wyladowal bym w pierdlu.

    Podsumowujac: to nie jest tak ze prawo nas “nie chroni przed AI”, prawo “stoi na czatach gdy AI przetrzasa nam mieszkanie, chetnie spuszczajac lomot probujacym sie przed kradzierza bronic bo skoro kradziesz nie jest kradzierza, to obrona wlasnosci staje sie atakiem”.

  5. Prosiłbym autora artykułu, by nie ulegać zgubnym, ostatnio modnym, lecz zbędnym i niepoprawnym trendom feminizowania podmiotów w zdaniu.
    Mianowicie: jeden z akapitów artykułu został zatytułowany: “Czego najbardziej obawiają się eksperci i ekspertki ds. bezpieczeństwa?” – co to są “ekspertki?”. Na litość boską! Liczbą mnogą rzeczownika “ekspert” są “eksperci” (zawierający w tej grupie zarówno mężczyzn, kobiet, binarnych i niebinarnych płciowo). Nie ma potrzeby wyodrębniania i tworzenia rodzajnika “ekspertki”. To nie forum wojujących lesbijek-feministek, a portal techniczny.
    Inaczej – w ostatnim akapicie tego artykułu, drogi autorze, pominięto “Inwestorki” – a to już rażąca ignorancja!

Twój komentarz

Zamieszczając komentarz akceptujesz regulamin dodawania komentarzy. Przez moderację nie przejdą: wycieczki osobiste, komentarze nie na temat, wulgaryzmy.

RSS dla komentarzy: