18:39
3/7/2014

Pojawiły się nowe informacje w sprawie niedawno ujawnionego eksperymentu, jaki Facebook przeprowadził w 2012 roku na grupie 700 000 losowo wybranych użytkowników. Okazuje się, że jeden z autorów eksperymentu ma powiązania z amerykańskim departamentem bezpieczeństwa (odpowiednik polskiego MON), od którego pozyskał fundusze na przeprowadzenie podobnych badań.

Na czym polegał eksperyment?

Przez tydzień badacze z Facebooka i dwóch amerykańskich uniwersytetów wpływali na to, co w swoich newsfeedach zobaczą użytkownicy z grupy testowej. Niektórym pokazywali tylko posty o pozytywnym wydźwięku (np. wesołe kotki), a innym negatywne (np. wesoły chłopczyk podpala kotka).

Eksperyment, którego wyniki w szczegółach opisano w tej publikacji, miał na celu sprawdzić, czy da się manipulować stanem emocjonalnym użytkownika Facebooka. Okazało się, że tak — ogólny nastrój postów znajomych udzielał się bowiem obiektowi badań. Jeśli został zakwalifikowany do negatywnej grupy eksperymentu i widział posty o negatywnym zabarwieniu, sam dodawał treści o tym wydźwięku.

Uczestnicy eksperymentu nie byli o nim powiadomieni. Udział brały jednakże tylko osoby, które korzystały z Facebooka w języku angielskim. Badacze twierdzą, że nie widzieli poszczególnych postów uczestników eksperymentu, a całością sterowali przez oprogramowanie, które po prostu badało liczbę pozytywnie i negatywnie nacechowanych słów.

Kiedy sprawa wyszła na jaw, Facebook przeprosił, obszernie tłumacząc powody przeprowadzenia takich badań. Ale przy okazji ktoś zauważył, że jeden z badaczy Jeffrey T. Hancock, pracownik Cornell University otrzymał grant naukowy z Pentagonu na bardzo podobny eksperyment (o nazwie: “Modeling Discourse and Social Dynamics in Authoritarian Regimes:). I tu zaczynają się pojawiać teorie spiskowe, dotyczące starego jak świat tematu — czy rząd próbuje manipulować społeczeństwem przez media?

Tin Foil Hat

Tin Foil Hat może być jedynym ratunkiem… ;)

Manipulacja ludźmi jest możliwa (sami po części z tego żyjemy ;). Jeśli chcielibyście poczytać materiały na temat wzbudzania u kogoś konkretnych zachować, polecamy nasze artykuły z działu psychologia oraz socjotechnika (zwłaszcza ten)

Przeczytaj także:

21 komentarzy

Dodaj komentarz
  1. A to jest ciekawy komentarz do samych pozytywnych statusów na twarzoksiążce: https://www.youtube.com/watch?v=QxVZYiJKl1Y

  2. Dla osób czytających niebezpiecznika do pozytywnego:
    ” Gdzieś na świecie, pewien oficer z VoIP-owej komórki NSA zapłakał smutno.”

    Ogólnie wygląda to na kolejny powód dla wielu osób do nie korzystania z mediów społecznościowych. Nie oglądania tv, oraz nie wierzenia we wszystko co przeczytają w internecie ^ ^

    Ps: Ciekawi mnie czy podczas tego eksperymentu mogli fałszować co nie które wiadomości ze świata i dzięki temu tworzyć pewne odzewy wśród społeczeństwa bardziej buntującego się i protestującego ^ ^

    • Najpierw uwaga do badań — nie będę czytał metodologii, ale nie wykluczam, że manipulacja nie tyle wpływała na nastrój manipulowanych (bo trudno to zbadać na odległość), co bardziej mechanicznie powodowała rozsyłanie wiadomości odpowiadających ich ogólnej tonacji (gdy wiemy, że ktoś kogoś nie lubi [albo przeciwnie — podziwia], to łatwiej nam przekazywać informacje podtrzymujące daną opinię, bez względu na to, co sami o kimś myślimy).

      Natomiast poważniejszy efekt tych badań (stąd Pentagon), to możliwość sztucznego generowania podburzenia rewolucyjnego u naszych (tzn. nie naszych, bo u nas „…, … i kamieni kupa”) wrogów, np. w Iranie, Syrii, Rosji, Ukrainie, itd.

      Jak nie zadziała metoda manipulacji, pozostaje jeszcze metoda odcięcia od informacji — władcy Internetu wciąż ostrzą swoje narzędzia…

    • Przy okazji jest to kolejny kamyczek do antydemokratyczności przeprowadzania wyborów przez Internet — nie dość, że zidentyfikowanych przeciwników można odciąć od głosowania precyzyjnym DDoS-em (a większe obszary w wersji „na rympał” po prostu pozbawić prądu), wahających się zastraszyć plotkami o nieskuteczności utajniania sposobu głosowania, to jeszcze w ww. opisany sposób można do ostatniej chwili manipulować opinią publiczną.

      A po wyborach i tak wszystkie dowody znikną i nie będzie już czego badać…

  3. Tak trochę się dziwię o co ten raban. Nasze zachowania są sterowane reklamami w środkach masowego rażenia, wiadomościami w TV czy tzw. opinią publiczną, więc zdziwienie że poprzez facebook też.

    • Różnica jest taka, że przy reklamie jesteśmy świadomi, że treść, którą widzimy ma na celu zmanipulowanie nas. Widząc taki mały napis “Reklama”, albo “Link sponsorowany” mamy czas na włączenie firewalla w mózgu. No cóż, kolejna rzecz, na którą trzeba się będzie uodpornić. A Facebookowi podziękuję dzisiaj za to usuwając z niego konto.

    • Zawsze pojawi sie jakis mundrol ktory wszystko od zawsze wiedzial. Najlepiej nie pisac o takich eksperymentach, bo przeciez to oczywiste ze istnieja.

  4. Jakie teorie spiskowe? Przecież to jest fakt, że media sympatyzują z różnymi opcjami politycznymi, są przez nie dotowane i publikują informacje w korzystny dla danej opcji/niekorzystny dla przeciwnej sposób.

  5. Wiem, taśmy wyprostu też są elementem tej układanki… :P

  6. Najśmieszniejsze w tym wszystkim jest to, że w 21 wieku ktoś musi przeprowadzać badanie, aby sprawdzić czy jak ktoś czyta smutne rzeczy to będzie mu smutno…

    • Niby masz rację , ale zauważ że są ciekawsze pytania, jak np. “czy korzystając tylko z wiadomości na facebooku można spowodować, że dana osoba będzie pisała więcej pozy(nega)tywnych rzeczy”, lub “czy można manipulować ludźmi na facebooku”

    • Badania tego typu był są i będą przeprowadzane, ale na pewno nie zaczęło się to w XXI wieku. Ja pierwszy raz o zabiegach manipulacji podprogowej usłyszałem od byłego pilota wojskowego jakieś 17 lat temu. Opowiadał znacznie ciekawsze rzeczy w tym temacie niż tylko pozytywne/negatywne treści czytane.

      A swoją drogą kiedyś zastanawiałem się ze znajomym czy (teoretycznie) była by możliwość wpływania na ludzki mózg w taki sposób, aby osoba poproszona o podanie losowej liczby podawała ją z pewnego zakresu lub nawet po prostu podawała dokładnie zaprogramowaną przez osoby trzecie liczbę.

      W naszym kraju jak i w każdym cywilizowanym tego typu zabiegi (przekaz podprogowy) jest zabroniony prawnie. Nie wiem jak jest w Rosji, ale dziwie się, że w USA do takiego eksperymentu doszło obecnie. Chociaż z drugiej strony dawniej na ich terenie dochodziło do znacznie poważniejszych i nielegalnych eksperymentów.

    • @khbafka
      Chyba nie złapałeś ;) – chodzi zapewne o to, czy da się odtworzyć scenariusz filmu “Wag The Dog” na facebooku na większą skalę. Zauważ, że to nie chodzi o stan pojedynczej osoby – ale o to czy, da się zebrać i podpalić odpowienią liczbę pożytecznych idiotów w celu osiągnięcia celu politycznego. Zauważ, że sporo uczestników arabskiej wiosny np. miało “f” i “kciuka” na sztandarach…

      Podobny eksperyment przeprowadził Blizzard, ze sławnym bugiem w World Of Warcraft – który powodował trwałe zakażanie graczy poza oryginalną strefą. Wśród populacji graczy zaobserwowano zdumiewające działania (zbiorową panikę postaci, grupy starające się pomagać interesownie lub nie zarażonym graczom, grupy wigiliantów zabijające zarażone postacie…)

  7. “I tu zaczynają się pojawiać teorie spiskowe, dotyczące starego jak świat tematu — czy rząd próbuje manipulować społeczeństwem przez media?”

    Przepraszam bardzo ale ze co?! Jakie TEORIE. To sa fakty…

    Kiedys ludzie smieli sie ze mnie ze jestem paranoikiem i kazali zakladac kapelusz z folii aluminiowej. Teraz przychodza go pozyczyc a niebawem folii nie starczy dla wszystkich.

    To tez jest fakt…

    Pozdrawiam.

    Andrzej

    • Brzydka taka srebrna folia. Ale tego przecież nie pomalujesz, tego amelinium… :/

    • Można też pastafariański durszlak… Powinien całkiem nieźle ekranować.

  8. FB nie pokazuje użytkownikom wszystkiego, tak?
    O tym co widzi użytkownik decyduje algorytm, tak?
    Nie znamy szczegółów tego algorytmu, tak?
    Powyższe fakty nie są tajemnicą, tak? No to co wyjątkowego jest w tym, że jednym z kryteriów w algorytmie okazał się wydźwięk postu?

  9. To, że użytkownik dodaje treści o takim samym nacechowaniu emocjonalnym, nie znaczy jeszcze, że został wprawiony w szczególny stan. Może to być po prostu oznaka chęci dopasowania się do grupy, pewien społeczny konformizm. Podążanie za trendem w tym, co się czyta (świadome lub nieświadome). Można być wesołym, a duplikować treści smutne.
    Oczywiście, behawioryści powiedzą inaczej…

  10. polecam tekst o tym zagadnieniu, razem z krotkim objasnieniem socjologicznych elementow podobnych praktyk: http://bezpiecznyportfel.pl/internet-pieniadze-i-wojna-psychologiczna/

  11. Eksperyment z tresurą bydła w skali globalnej.

Twój komentarz

Zamieszczając komentarz akceptujesz regulamin dodawania komentarzy. Przez moderację nie przejdą: wycieczki osobiste, komentarze nie na temat, wulgaryzmy.