Raz wrzucona do Internetu informacja nie ginie, choć niektórzy czasem pewnie by tego chcieli. Jak odnaleźć pierwotnego nadawcę danej informacji? Dlaczego plotki urastają do rangi najważniejszej wiadomości dnia, a istotne dla świata newsy giną w gąszczu informacji? No i gdzie to wszystko miało swój początek? Badają to fizycy z Politechniki Warszawskiej.
Użytkownicy Internetu w samej tylko wyszukiwarce Google zadają około 40 tysięcy zapytań w ciągu sekundy, co daje około 1,3 biliona zapytań rocznie. W ciągu minuty na Facebooku pojawia się 2,5 miliona postów, w tym samym czasie do sieci zostaje wrzuconych 300 tys. tweetów, a na Instagramie przybywa 220 tys. nowych zdjęć. Z sieci korzystają 3 mld ludzi – ilość wyprodukowanych przez nich informacji jest wręcz nieprawdopodobna.
Proces rozprzestrzeniania się tych informacji i odnajdywania miejsca, w którym dana wiadomość pojawiła się po raz pierwszy, badają naukowcy pod kierownictwem prof. dr. hab. inż. Janusza Hołysta z Politechniki Warszawskiej. Badania są prowadzone w ramach projektu „RENOIR – Reverse EngiNeering of sOcial Information pRocessing” („Inżynieria odwrotna przetwarzania informacji społecznej”) finansowanego z funduszy UE z programu Horyzont 2020 „Marie Skłodowska-Curie Actions” (umowa nr 691152).
Od fizyki do socjologii
Dlaczego fizycy zajmują się tak, wydawałoby się, odległą od ich głównych zainteresowań dziedziną? – Myśląc o Twitterze czy Facebooku, trzeba pamiętać, że są to dość specyficzne media, w których jesteśmy zarówno konsumentem, jak i producentem informacji – tłumaczy prof. Janusz Hołyst. – To, co jest w nich najważniejsze, to to, że informacje pochodzące od innych użytkowników, jeśli nas zainteresują, możemy przesyłać dalej. Codziennie na Twitterze kilkadziesiąt milionów tweetów jest dalej przekazywanych w oryginalnej formie (tzw. retweety), a liczba komunikatów, które zawierają informacje przetworzoną z innych tweetow jest trudna do oszacowania.
Ta sieć połączeń przypomina bardzo specyficzny układ nerwowy. – A sieci neuronowe były badane przez fizyków już w latach 80. XX wieku – przypomina badacz. I dodaje jeszcze, że podobnie jak sieć nerwowa połączenia między użytkownikami Twittera też ciągle się zmieniają. Jak pokazują analizy przeprowadzone u jednego z partnerów projektu, na Uniwersytecie Stanforda, powstawanie i zanikanie połączeń między użytkownikami Twittera jest skorelowane z profilami zainteresowań poszczególnych użytkowników i ich aktywnością.
Kto to pierwszy powiedział?
Profesora Hołysta najbardziej interesuje problem odnalezienia źródła informacji w tak ogromnej sieci połączeń, jaką jest Internet. – Zazwyczaj dane informacje docierają do nas, ponieważ wiele osób przed nami zdecydowało, że są one, z jakiegoś powodu, interesujące – mówi naukowiec. – Często jest jednak bardzo trudno znaleźć ich pierwotne źródło (patrz rysunek).
To jest pierwszy problem, z jakim zmierzą się uczestnicy tego projektu. Naukowcy chcą stworzyć metodę, która pozwoli zidentyfikować pierwotne źródło informacji, nawet w tak dynamicznym środowisku.
Ważne jest także to, aby dowiedzieć się, jakimi drogami informacja dotarła do czytelnika, dzięki ilu użytkownikom Twittera czy Facebooka dowiedzieliśmy się o pewnym fakcie.
Ostatni problem to odnalezienie odpowiedzi na pytanie: w jaki sposób te informacje rozprzestrzeniają się w sieci mediów społecznościowych? Do tej pory, żeby lepiej zrozumieć media społecznościowe stosowano modele zapożyczone z epidemiologii. Określają one naszą podatność (w tym przypadku na wiadomość), sprawdzają, czy jesteśmy „zainfekowani” lub czy może już się jesteśmy „odporni” na daną informację. Taki model nie uwzględnia jednak specyfiki mediów społecznościowych.
Kto ma informację, ten ma zyski
Wyniki projektu RENOIR mogą mieć praktyczne zastosowanie przy planowaniu kampanii reklamowych. Zrozumienie, w jaki sposób informacja o danym produkcie będzie docierać do konsumentów, to klucz do opracowania skutecznych działań promocyjnych. Ważne jest budowanie sieci wpływowych liderów opinii (influencerów). – Chodzi o to, aby trafić z informacją nie do wielu osób, ale to tego odbiorcy, który będzie nią na tyle zainteresowany, żeby przekazać ją dalej – tłumaczy prof. Janusz Hołyst.
Kto ma informację, ten ma władzę
Mając taką wiedzę, można sterować informacjami tak, aby dopasować profil wiadomości do zainteresowań i oczekiwań użytkownika i w ten sposób znacznie zwiększyć skuteczność przekazu.
W tym miejscu pojawia się pytanie o moralny aspekt tych badań i wykorzystania, opracowanych w ich wyniku, metod. Internet, jak żadne inne medium wcześniej, dał użytkownikom dostęp do niemal nieograniczonej ilości informacji. Czy jawne nią sterowanie nie spowoduje publicznego oburzenia?
– Nie oszukujmy się, że w Internecie nie ma w tej chwili zorganizowanych akcji, które celowo zniekształcają informacje – podkreśla prof. Hołyst. – Mamy z tym do czynienia, szczególnie podczas kampanii wyborczych. Od wielu lat komitety wyborcze inwestują ogromne pieniądze we wpływowych blogerów, którzy zasiewają sieć informacjami o kandydatach. W ostatniej kampanii prezydenckiej w USA posunięto się jednak o krok dalej. Metody automatycznego tworzenia portretów psychologicznych indywidualnych wyborców (tzw. mikrotargeting) wykorzystano do stworzenia setek tysięcy różnych wersji listów dopasowanych do różnych odbiorców zachęcających do głosowania na danego kandydata. Wykorzystano tutaj metody psychometrii i dużych zbiorów danych (Big Data) opracowane m.in. na Uniwersytecie Stanforda.
Pierwsze wyniki
– Mamy już pierwsze ciekawe efekty naszych badań – zdradza prof. Janusz Hołyst. – Mgr inż. Jan Chołoniewski, jeden z naszych doktorantów biorących udział w projekcie, tak zainteresował swoim warsztatem badawczym Słoweńską Agencję Prasową, że zleciła mu ona opracowanie programu do analizy odbioru w różnego typu mediach komunikatów z tej Agencji. Wersja beta tego programu pomyślnie przeszła testy przeprowadzone przez dziennikarzy Agencji i jest nawet szansa na komercjalizację takiego narzędzia. Mgr inż. Robert Paluch, inny z naszych doktorantów, opracował podczas pobytu w USA nowy algorytm odszukiwania ukrytego źródła informacji, który jest wielokrotnie szybszy od dotychczas znanych programów.
Są również nieplanowane korzyści z tego projektu. Na Wydziale Fizyki przygotowywane jest otwarcie od przyszłego roku nowej specjalności Eksploracja danych i modelowanie interdyscyplinarne, gdzie część zajęć będzie bezpośrednio związana z badaniami prowadzonymi w projekcie RENOIR. Do projektu włączyli się również pracownicy i doktoranci z Wydziałów MiNI oraz EiTI. W ten sposób powstało międzywydziałowe seminarium poświęcone problemom eksploracji danych w mediach informacyjnych i organizowana jest wspólną platforma badawcza w tym obszarze na Politechnice Warszawskiej.
To nie pierwszy projekt koordynowany przez naukowca z Wydziału Fizyki Politechniki Warszawskiej dotyczący Internetu. Wcześniej profesor badał rozprzestrzenianie się emocji w sieci.
W projekcie RENOIR, oprócz Politechniki Warszawskiej, biorą udział: Politechnika Wrocławska, Uniwersytet Stanforda i Instytut Politechniczny Rensselaer (USA), Słoweńska Agencja Prasowa oraz Instytut Józefa Stefana (Słowenia) i Uniwersytet Technologiczny Nanyang (Singapur). Koszt projektu to ponad 1,3 mln euro. Dzięki temu pracownicy i doktoranci z PW mogą spędzić na stażąch naukowych w placówkach partnerskich za granicą łącznie 98 miesięcy.
Na ostateczne wyniki projektu musimy poczekać jeszcze 3 lata. Ciekawe, jak do tego czasu zmieni się Internet.
Więcej informacji o projekcie: www.renoirproject.eu. Twitter: RENOIRprojectEU.
Projekt finansowany jest z funduszy UE, z programu Horyzont 2020 „Marie Skłodowska-Curie Actions”.
Monika Bukowska, Biuro ds. Promocji i Infomacji
Fot.: Prof. Janusz Hołyst w trakcie przedstawiania celów projektu na Uniwersytecie Technologicznym w Singapurze. Źródło: www.pw.edu.pl/