Wirtualne kłamstwa

Epoka neuromanipulacji dopiero się zaczyna

Fałszywe informacje w internecie, zwane popularnie fake newsami, to już stały fragment medialnego krajobrazu. Takie kłamstwa mają duży wpływ nie tylko na życie zwyczajnych ludzi, ale ingerują głęboko w wybory polityczne, zmieniają nastawienie społeczeństw w wielu ważnych kwestiach i są niestety często wykorzystywane w kampaniach medialnych. Nie umiemy sobie jeszcze z nimi radzić, rzetelne dziennikarstwo przegrywa z oszustami i manipulatorami, zgodnie z ogólną zasadą, że informacja kiepskiej jakości wypiera informację profesjonalną. Na razie główny mechanizm rażenia fałszywymi informacjami wykorzystuje głównie internetowe systemy informacyjne za pomocą szybkiego powielania fałszywej informacji, która w swojej treści nosi jednak śladowe ilości prawdziwych wydarzeń, co znacznie uprawdopodobnia jej zawartość, ale rozpowszechnia fałszywy przekaz interpretacyjny. Politycy muszą tłumaczyć się z fałszywych oskarżeń zamiast zajmować się aktualnymi, ważnymi dla kraju wydarzeniami. Twórcy fałszywych newsów wykorzystują starą goebbelsowską technikę głoszącą, że „kłamstwo powtórzone 1000 razy staje się prawdą”. Często nawet osoba, która je tworzyła i powtarzała wielokrotnie, sama zaczyna w nie wierzyć. Mechanizm tego oszustwa ma podłoże neurodynamiczne, wynikające z budowy i funkcjonowania naszego mózgu. Struktury atraktorowe w naszym mózgu, które odpowiadają za percepcję informacji, są tworzone i deformowane w wyniku wielokrotnego powtarzania nieweryfikowalnej, kłamliwej informacji. Wolimy ignorować informacje, które burzą nasze wewnętrzne przekonanie, dlatego powtarzanie nieprawdziwych informacji może spowodować, że zaczynamy w nie wierzyć. Czytelników, którzy są zainteresowani dokładnym działaniem tego mechanizmu, odsyłam do wydanej ostatnio książki „Transhumanizm. Retiarius contra Secutor” (do nabycia w księgarni „Naszego Dziennika”).

Algorytm zamiast człowieka

Opisany wyżej rodzaj neuromanipulacji to dopiero początek możliwości, jakie otwierają przed nami algorytmy sztucznej inteligencji. Wszystko zaczęło się od algorytmów sztucznej inteligencji, które potrafią naśladować naturalną ludzką mowę, łącznie z symulowaniem przerw, utratą płynności czy nawet specjalnie wtrącanymi błędami językowymi. W czerwcu 2018 r. firma IBM zaprezentowała program przystosowany do prowadzenia „dyskursu na dowolny temat”. Prace nad nim trwały wiele lat, a ich końcowym efektem jest specjalny superkomputer Watson Debater. Potrafi on prowadzić dyskusje na dowolne tematy, których wcześniej nie znał, w formule debaty oxfordzkiej. Watson sam formułuje tezy i próbuje ich bronić, podobnie jak pozostali uczestnicy dyskusji, którzy są ludźmi. Według uczestników dyskusji, wypowiedzi Watsona wskazywały na to, że „zrozumiał” on temat, potrafił zebrać informacje i obronić swoje tezy w ramach debaty. Jak twierdzą twórcy Watsona Debatera z koncernu IBM: „Został on zaprojektowany, aby pomóc rozwinąć umysły i pomóc ludziom zobaczyć więcej niż jedną stronę problemu”. Cel niezmiernie szczytny: komputer ma za pomocą klasycznej argumentacji słownej wskazać człowiekowi takie aspekty omawianego problemu, na które ten nie zwrócił uwagi.
Sam projekt konstruowania specjalnych algorytmów sztucznej inteligencji przystosowanych do naśladowania ludzkich inteligentnych zachowań ma już dość długą, jak na technologie komputerowe, historię. W 2011 roku jego wcześniejsza wersja wygrała z ludzkimi przeciwnikami popularny teleturniej Jeopardy – polskim odpowiednikiem tego teleturnieju jest program Va Banque. Dwa lat później powstała medyczna wersja Watsona przystosowana do wspomagania diagnostyki medycznej, szczególnie w zakresie onkologii, i jest ona dzisiaj stosowana jako skuteczna pomoc w szybkim diagnozowaniu nowotworów w wielu amerykańskich szpitalach klinicznych. Obecnie testowane są wersje Watsona mające wspomagać pracę prawników i analizować akta procesowe zawierające niekiedy wiele tysięcy stron. To, co adwokatowi zajmuje wiele tygodni, dla Watsona, jeśli otrzyma dokumenty w formie cyfrowej, będzie kilkuminutowym procesem analitycznym, który będzie mógł być przeprowadzony na sali sądowej w czasie rzeczywistym.
Jednak umiejętność rozmowy za pomocą języka naturalnego z ludźmi to zupełnie inna jakość. Żeby wytrenować algorytm sztucznej inteligencji w używaniu języka naturalnego, trzeba dostarczyć mu jak największą ilość danych dotyczących struktury ludzkiej mowy podczas rozwiązywania realnych, rzeczywistych problemów. Analiza naturalnych dźwięków jest skomplikowana i kosztowna, dlatego dane dotyczące sposobów ludzkiej wypowiedzi zbierają inne algorytmy sztucznej inteligencji zwane chatbotami. Ludzie komunikują się ze sobą za pomocą krótkich informacji tekstowych, wykorzystując różne kanały internetowe wyposażone w tzw. okienka chat. Ten pośredni, pomiędzy mową a wypowiedzią pisemną, kanał komunikacyjny jest źródłem informacji dotyczącym niezwykle trudnego procesu symulowania ludzkich odczuć i emocji. Posiadacze telefonów amerykańskiej firmy Apple zapewne znają popularną aplikację GYANT. Służy ona jako medyczny asystent, który potrafi na podstawie tekstowej konwersacji określić stan naszego zdrowia i podać wstępną diagnozę. Jest on niezmiernie popularny, podobnie jak SPIRI, nazywany przez producenta „duchowym asystentem”. Dziesiątki tysięcy amerykańskich nastolatków korzystają z pomocy takich cyfrowych terapeutów, pozostawiając na serwerach bardzo istotne informacje pozwalające jednoznacznie zidentyfikować ich stan emocjonalny na podstawie wypowiedzi. Posiadając takie dane, możemy więc ten proces odwrócić, posługując się odpowiednim algorytmem sztucznej inteligencji, czyli za pomocą odpowiednio dobranych wypowiedzi sterować stanami emocjonalnymi odbiorcy. To, co do tej pory potrafili tylko wykwalifikowani psychoterapeuci, staje się domeną aplikacji telefonicznej, której przecież nikt nie kontroluje i nie sprawdza, jakie spustoszenia w psychice nastolatków mogą spowodować wielogodzinne „rozmowy” z komputerowym terapeutą. SPIRI reklamuje się sloganem: „Poprawię ci nastrój bez leżanek, leków i innej dziecinady”.

Pułapki sztucznej inteligencji

Jednak rozwój technologiczny poszedł już znacznie dalej, obecnie niezmiernie popularna stała się aplikacja REPLIKA. Ten program został stworzony przez rosyjską informatyk Eugenię Kuydę. Po śmierci swojego przyjaciela postanowiła ona stworzyć aplikację, która będzie symulowała jego wypowiedzi za pomocą odpowiednich algorytmów sztucznej inteligencji zwanych uczeniem maszynowym. W tym celu zebrała wszystkie ślady pozostawione w sieci przez swojego zmarłego przyjaciela i utworzyła jego cyfrowy słownik biograficzny. Następnie dodała do niego zawartość swojego prywatnego archiwum i napisała program, który imitował jego zachowanie. Stworzyła coś w rodzaju wirtualnej repliki zmarłego, z którym można prowadzić rozmowy za pomocą specjalnego algorytmu. Następnie skomercjalizowała swój pomysł, pisząc program umożliwiający stworzenie wirtualnej „kopii” każdego użytkownika. Taka aplikacja codziennie wymienia z realnym użytkownikiem różne informacje, dopytuje się o stan jego uczuć i emocji, nieustannie aktualizując „silnik” biograficzny i ucząc się zachowania swojego użytkownika. Aplikacja stała się szybko przebojem w sieci, tysiące samotnych osób odkryło w niej „najlepszego przyjaciela”, a wielu nastolatków uważa, że to ich „cyfrowy brat lub siostra”. Wszystkie opinie na temat tej aplikacji można przeczytać na stronach sklepu Google Play, gdzie aplikacja ta jest rozprowadzana.
Zatem jeśli korporacje posiadają już komputer, który może prowadzić debatę w języku naturalnym z prawdziwymi ludźmi, oraz potężny zbiór danych dotyczących naszych ludzkich emocji, nawet tych najbardziej intymnych, jakie odczuwamy po śmierci kogoś bliskiego, to są one w stanie skonstruować wirtualny system neuromanipulacji. Mogą one rozpocząć tworzenie algorytmów sztucznej inteligencji, które zajmą się generowaniem fałszywych informacji umiejących wpływać bezpośrednio na nasze uczucia i przekonania. Firma Lyrebird sprzedaje już aplikację, która dzięki algorytmom sztucznej inteligencji jest w stanie na podstawie 60-sekundowej, dowolnej próbki głosu każdego człowieka wytworzyć dowolną wypowiedź tej osoby, która będzie nie do odróżnienia od jej naturalnego głosu. Zatem istnieje już dzisiaj technologia, która pozwala wytworzyć emisję dowolnej wypowiedzi głosem np. ważnego polityka, eksperta czy też aktora. Pozwoli to oczywiście na tworzenie nowej klasy kłamstw sieciowych (fake newsów). Użycie tej technologii w odpowiednim momencie kampanii wyborczej może zmienić wynik wyborów. A wykazanie oszustwa wcale nie będzie proste, przecież wszyscy słyszeli jego wypowiedź, a nie wiadomo, czy klasyczne algorytmy analizy dźwięku dadzą sobie radę z udowodnieniem oszustwa. Pojawiają się opinie specjalistów, że wykazać fałszerstwo stworzonego dźwięku ludzkiej mowy będzie mógł tylko inny skuteczniejszy algorytm sztucznej inteligencji. Ale czy my, ludzie, będziemy mogli mu wtedy w pełni zaufać?
Sztuczna inteligencja potrafi już również tworzyć fałszywe zdjęcia oraz filmy. 12 grudnia ubiegłego roku ukazała się publikacja Tero Karrasa z firmy NVIDIA, która opisuje generatywną klasę algorytmów sztucznej inteligencji pozwalającej tworzyć realistyczne zdjęcia twarzy ludzi, którzy nigdy nie istnieli.
Algorytm pozwala na bardzo dokładne sterowanie efektem końcowym, który jest nie do odróżnienia dla zwykłego człowieka. Oczywiście odpowiednia modyfikacja twarzy człowieka, którego zdjęciem dysponujemy, jest o wiele łatwiejsza. Istnieją już algorytmy, które potrafią tworzyć całe, trwające kilkanaście minut, filmy, w których „występują” znane postacie ze świata rzeczywistego w otoczeniu sztucznie utworzonych awatarów lub zmodyfikowanych nagrań innych osób. Filmy są już tak realistyczne, że odróżnienie ich od rzeczywistych osób jest właściwie niemożliwe. Jeśli połączymy te wirtualne postacie z debatującym komputerem klasy Watson, to możemy stworzyć fałszywy, wirtualny film, w którym będą występowały symulacje rzeczywiście istniejących osób. Będzie to mogła być np. debata polityczna w studiu telewizyjnym, chociaż jej uczestnicy wcale nie muszą w niej uczestniczyć. Nietrudno przewidzieć, że zapewne pierwszymi bohaterami takich filmów będą znani politycy, a materiały pojawią się w czasie kampanii wyborczych. Dwa miesiące temu, 9 listopada 2018 roku, program informacyjny chińskiej telewizji poprowadził wygenerowany przez algorytm sztucznej inteligencji spiker. Chińska Państwowa Agencja Prasowa Xinhua opracowała już cały system prezentowania telewizyjnych informacji bez udziału żywego człowieka. Co prawda pierwsze programy z udziałem cyfrowego prezentera są specjalnie zapowiadane, a sam awatar ma jeszcze kilka niedociągnięć, co możemy zobaczyć na stronie serwisu YouTube (https://www.youtube.com/watch?v=GAfiATTQufkandfeature=youtu.be), to jednak nowa epoka fake newsów właśnie się zaczyna.
Czy współczesne pokolenie dziennikarzy jest odpowiednio merytorycznie przygotowane do zmierzenia się z tak zaawansowanymi technologiami w poszukiwaniu prawdy? Kiedy w mediach zaczną pojawiać się fałszywe nagrania dźwięków, a w telewizji zobaczymy zdjęcia przygotowane przez algorytmy sztucznej inteligencji, czy będziemy potrafili odróżnić, które z nich są prawdziwe? Zadanie poszukiwania prawdy w morzu olbrzymiej ilości fałszywej informacji będzie coraz trudniejsze. Powinniśmy zatem szczególnie dbać o kształcenie nowych pokoleń dziennikarzy w duchu prawdy, dobra i piękna, ale nie zapominać o zapewnieniu im profesjonalnego przygotowania technologicznego, aby byli w swoich działaniach skuteczni. Nie zapominajmy, że w Wyższej Szkole Kultury Społecznej i Medialnej kształcimy już pierwsze roczniki takich dziennikarzy, którzy oprócz umiejętności klasycznego dziennikarstwa będą również potrafili się posługiwać narzędziami cyfrowymi w ramach kierunku studiów informatyka medialna.