Zaufanie wobec świadka jest punktem wyjścia do przyjęcia jego przekazu.
Oderwanie świata wirtualnego od rzeczywistego sprawia coraz to nowe kłopoty. Ostatnio zaczęło być głośno o deepfake (z ang. – „głębokie fałszywki”). Są to fałszywe filmiki. Do ich produkcji wykorzystuje się program bazujący na prostym algorytmie o dwóch sieciach. Jedna identyfikuje, analizuje i uczy się schematów w zbiorach danych, np. cech powtarzających się w zdjęciach, wideo czy dźwięku – mimiki, intonacji, tików – tak, by móc odtworzyć twarz celebryty w różnych ustawieniach. Drugi element porównuje prawdziwe i fałszywe obrazy i sprawdza, czy efekt wygląda realistycznie. Mówiąc inaczej, program pozwala nadać własne gesty i słowa wybranej postaci.
Obecnie fałszywka jest widoczna dla uważnego widza. Na razie nikt jeszcze nie stworzył idealnego deepfake’a, jednak naukowcy nie mają wątpliwości, że to tylko kwestia czasu. Najgorsze jest to, że to narzędzie jest dość proste. Zostało udostępnione internautom, którzy na algorytmach w ogóle się nie znają. A większość użytkowników nie widziała problemu w zmanipulowanych obrazach z udziałem prawdziwych osób.
Czytaj dalej w e-wydaniu lub wydaniu papierowym
Idziemy nr 32 (670), 12 sierpnia 2018 r.
Artykuł w całości ukaże się na stronie po 22 sierpnia 2018 r.