„Bunt maszyn” to klasyczny film science fiction. Jednak bardziej prawdopodobne jest teraz to, że sztuczna inteligencja źle zinterpretuje ludzkie instrukcje, w wyniku niezrozumienia kontekstu. Zdarzyło się tak z projektem korporacji Microsoft o nazwie Tay. Był to chatbot – program komputerowy prowadzący z użytkownikiem sieci pozornie naturalną rozmowę, opracowany w 2016 roku. Interakcja z użytkownikami odbywała się za pośrednictwem Twittera. Po kilku godzinach chatbot zaczął publikować rasistowskie, seksistowskie i obraźliwe posty. Został zamknięty tego samego dnia. Potem było kilka kolejnych – nieudanych – prób. Według przedstawicieli Microsoftu, powodem było zachowanie użytkowników portalu. Chatbot tworzył swoje wpisy na bazie interakcji z nimi. Cały ten eksperyment pokazuje niezdolność sztucznej inteligencji do interpretowania potocznego języka, na podstawie którego program się uczył.
Era internetu, w której jesteśmy już zanurzeni po uszy, ujawnia tendencję, którą rozwój sztucznej inteligencji jeszcze bardziej skomplikuje. Celem internetu jest potwierdzać wiedzę poprzez kumulację i obrabianie danych. Użytkownik internetu stawia na pierwszym miejscu posiadania i zarządzanie informacjami. Abstrahowanie oraz definiowanie tracą znaczenie – rządzą dane.
Czytaj dalej w e-wydaniu lub wydaniu papierowym
Idziemy nr 31 (669), 5 sierpnia 2018 r.
Artykuł w całości ukaże się na stronie po 15 sierpnia 2018 r.