Rozpatruje Binoy Kampmar
O niebezpieczeństwie sztucznej inteligencji, zarówno rzeczywistej, jak i domniemanej, zaczęto mówić gorączkowo, głównie ze względu na wzrost generatywnych botów czatu. Analizując krytyków, należy zwrócić uwagę na ich motywację. Co chcą osiągnąć przyjmując określone stanowisko? W przypadku Geoffreya Hintona, uważanego za „ojca chrzestnego sztucznej inteligencji”, kontrola powinna być ostrzejsza niż w przypadku większości innych.
Hinton wywodzi się z „konekcjonistycznej” szkoły myślenia o sztucznej inteligencji, niegdyś zdyskredytowanej dziedziny, która zakłada sieci neuronowe naśladujące ludzki mózg i bardziej ogólnie ludzkie zachowania. Taki pogląd jest sprzeczny z „symbolistami”, którzy koncentrują się na UI jako na sterowanej maszynowo domenie określonych symboli i reguł.
John Thornhill, który pisze dla Financial Times, zauważa wzrost znaczenia Hintona wraz z innymi członkami plemienia konekcjonistów: „W miarę jak komputery stawały się coraz potężniejsze, zbiory danych eksplodowały, a algorytmy stawały się coraz bardziej wyrafinowane, badacze głębokiego uczenia, tacy jak Hinton, byli w stanie osiągnąć coraz bardziej imponujące wyniki, które nie mogły być dłużej ignorowane przez mainstreamową społeczność sztucznej inteligencji”.
Z biegiem czasu systemy głębokiego uczenia stały się modne, a świat wielkich technologii szukał nazw takich jak Hinton. Wraz ze swoimi kolegami zaczął otrzymywać absurdalne pensje na najwyższych stanowiskach w Google, Facebook, Amazon i Microsoft. W Google Hinton był wiceprezesem i inżynierem.
Odejście Hintona z Google, a konkretnie jego rola jako szefa zespołu Google Brain, wywołało falę spekulacji. Według jednej z nich zrobił to po to, aby móc krytykować firmę, w sukcesie której od lat pomaga. To z pewnością było trochę jakpociągnięcie za włosy, biorąc pod uwagę rolę Hintona w pchaniu kary generatywnej sztucznej inteligencji. W 2012 roku był pionierem samouczącej się sieci neuronowej, która była w stanie zidentyfikować typowe obiekty na zdjęciach ze znaczną dokładnością.
Interesujące jest też wyczucie czasu. Nieco ponad miesiąc wcześniej Instytut Przyszłości Życia opublikował list otwarty, ostrzegając przed straszliwymi skutkami sztucznej inteligencji, wykraczające poza zło GPT-4 OpenAI i innych powiązanych systemów. Zadano w nim szereg pytań: „Czy powinniśmy pozwolić, aby maszyny zalewały nasze kanały informacyjne propagandą i fałszem? Czy powinniśmy zautomatyzować wszystkie miejsca pracy, także te, które nas satysfakcjonują? Czy powinniśmy rozwijać nieludzkie mózgi, które mogłyby nas przeliczyć, przechytrzyć, zdezaktualizować i zastąpić? Czy powinniśmy ryzykować utratę kontroli nad naszą cywilizacją?
W liście wzywającym do sześciomiesięcznej przerwy w opracowywaniu tak dużych projektów sztucznej inteligencji pojawiło się wiele nazwisk, które nieco umniejszały wartość ostrzeżenia; Zresztą wielu sygnatariuszy odegrało niebagatelną rolę w tworzeniu automatyzacji, przestarzałości i promowaniu „utraty kontroli nad naszą cywilizacją”. Dlatego, gdy pod projektem wzywającym do wstrzymania rozwoju technologicznego podpisują się tacy ludzie jak Elon Musk czy Steve Wozniak, detektory głupoty na całym świecie powinny zostać zaalarmowane.
To samo dotyczy Hintona. Najwyraźniej szuka innych pastwisk, a przy tym wyprzedza siebie w silnej autopromocji. Ma to formę łagodnego potępienia tego, za co był odpowiedzialny. „Niektorzy uwierzyli, że to coś może być naprawdę mądrzejsze od ludzi. Ale większość ludzi myślała, że to bardzo dziwne. A ja myślałem, że to zupełnie odjechane. [. . . ] Oczywiście już tak nie myślę. ” Można by pomyśleć, że powinien wiedzieć o tym lepiej niż większość ludzi.
Na Twitterze Hinton oznajmił, że opuszcza Google w kwaśnym nastroju i że zamierza zrezygnować z jego działalności. „Cade Metz zasugerował dziś w NYT, że odszedłem z Google, aby krytykować Google. W rzeczywistości odszedłem, aby móc mówić o niebezpieczeństwach związanych ze sztuczną inteligencją, nie biorąc pod uwagę, jaki to ma wpływ na Google. Google zachowało się bardzo odpowiedzialnie”.
Ta nieco dziwaczna forma argumentacji sugeruje, że jakakolwiek krytyka sztucznej inteligencji będzie istniała niezależnie od samych firm, które opracowują takie projekty i czerpią z nich korzyści, podczas gdy deweloperzy – tacy jak Hinton – pozostają odporni na jakiekolwiek oskarżenia o współudział. Fakt, że wydawało się, iż nie jest w stanie opracować krytyki AI lub zaprojektować ram regulacyjnych w ramach samego Google, podważa uczciwość tego kroku.
W odpowiedzi na odejście swojego wieloletniego kolegi, Jeffa Deana, głównego naukowca i szefa Google DeepMind powiedział, że wody pozostały spokojne, co zadowoliło wszystkich. „Geoff dokonał przełomowych odkryć w dziedzinie sztucznej inteligencji i doceniamy jego dziesięcioletni wkład w rozwój Google [. . . ] Jako jedna z pierwszych firm, które opublikowały Politykę sztucznej inteligencji, nadal angażujemy się w odpowiedzialne podejście do sztucznej inteligencji. Nieustannie się uczymy, aby zrozumieć pojawiające się zagrożenia i jednocześnie odważnie wprowadzać innowacje”.
Wielu ludzi ze społeczności AI podejrzewało, że szykuje się coś innego. Informatyk Roman Jampolski w odpowiedzi na uwagi Hintona trafnie zauważył, że obawy dotyczące bezpieczeństwa sztucznej inteligencji nie wykluczają się wzajemnie z badaniami wewnątrz organizacji – i nie powinny. „Powinniśmy znormalizować zainteresowanie bezpieczeństwem sztucznej inteligencji bez konieczności porzucania pracy [sic] badacza w dziedzinie sztucznej inteligencji”.
Google z pewnością ma coś, co można nazwać problemem etycznym, jeśli chodzi o rozwój sztucznej inteligencji. Organizacja stara się raczej stłumić wewnętrzną dyskusję na ten temat. Margaret Mitchell, była członkini zespołu ds. etycznej sztucznej inteligencji Google, którego była współzałożycielką w 2017 roku, została zwolniona po przeprowadzeniu wewnętrznego dochodzenia w sprawie zwolnienia Timnita Coupe, byłego członka tego samego zespołu.
Escu został odwołany w grudniu 2020 roku po tym, jak został współautorem pracy na temat zagrożeń wynikających z używania sztucznej inteligencji wyposażoną w ogromną ilość danych. Coupe i Mitchell również krytycznie wypowiadali się na temat rażącego braku różnorodności w tej dziedzinie, którą ten drugi określił mianem „morza mężczyzn”.
Jeśli chodzi o filozoficzne dylematy Hintona, nie są one tak wyrafinowane i prawdopodobnie nie powodują problemów ze snem. Niezależnie od tego, jaką rolę odegrał Frankenstein w stworzeniu potwora, przed którym teraz ostrzega, jego sen prawdopodobnie nie będzie zakłócony. "Pociesza mnie normalna wymówka: gdybym ja tego nie zrobił, zrobiłby to ktoś inny" - powiedział Hinton w rozmowie z New York Times. Trudno sobie wyobrazić, jak można powstrzymać złych aktorów przed wykorzystywaniem ich do złych celów.”
Geoffrey Hinton, AI, and Google’s Ethics Problem wyszedł na Global Reseach 15.5.2023.
ZGŁOŚ NADUŻYCIE