Connect with us

technologia

„Ojciec chrzestny sztucznej inteligencji” kończy Google i ostrzega przed zbliżającymi się niebezpieczeństwami

Published

on

„Ojciec chrzestny sztucznej inteligencji” kończy Google i ostrzega przed zbliżającymi się niebezpieczeństwami

Geoffrey Hinton był pionierem sztucznej inteligencji. w 2012 roku dr. Hinton i dwaj jego absolwenci na Uniwersytecie w Toronto opracowali technologię, która stała się intelektualną podstawą systemów sztucznej inteligencji, które według największych firm z branży technologicznej są kluczem do ich przyszłości.

Jednak w poniedziałek oficjalnie dołączył do rosnącego chóru krytyków, którzy twierdzą, że firmy te mają kłopoty z agresywną kampanią opracowywania produktów opartych na generatywnej sztucznej inteligencji, technologii, która napędza popularne chatboty, takie jak ChatGPT.

dr Hinton powiedział, że rzucił pracę w Google, gdzie pracował przez ponad dekadę i stał się jednym z najbardziej szanowanych głosów w tej dziedzinie, więc mógł swobodnie mówić o zagrożeniach związanych ze sztuczną inteligencją. Część niego, powiedział, teraz żałuje pracy swojego życia.

„Pocieszam się zwykłą wymówką: gdybym tego nie zrobił, zrobiłby to ktoś inny” – powiedział dr. Hinton dokonał przełomu podczas długiego wywiadu w zeszłym tygodniu w jadalni swojego domu w Toronto, w odległości krótkiego spaceru od miejsca, w którym przebywali jego uczniowie.

dr Podróż Hintona od pioniera sztucznej inteligencji do proroka zagłady to niezwykły moment dla branży technologicznej w jej być może najważniejszym punkcie zwrotnym od dziesięcioleci. Liderzy branży uważają, że nowe systemy sztucznej inteligencji mogą być równie ważne jak wprowadzenie przeglądarki internetowej na początku lat 90.

Ale wielu znawców branży dręczy strach, że wypuszczają coś niebezpiecznego na wolność. Generatywna sztuczna inteligencja może już być narzędziem dezinformacji. Wkrótce miejsca pracy mogą być zagrożone. W pewnym momencie największe obawy technologii mówią, że może to stanowić zagrożenie dla ludzkości.

„Trudno sobie wyobrazić, jak można powstrzymać złych aktorów przed używaniem go do złych rzeczy” – powiedział dr. Hintona.

Po tym, jak startup OpenAI z San Francisco wydał w marcu nową wersję ChatGPT, ponad 1000 liderów technologii i badaczy podpisało list otwarty wzywający do sześciomiesięcznego moratorium na rozwój nowego systemu, ponieważ technologie AI stanowią „głębokie ryzyko dla społeczeństwa” i ludzkości”.

READ  Apple Watch wybiera numer 911 i ratuje życie amerykańskiej kobiety po upadku w pokoju hotelowym

Kilka dni później 19 obecnych i byłych dyrektorów Association for the Advancement of Artificial Intelligence, 40-letniego stowarzyszenia akademickiego, opublikował własny list Ostrzeżenie o zagrożeniach związanych ze sztuczną inteligencją W tej grupie znalazł się Eric Horvitz, dyrektor naukowy firmy Microsoft, która wykorzystała technologię OpenAI w szerokiej gamie produktów, w tym w swojej wyszukiwarce Bing.

dr Hinton, często nazywany „ojcem chrzestnym sztucznej inteligencji”, nie podpisał żadnego z tych listów i powiedział, że nie chce publicznie krytykować Google ani żadnej innej firmy, dopóki nie odejdzie z pracy. W zeszłym miesiącu powiedział firmie, że rezygnuje i rozmawiał telefonicznie w czwartek z Sundarem Pichai, dyrektorem generalnym Alphabet, firmy macierzystej Google. Odmówił publicznego omówienia szczegółów swojej rozmowy z panem Pichai.

Główny naukowiec Google, Jeff Dean, powiedział w oświadczeniu: „Pozostajemy zaangażowani w odpowiedzialne korzystanie ze sztucznej inteligencji. Nieustannie uczymy się rozumieć pojawiające się zagrożenia, jednocześnie odważnie wprowadzając innowacje”.

dr Hinton, 75-letni brytyjski emigrant, jest wieloletnim naukowcem, którego karierę napędzała osobista wiara w rozwój i wykorzystanie idei sztucznej inteligencji zwanej siecią neuronową. Sieć neuronowa to system matematyczny, który uczy się umiejętności poprzez analizę danych. W tamtym czasie niewielu badaczy wierzyło w ten pomysł. Ale stało się to dziełem jego życia.

W latach 80-tych dr. Hintona profesora informatyki na Uniwersytecie Carnegie Mellon, ale opuścił uniwersytet i udał się do Kanady, ponieważ powiedział, że niechętnie przyjmuje fundusze Pentagonu. Wtedy większość badań nad sztuczną inteligencją w Stanach Zjednoczonych była finansowana przez Departament Obrony. dr Hinton jest głęboko przeciwny wykorzystywaniu sztucznej inteligencji na polu bitwy – tego, co nazywa „żołnierzami-robotami”.

w 2012 roku dr. Hinton i jego dwaj studenci z Toronto, Ilya Sutskever i Alex Krishevsky, stworzyli sieć neuronową, która może analizować tysiące zdjęć i nauczyć się identyfikować typowe obiekty, takie jak kwiaty, psy i samochody.

Google Wydano 44 miliony dolarów jeden z dr. Hintona i jego dwóch uczniów do przejęcia założonej firmy. A ich system doprowadził do rozwoju coraz potężniejszych technologii, w tym nowych chatbotów, takich jak ChatGPT i Google Bard. Pan Sutskever został później głównym naukowcem w OpenAI. w 2018 roku dr. Hinton i dwóch innych długoletnich współpracowników otrzymało nagrodę Turinga, często nazywaną „Nagrodą Nobla w dziedzinie informatyki”, za pracę nad sieciami neuronowymi.

READ  Seminarium poświęcone polskim technologiom w Nairobi – Polska w Kenii

Mniej więcej w tym samym czasie Google, OpenAI i inne firmy zaczęły budować sieci neuronowe, które uczyły się z ogromnych ilości cyfrowego tekstu. dr Hinton uważał, że jest to potężny sposób rozumienia i generowania języka przez maszyny, ale był gorszy od sposobu interakcji ludzi z językiem.

Potem, w zeszłym roku, kiedy Google i OpenAI budowały systemy ze znacznie większą ilością danych, jego pogląd się zmienił. Nadal wierzył, że systemy te były pod pewnymi względami gorsze od ludzkiego mózgu, ale sądził, że w innych przyćmiewają ludzką inteligencję. „Może to, co dzieje się w tych systemach”, powiedział, „jest w rzeczywistości o wiele lepsze niż to, co dzieje się w mózgu”.

Jego zdaniem, w miarę jak firmy ulepszają swoje systemy AI, stają się coraz bardziej niebezpieczne. „Spójrz, jak to było pięć lat temu i jak jest dzisiaj”, powiedział o technologii sztucznej inteligencji. „Weź różnicę i propaguj ją na pierwszy plan. To straszne”.

Powiedział, że do zeszłego roku Google działał jako „właściwy zarządca” technologii, uważając, aby nie wypuścić niczego, co mogłoby wyrządzić szkodę. Ale teraz, gdy Microsoft rozszerzył swoją wyszukiwarkę Bing o chatbota – wyzwanie dla podstawowej działalności Google – Google próbuje korzystać z tego samego rodzaju technologii. Giganci technologiczni są uwikłani w konkurencję, której być może nie da się powstrzymać, powiedział dr. Hintona.

Jego bezpośrednią troską jest to, że Internet zostanie zalany fałszywymi zdjęciami, filmami i tekstami, a przeciętny człowiek „nie będzie mógł wiedzieć, co jest prawdą”.

Obawia się również, że technologie sztucznej inteligencji z czasem wywrócą rynek pracy do góry nogami. Obecnie chatboty, takie jak ChatGPT, zwykle uzupełniają pracowników, ale mogą zastąpić asystentów prawnych, osobistych asystentów, tłumaczy i inne osoby zajmujące się rutynowymi zadaniami. „To usuwa harówkę” – powiedział. „To może zabrać więcej”.

READ  Black Myth: Zwiastun komediowy Wukong pokazuje celowo błędną rozgrywkę i mnóstwo kotów

Później zaczyna się martwić, że przyszłe wersje technologii stanowią zagrożenie dla ludzkości, ponieważ często uczą się nieoczekiwanego zachowania na podstawie ogromnych ilości analizowanych danych. Staje się to problemem, powiedział, ponieważ osoby i firmy pozwalają systemom sztucznej inteligencji nie tylko generować własny kod komputerowy, ale także samodzielnie uruchamiać ten kod. I boi się dnia, w którym prawdziwie autonomiczna broń — te zabójcze roboty — stanie się rzeczywistością.

„Pomysł, że to coś może stać się mądrzejsze od ludzi – kilka osób w to wierzyło” – powiedział. „Ale większość ludzi myślała, że ​​to daleko. A myślałem, że to daleko. Myślałem, że to 30 do 50 lat lub więcej. Oczywiście już tak nie myślę”.

Wielu innych ekspertów, w tym wielu jego studentów i współpracowników, uważa to zagrożenie za hipotetyczne. Ale dr Hinton uważa, że ​​wyścig między Google a Microsoftem i innymi firmami przerodzi się w globalny wyścig, który nie zakończy się bez jakiejś formy globalnych regulacji.

Ale to może być niemożliwe – powiedział. W przeciwieństwie do broni jądrowej nie ma sposobu, aby dowiedzieć się, czy firmy lub kraje potajemnie pracują nad tą technologią. Największą nadzieją jest to, że czołowi światowi naukowcy będą współpracować, aby kontrolować technologię. „Nie sądzę, że powinni to dalej rozwijać, dopóki nie zrozumieją, czy mogą to kontrolować” – powiedział.

dr Hinton powiedział, że kiedy ludzie pytali go, jak mógłby pracować nad potencjalnie niebezpieczną technologią, sparafrazował Roberta Oppenheimera, który kierował amerykańskimi wysiłkami na rzecz budowy bomby atomowej: „Kiedy widzisz coś, co jest technicznie urocze, zrób to”. ”.

Już tak nie mówi.

Dźwięk wyprodukowany przez Adriana Hursta.

Continue Reading
Click to comment

Leave a Reply

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *