Connect with us

technologia

Pionier sztucznej inteligencji twierdzi, że zagrożenie dla świata może być „pilniejsze” niż zmiana klimatu

Published

on

Pionier sztucznej inteligencji twierdzi, że zagrożenie dla świata może być „pilniejsze” niż zmiana klimatu

LONDYN, 5 maja (Reuters) – Sztuczna inteligencja może stanowić „pilniejsze” zagrożenie dla ludzkości niż zmiany klimatyczne, powiedział Geoffrey Hinton, pionier sztucznej inteligencji w piątkowym wywiadzie dla agencji Reuters.

Geoffrey Hinton, powszechnie znany jako jeden z „ojców chrzestnych sztucznej inteligencji”, niedawno ogłosił, że odchodzi z Alphabet (GOOGL.O) po dziesięciu latach pracy w firmie i powiedział, że chce wypowiadać się na temat zagrożeń związanych z technologią bez obaw jego były pracodawca.

Praca Hintona jest uważana za niezbędną do rozwoju współczesnych systemów sztucznej inteligencji. W 1986 roku był współautorem przełomowego artykułu Learning Representations by Back-Propagating Errors, który był kamieniem milowym w rozwoju sieci neuronowych leżących u podstaw technologii sztucznej inteligencji. W 2018 roku otrzymał nagrodę Turinga za przełomowe badania.

Ale jest teraz jednym z coraz większej liczby liderów technologicznych, którzy publicznie wyrażają zaniepokojenie potencjalnym zagrożeniem ze strony sztucznej inteligencji, jeśli maszyny osiągną większą inteligencję niż ludzie i przejmą kontrolę nad planetą.

„Nie chcę lekceważyć zmian klimatu. Nie chcę powiedzieć:„ Nie powinieneś się martwić zmianami klimatycznymi ”. To także duże ryzyko” – powiedział Hinton. „Ale myślę, że to może stać się bardziej pilne”.

Dodał: „W przypadku zmian klimatycznych bardzo łatwo jest zalecić, co powinieneś zrobić: po prostu przestań spalać węgiel. Jeśli to zrobisz, w końcu wszystko będzie dobrze. Z tego powodu nie jest wcale jasne, co powinieneś zrobić.

Wspierany przez Microsoft (MSFT.O) OpenAI zapoczątkował technologiczny wyścig zbrojeń w listopadzie, udostępniając publicznie chatbota ChatGPT opartego na sztucznej inteligencji. Wkrótce stała się najszybciej rozwijającą się aplikacją w historii, osiągając 100 milionów użytkowników miesięcznie w ciągu dwóch miesięcy.

W kwietniu dyrektor generalny Twittera, Elon Musk, dołączył do tysięcy osób, które podpisały list otwarty wzywający do sześciomiesięcznej przerwy w rozwoju systemów potężniejszych niż niedawno uruchomiony GPT-4 firmy OpenAI.

Wśród sygnatariuszy znaleźli się Emad Mostaque, dyrektor generalny Stability AI, badacze z DeepMind, który należy do Alphabet, oraz inni pionierzy sztucznej inteligencji, Yoshua Bengio i Stuart Russell.

Chociaż Hinton podziela obawy sygnatariuszy, że sztuczna inteligencja może okazać się egzystencjalnym zagrożeniem dla ludzkości, nie zgodził się na wstrzymanie badań.

„To całkowicie nierealne” – powiedział. „Jestem w obozie, który uważa, że ​​jest to ryzyko egzystencjalne i jest na tyle blisko, że powinniśmy teraz bardzo ciężko pracować i inwestować wiele zasobów, aby dowiedzieć się, co możemy z tym zrobić”.

W Unii Europejskiej komitet prawodawców odpowiedział na list wspierany przez Muska, wzywając prezydenta USA Joe Bidena do zwołania światowego szczytu z przewodniczącą Komisji Europejskiej Ursulą von der Leyen w sprawie przyszłego kierunku technologii.

W zeszłym tygodniu komisja uzgodniła przełomowy zestaw generatywnych propozycji sztucznej inteligencji, które zmusiłyby firmy takie jak OpenAI do ujawnienia wszelkich materiałów chronionych prawem autorskim wykorzystywanych do szkolenia ich modeli.

W międzyczasie Biden przeprowadził rozmowy z wieloma liderami biznesu AI w Białym Domu, w tym z dyrektorem generalnym Alphabet Sundarem Pichai i dyrektorem generalnym OpenAI Samem Altmanem, obiecując „otwartą i konstruktywną dyskusję” na temat potrzeby większej przejrzystości firm w zakresie ich systemów.

„Liderzy technologii najlepiej to rozumieją, a politycy muszą być zaangażowani” – powiedział Hinton. „To dotyczy nas wszystkich, więc wszyscy musimy o tym pomyśleć”.

Reportaż Martina Coultera, montaż przez Deepę Babington

Nasze standardy: Zasady zaufania Thomson Reuters.

Continue Reading
Click to comment

Leave a Reply

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *