Max Techmark: Wielka technologia odwraca uwagę świata od egzystencjalnego zagrożenia, jakie stanowi sztuczna inteligencja

W rozmowie z Guardianem na szczycie dotyczącym sztucznej inteligencji w Seulu w Korei Południowej Max Teckmark powiedział, że skupienie się na szerszym rozumieniu bezpieczeństwa sztucznej inteligencji przed zniszczeniem życia skutkowałoby niedopuszczalnym opóźnieniem w nałożeniu bardziej rygorystycznych ograniczeń na większość twórców. Potężne projekty.

„W 1942 roku Enrico Fermi zbudował pierwszy niezależny reaktor jądrowej reakcji łańcuchowej pod boiskiem piłkarskim w Chicago” – powiedział Teckmark, który studiował fizykę. Wielcy fizycy tamtych czasów byli naprawdę zaniepokojeni, gdy się o tym dowiedzieli, ponieważ zdali sobie sprawę, że była to największa przeszkoda w skonstruowaniu bomby atomowej. „Zdali sobie sprawę, że to tylko kwestia lat, a właściwie trzech lat w przypadku testu Trinity w 1945 r.” – powiedział.

W zeszłym roku organizacja non-profit Future of Life Institute Techmark wezwała do sześciomiesięcznej „przerwy” w zaawansowanych badaniach nad sztuczną inteligencją ze względu na te obawy. Powiedział, że wypuszczenie modelu GPT-4 OpenAI w marcu tego roku było punktem zwrotnym w kopalni węgla i pokazało, że ryzyko jest niedopuszczalnie bliskie.

Pomimo tysięcy podpisów ekspertów, w tym Hintona i Bengio, dwóch z trzech „ojców chrzestnych” sztucznej inteligencji, którzy byli pionierami podejścia do uczenia maszynowego, które stanowi podstawę dzisiejszej tej dziedziny, nie zrobiono żadnej przerwy.

Zamiast tego szczyty dotyczące sztucznej inteligencji, drugie, które odbyły się w listopadzie ubiegłego roku w Seulu po Bletchley Park w Wielkiej Brytanii, zapoczątkowały nowy obszar regulacji dotyczących sztucznej inteligencji. „Chcieliśmy, aby ten list legitymizował rozmowę i jesteśmy naprawdę zadowoleni z tego, jak się to skończyło. Ludzie, którzy widzieli, jak ludzie tacy jak Bengio martwili się i myśleli: «Nie przejmuję się tym». Nawet ten facet na mojej stacji benzynowej później w tym incydencie powiedział mi, że martwił się, że sztuczna inteligencja nas zastąpi.

„Ale teraz musimy zacząć chodzić, a nie tylko rozmawiać”.

READ  ***AZTEK*** AZTEK TECHNOLOGY PRODUCTS TRADING INC. (Ujawnienie materiałów (ogólne)

Jednak od czasu pierwszego ogłoszenia na szczycie w Bletchley Park punkt ciężkości międzynarodowych regulacji dotyczących sztucznej inteligencji przesunął się z ryzyka egzystencjalnego.

W Seulu tylko jedna z trzech grup „wysokiego szczebla” bezpośrednio zajęła się bezpieczeństwem, badając „pełne spektrum zagrożeń”, od naruszeń prywatności, przez zakłócenia na rynku pracy, po potencjalnie katastrofalne skutki. Techmark przekonuje, że ignorowanie poważniejszych zagrożeń jest zdrowe, a nie przypadkowe.

„Przewidywałem, że będzie to wynik lobbingu branży” – powiedział. „W 1955 roku ukazały się pierwsze artykuły w gazetach, że palenie może powodować raka płuc, i można było pomyśleć, że zostaną wprowadzone natychmiastowe regulacje. Ale nie, trwało to do 1980 roku, ponieważ istniał duży nacisk na dywersyfikację branży. Myślę, że to właśnie dzieje się teraz.

Agencja informacyjna Hipya

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *