
William Charles
0
2681
820
W ciągu ostatnich kilku miesięcy być może przeczytałeś reportaż towarzyszący artykułowi, którego współautorem jest Stephen Hawking, omawiający ryzyko związane ze sztuczną inteligencją. W artykule zasugerowano, że AI może stanowić poważne zagrożenie dla rasy ludzkiej. Hawking nie jest tam sam - Elon Musk i Peter Thiel są intelektualnymi osobami publicznymi, które wyraziły podobne obawy (Thiel zainwestował ponad 1,3 miliona dolarów w badania problemu i możliwych rozwiązań).
Relacja z artykułu Hawkinga i komentarzy Muska była, żeby nie powiedzieć zbyt dobrze, nieco wesoła. Ton brzmiał: „spójrz na tę dziwną rzecz, o którą martwią się wszyscy ci maniacy”. Nie bierze się pod uwagę pomysłu, że jeśli jedni z najmądrzejszych ludzi na Ziemi ostrzegają cię, że coś może być bardzo niebezpieczne, warto po prostu wysłuchać.
Jest to zrozumiałe - sztuczna inteligencja przejmująca świat z pewnością brzmi bardzo dziwnie i nieprawdopodobnie, być może z powodu ogromnej uwagi, jaką już poświęcili temu pomysłowi pisarze science fiction. Co tak przerażało tych nominalnie rozsądnych, racjonalnych ludzi?
Czym jest inteligencja?
Aby mówić o niebezpieczeństwie sztucznej inteligencji, pomocne może być zrozumienie, czym jest inteligencja. Aby lepiej zrozumieć ten problem, rzućmy okiem na zabawkową architekturę AI wykorzystywaną przez badaczy badających teorię rozumowania. Ta zabawka AI nazywa się AIXI i ma wiele przydatnych właściwości. Jego cele mogą być dowolne, dobrze skaluje się z mocą obliczeniową, a jej wewnętrzna konstrukcja jest bardzo czysta i prosta.
Co więcej, możesz zaimplementować proste, praktyczne wersje architektury, które mogą na przykład grać w Pacmana, jeśli chcesz. AIXI jest produktem badacza sztucznej inteligencji Marcusa Huttera, prawdopodobnie czołowego eksperta w dziedzinie inteligencji algorytmicznej. To on mówi w powyższym filmie.
AIXI jest zaskakująco prosty: ma trzy podstawowe elementy: uczeń, planista, i funkcja użyteczności.
- The uczeń pobiera ciągi bitów odpowiadające wejściu na temat świata zewnętrznego i przeszukuje programy komputerowe, dopóki nie znajdzie takich, które generują swoje obserwacje jako dane wyjściowe. Te programy razem pozwalają mu zgadywać, jak będzie wyglądać przyszłość, po prostu uruchamiając każdy program do przodu i ważąc prawdopodobieństwo wyniku na podstawie długości programu (implementacja Razora Razora).
- The planista przeszukuje możliwe działania, które agent mógłby podjąć, i używa modułu uczącego się, aby przewidzieć, co by się stało, gdyby zabrał każde z nich. Następnie ocenia je według tego, jak dobre lub złe są przewidywane wyniki, i wybiera sposób działania, który maksymalizuje dobro oczekiwanego wyniku, pomnożony przez oczekiwane prawdopodobieństwo jego osiągnięcia..
- Ostatni moduł, funkcja użyteczności, to prosty program, który uwzględnia opis przyszłego stanu świata i oblicza dla niego ocenę użyteczności. Ten wynik użyteczności określa, jak dobry lub zły jest ten wynik, i jest wykorzystywany przez planistę do oceny przyszłego stanu świata. Funkcja użyteczności może być dowolna.
- Wszystkie te trzy elementy razem tworzą an optymalizator, który optymalizuje pod kątem określonego celu, niezależnie od świata, w którym się znajduje.
Ten prosty model reprezentuje podstawową definicję inteligentnego agenta. Agent bada swoje środowisko, buduje jego modele, a następnie używa tych modeli do znalezienia sposobu działania, który zmaksymalizuje szanse na uzyskanie tego, czego chce. AIXI ma podobną strukturę do sztucznej inteligencji, która gra w szachy lub inne gry o znanych zasadach - z tym wyjątkiem, że potrafi wydedukować reguły gry, grając w nią, zaczynając od zerowej wiedzy.
AIXI, mając wystarczająco dużo czasu na obliczenia, może nauczyć się optymalizować dowolny system pod kątem dowolnego celu, nawet najbardziej złożonego. Jest to ogólnie inteligentny algorytm. Pamiętaj, że to nie to samo, co inteligencja ludzka (sztuczna inteligencja inspirowana biologicznie to zupełnie inny temat Giovanni Idili z OpenWorm: Mózgi, robaki i sztuczna inteligencja Giovanni Idili z OpenWorm: Mózgi, robaki i sztuczna inteligencja Symulacja ludzki mózg jest odległy, ale projekt o otwartym kodzie źródłowym stawia pierwsze ważne kroki, symulując neurologię i fizjologię jednego z najprostszych zwierząt znanych w nauce). Innymi słowy, AIXI może być w stanie przechytrzyć każdą istotę ludzką przy jakimkolwiek zadaniu intelektualnym (mając wystarczającą moc obliczeniową), ale może nie być świadomy swojego zwycięstwa. Myślące maszyny: czego neuronauka i sztuczna inteligencja mogą nas nauczyć o myślących maszynach świadomości: co Neuronauka i sztuczna inteligencja mogą nas nauczyć o świadomości Czy budowanie sztucznie inteligentnych maszyn i oprogramowania może nas nauczyć o funkcjonowaniu świadomości i naturze samego ludzkiego umysłu? .
Jako praktyczna sztuczna inteligencja AIXI ma wiele problemów. Po pierwsze, nie ma sposobu, aby znaleźć programy, które produkują dane wyjściowe, którymi jest zainteresowany. Jest to algorytm brutalnej siły, co oznacza, że nie jest praktyczne, jeśli nie ma przypadkowego komputera o dużej mocy. Każda faktyczna implementacja AIXI jest z konieczności przybliżeniem i (obecnie) ogólnie dość prymitywnym. AIXI daje nam teoretyczne spojrzenie na to, jak mogłaby wyglądać potężna sztuczna inteligencja i jak może rozumować.
Przestrzeń wartości
Jeśli zrobiłeś jakieś programowanie komputerowe Podstawy programowania komputerowego 101 - Zmienne i typy danych Podstawy programowania komputerowego 101 - Zmienne i typy danych Po wprowadzeniu i rozmowie o programowaniu obiektowym i skąd pochodzi jego nazwa, pomyślałem, że nadszedł czas przechodzimy przez absolutne podstawy programowania w sposób inny niż język. To… wiesz, że komputery są nieprzyzwoicie, pedantycznie i mechanicznie dosłowne. Maszyna nie wie ani nie dba o to, co chcesz: robi tylko to, co jej powiedziano. Jest to ważne pojęcie w kontekście inteligencji maszyn.
Mając to na uwadze, wyobraź sobie, że wynalazłeś potężną sztuczną inteligencję - wymyśliłeś sprytne algorytmy do generowania hipotez pasujących do twoich danych i generowania dobrych planów kandydatów. Twoja sztuczna inteligencja może rozwiązać ogólne problemy i może to zrobić skutecznie na nowoczesnym sprzęcie komputerowym.
Teraz nadszedł czas, aby wybrać funkcję narzędzia, która określi, jakie wartości AI. O co warto prosić? Pamiętaj, że maszyna będzie nieprzyjemnie, pedantycznie dosłownie na temat dowolnej funkcji, którą chcesz zmaksymalizować, i nigdy się nie zatrzyma - w maszynie nie ma ducha, który kiedykolwiek „obudzi się” i zdecyduje się zmienić funkcję użytkową, niezależnie od tego, ile ulepszenia wydajności, które wprowadza zgodnie z własnym rozumowaniem.
Eliezer Yudkowsky ujął to w ten sposób:
Podobnie jak w przypadku wszystkich programów komputerowych, podstawowym wyzwaniem i zasadniczą trudnością AGI jest to, że jeśli napiszemy zły kod, AI nie będzie automatycznie przeglądać naszego kodu, zaznaczać błędów, dowiedzieć się, co naprawdę chcieliśmy powiedzieć, i zrobić to zamiast. Nie-programiści czasami wyobrażają sobie AGI lub ogólnie programy komputerowe jako analogiczne do służącego, który bezwzględnie wykonuje polecenia. Ale nie jest tak, że AI jest absolutnie posłuszny do jego kodu; raczej AI po prostu jest kod.
Jeśli próbujesz zarządzać fabryką i powiesz maszynie, by doceniała tworzenie spinaczy, a następnie dasz jej kontrolę nad grupą robotów fabrycznych, możesz wrócić następnego dnia, aby stwierdzić, że zabrakło jej każdej innej formy surowca, zabili wszystkich twoich pracowników i zrobili spinacze z ich szczątków. Jeśli, próbując naprawić swoje zło, przeprogramujesz maszynę, aby po prostu uszczęśliwić wszystkich, możesz wrócić następnego dnia i odkryć, że wkłada druty do mózgów ludzi.
Chodzi o to, że ludzie mają wiele skomplikowanych wartości, które, jak zakładamy, są niejawnie dzielone z innymi umysłami. Cenimy pieniądze, ale bardziej cenimy ludzkie życie. Chcemy być szczęśliwi, ale niekoniecznie chcemy włożyć do mózgu przewody, aby to zrobić. Nie czujemy potrzeby wyjaśniania tych rzeczy, kiedy udzielamy instrukcji innym ludziom. Nie można jednak przyjmować tego rodzaju założeń podczas projektowania funkcji narzędziowej maszyny. Najlepszymi rozwiązaniami w ramach bezdusznej matematyki prostej funkcji użyteczności są często rozwiązania, które ludzie zignorowaliby za bycie moralnie przerażającym.
Umożliwienie inteligentnej maszynie maksymalizacji naiwnej funkcji użyteczności prawie zawsze będzie katastrofalne. Jak to ujął filozof z Oxfordu, Nick Bostom,
Nie możemy beztrosko zakładać, że superinteligencja z konieczności podzieli którąkolwiek z ostatecznych wartości stereotypowo związanych z mądrością i rozwojem intelektualnym w ludzkiej ciekawości naukowej, życzliwej trosce o innych, duchowym oświeceniu i kontemplacji, wyrzeczeniu się materialnej zdobyczy, upodobaniu do wyrafinowanej kultury lub proste przyjemności w życiu, pokora i bezinteresowność, i tak dalej.
Co gorsza, bardzo, bardzo trudno jest podać pełną i szczegółową listę wszystkiego, co ludzie cenią. Pytanie ma wiele aspektów, a zapomnienie choćby jednego z nich jest potencjalnie katastrofalne. Nawet wśród tych, których jesteśmy świadomi, istnieją subtelności i złożoności, które utrudniają zapisanie ich jako czystych układów równań, które możemy nadać maszynie jako funkcję narzędzia.
Niektóre osoby, czytając to, dochodzą do wniosku, że budowanie sztucznej inteligencji za pomocą funkcji narzędziowych jest okropnym pomysłem i powinniśmy po prostu zaprojektować je inaczej. Tutaj są też złe wieści - możesz formalnie udowodnić, że każdy agent, który nie ma czegoś równoważnego funkcji użytecznej, nie może mieć spójnych preferencji dotyczących przyszłości.
Rekurencyjne samodoskonalenie
Jednym z rozwiązań powyższego dylematu jest nie dawanie agentom AI szansy na zranienie ludzi: daj im tylko zasoby potrzebne do rozwiązania problemu w sposób, w jaki zamierzasz go rozwiązać, ściśle go nadzoruj i trzymaj z dala od możliwości wyrządzić wielką krzywdę. Niestety nasza zdolność do kontrolowania inteligentnych maszyn jest wysoce podejrzana.
Nawet jeśli nie są o wiele mądrzejsi od nas, istnieje możliwość, że maszyna to zrobi “bootstrap” - zbieraj lepszy sprzęt lub wprowadzaj ulepszenia do własnego kodu, który czyni go jeszcze inteligentniejszym. Mogłoby to pozwolić maszynie przeskoczyć ludzką inteligencję o wiele rzędów wielkości, przechytrzając ludzi w tym samym sensie, w jakim ludzie przechytrzyli koty. Ten scenariusz został po raz pierwszy zaproponowany przez mężczyznę o imieniu I. J. Good, który pracował nad projektem analizy krypt Enigmy z Alanem Turingiem podczas II wojny światowej. Nazwał to an “Eksplozja inteligencji,” i opisał sprawę w ten sposób:
Niech ultra-inteligentną maszynę zdefiniujemy jako maszynę, która może znacznie przewyższyć wszelkie intelektualne działania każdego człowieka, nawet mądrego. Ponieważ projektowanie maszyn jest jedną z tych czynności intelektualnych, ultra-inteligentna maszyna może zaprojektować jeszcze lepsze maszyny; wówczas bez wątpienia byłby “eksplozja wywiadu,” a inteligencja człowieka byłaby daleko w tyle. Tak więc, pierwsza ultra-inteligentna maszyna jest ostatnim wynalazkiem, jakiego człowiek kiedykolwiek potrzebował, pod warunkiem, że maszyna jest wystarczająco posłuszna.
Nie ma gwarancji, że eksplozja inteligencji jest możliwa w naszym wszechświecie, ale wydaje się prawdopodobne. Z biegiem czasu komputery stają się coraz szybsze, a podstawowe informacje o inteligencji gromadzą się. Oznacza to, że zapotrzebowanie na zasoby, aby wykonać ostatni skok do ogólnej inteligencji, spada coraz niżej. W pewnym momencie znajdziemy się w świecie, w którym miliony ludzi mogą pojechać na Best Buy i zdobyć sprzęt i literaturę techniczną, których potrzebują, aby zbudować samodoskonalącą się sztuczną inteligencję, którą już ustaliliśmy. bardzo niebezpieczne. Wyobraź sobie świat, w którym możesz robić bomby atomowe z patyków i skał. O takiej przyszłości rozmawiamy.
A jeśli maszyna wykona ten skok, może bardzo szybko wyprzedzić gatunek ludzki pod względem wydajności intelektualnej, rozwiązując problemy, których miliard ludzi nie jest w stanie rozwiązać, w taki sam sposób, w jaki ludzie mogą rozwiązać problemy, które miliard kotów może ”. t.
Może opracować potężne roboty (lub biotechnologię lub nanotechnologię) i stosunkowo szybko zyskać możliwość przekształcania świata według własnego uznania, a niewiele byśmy na to mogli zrobić. Taka inteligencja mogłaby pozbawić Ziemię i resztę Układu Słonecznego części zamiennych bez większych problemów, w drodze do zrobienia tego, co im powiedzieliśmy. Wydaje się prawdopodobne, że taki rozwój wydarzeń byłby katastrofalny dla ludzkości. Sztuczna inteligencja nie musi być złośliwa, aby zniszczyć świat, jedynie katastrofalnie obojętna.
Jak to się mówi, “Maszyna cię nie kocha ani nie nienawidzi, ale jesteś zbudowana z atomów, których może używać do innych rzeczy.”
Ocena i łagodzenie ryzyka
Jeśli więc zaakceptujemy, że projektowanie potężnej sztucznej inteligencji, która maksymalizuje prostą funkcję użyteczną, jest złe, to w jak wielkim kłopocie jesteśmy? Ile mamy czasu, zanim możliwe będzie zbudowanie tego rodzaju maszyn? Trudno oczywiście powiedzieć.
Twórcy sztucznej inteligencji robią postępy. 7 niesamowitych stron internetowych, aby zobaczyć najnowsze informacje na temat programowania sztucznej inteligencji 7 niesamowitych stron internetowych, aby zobaczyć najnowsze informacje na temat programowania sztucznej inteligencji Sztuczna inteligencja nie jest jeszcze HAL z 2001: The Space Odyssey… ale jesteśmy bardzo blisko. Rzeczywiście, pewnego dnia może być tak samo jak w przypadku sci-fi-potterów produkowanych przez Hollywood… Budowane przez nas maszyny i problemy, które mogą rozwiązać, stale rosną. W 1997 roku Deep Blue mógł grać w szachy na poziomie większym niż ludzki arcymistrz. W 2011 roku IBM Watson mógł czytać i syntezować wystarczająco głęboko i szybko wystarczającą ilość informacji, aby pokonać najlepszych ludzi w otwartym pytaniu i odpowiedzi, w którym gra słów i gry słów - to duży postęp w ciągu czternastu lat.
Obecnie Google intensywnie inwestuje w badania nad głębokim uczeniem się, techniką, która pozwala budować potężne sieci neuronowe, budując łańcuchy prostszych sieci neuronowych. Ta inwestycja pozwala poczynić znaczne postępy w rozpoznawaniu mowy i obrazu. Ich ostatnim nabytkiem w tym obszarze jest startup Deep Learning o nazwie DeepMind, za który zapłacili około 400 milionów dolarów. W ramach warunków umowy Google zgodził się na utworzenie rady ds. Etyki w celu zapewnienia bezpiecznego rozwoju technologii AI.
Jednocześnie IBM opracowuje systemy Watson 2.0 i 3.0, które są w stanie przetwarzać obrazy i wideo oraz argumentować w obronie wniosków. Dali proste, wczesne demo zdolności Watsona do syntezy argumentów za i przeciw tematowi w demo wideo poniżej. Wyniki są niedoskonałe, ale imponujący krok niezależnie.
Żadna z tych technologii nie jest obecnie sama w sobie niebezpieczna: sztuczna inteligencja jako pole wciąż stara się dopasować umiejętności opanowane przez małe dzieci. Programowanie komputerowe i projektowanie AI to bardzo trudna, wysokopoziomowa umiejętność poznawcza i prawdopodobnie będzie to ostatnie ludzkie zadanie, w którym maszyny będą biegły. Zanim dojdziemy do tego momentu, będziemy mieli także wszechobecne maszyny, które mogą prowadzić. Oto jak dostaniemy się do świata wypełnionego samochodami bez kierowcy Oto jak dostaniemy się do świata wypełnionego samochodami bez kierowcy Prowadzenie pojazdu jest nużące, niebezpieczne, i wymagające zadanie. Czy pewnego dnia może to zostać zautomatyzowane dzięki samochodowej technologii Google? , praktykujcie medycynę i prawo, a prawdopodobnie także inne rzeczy, z głębokimi konsekwencjami ekonomicznymi.
Czas, jaki zajmie nam dotarcie do punktu zwrotnego samodoskonalenia, zależy tylko od tego, jak szybko mamy dobre pomysły. Prognozowanie tego rodzaju postępów technologicznych jest niezwykle trudne. Wydaje się nieuzasadnione, że możemy być w stanie zbudować silną sztuczną inteligencję za dwadzieścia lat, ale nie wydaje się również nierozsądne, że może to potrwać osiemdziesiąt lat. Tak czy inaczej, stanie się to w końcu i istnieje powód, by sądzić, że kiedy to się stanie, będzie to wyjątkowo niebezpieczne.
Jeśli więc zaakceptujemy, że będzie to problem, co możemy z tym zrobić? Odpowiedzią jest upewnienie się, że pierwsze inteligentne maszyny są bezpieczne, aby mogły uruchomić się do znacznego poziomu inteligencji, a następnie chronić nas przed niebezpiecznymi maszynami wyprodukowanymi później. Ta „bezpieczeństwo” jest definiowana poprzez dzielenie się ludzkimi wartościami oraz chęć ochrony i pomocy ludzkości.
Ponieważ nie możemy faktycznie usiąść i zaprogramować ludzkich wartości w maszynie, prawdopodobnie konieczne będzie zaprojektowanie funkcji narzędziowej, która wymaga od maszyny obserwowania ludzi, wywnioskowania naszych wartości, a następnie próby ich maksymalizacji. Aby proces rozwoju był bezpieczny, przydatne może być również opracowanie sztucznej inteligencji, która jest specjalnie zaprojektowana nie mieć preferencje dotyczące ich funkcji użytkowych, co pozwala nam je korygować lub wyłączać bez oporu, jeśli zaczną błądzić podczas rozwoju.
Wiele problemów, które musimy rozwiązać, aby zbudować bezpieczną inteligencję maszyny, jest matematycznie trudnych, ale istnieją powody, by sądzić, że można je rozwiązać. Nad tym zagadnieniem pracuje wiele różnych organizacji, w tym Instytut Przyszłości Ludzkości w Oksfordzie oraz Instytut Badań nad Inteligencją Maszynową (finansowany przez Petera Thiela).
MIRI jest szczególnie zainteresowany opracowaniem matematyki potrzebnej do zbudowania przyjaznej AI. Jeśli okaże się, że możliwa jest sztuczna inteligencja ładowania, to najpierw opracowanie tego rodzaju technologii „przyjaznej AI”, jeśli się powiedzie, może okazać się najważniejszą rzeczą, jaką ludzie kiedykolwiek zrobili.
Czy uważasz, że sztuczna inteligencja jest niebezpieczna?? Czy obawiasz się, co może przynieść przyszłość AI? Podziel się swoimi przemyśleniami w sekcji komentarzy poniżej!
Kredyty obrazkowe: Lwp Kommunikáció Via Flickr, “Sieć neuronowa“, przez fdecomite,” img_7801“, autor: Steve Rainwater, “Ewoluować”, autor: Keoni Cabral, “nowy_20x“, autor: Robert Cudmore, “Spinacze“, autor: Clifford Wallace