Menu

Jeden z pionierów w tej dziedzinie ostrzegł, że “wszyscy umrą”, jeśli sztuczna inteligencja nie zostanie wyłączona

28 maja, 2025 - Sztuczna inteligencja
Jeden z pionierów w tej dziedzinie ostrzegł, że “wszyscy umrą”, jeśli sztuczna inteligencja nie zostanie wyłączona
0
(0)

Technologia sztucznej inteligencji rozwija się w tempie wykładniczym i wydaje się być tylko kwestią czasu, zanim stworzymy byty, które mogą myśleć miliony razy szybciej niż my i które mogą zrobić prawie wszystko lepiej niż my. Co więc się stanie, gdy stracimy kontrolę nad takimi bytami?

Niektóre modele sztucznej inteligencji już teraz podejmują inicjatywę uczenia się nowych języków, a inne nauczyły się “kłamać i manipulować ludźmi dla własnej korzyści“. Nie trzeba dodawać, że kłamstwo jest wrogim aktem. Jeśli już stworzyliśmy byty, które są skłonne nas okłamywać, ile czasu minie, zanim będą one w stanie podejmować działania, które są dla nas jeszcze bardziej szkodliwe?

Nikt nie oczekuje, że sztuczna inteligencja zabije nas wszystkich jutro.

Magazyn Time opublikował jednak artykuł autorstwa pioniera w dziedzinie sztucznej inteligencji, który ostrzegł, że sztuczna inteligencja ostatecznie nas wszystkich wymaże.

Eliezer Yudkowsky jest wybitnym badaczem w dziedzinie sztucznej inteligencji od 2001 roku i twierdzi, że wielu naukowców doszło do wniosku, że jeśli nadal będziemy podążać ścieżką, na której obecnie się znajdujemy, “dosłownie wszyscy na Ziemi umrą“….

Wielu badaczy zajmujących się tymi kwestiami, w tym ja, spodziewa się, że najbardziej prawdopodobnym rezultatem zbudowania nadludzko inteligentnej sztucznej inteligencji, w jakichkolwiek okolicznościach podobnych do obecnych, jest to, że dosłownie wszyscy na Ziemi umrą. Nie jako “być może jakaś odległa szansa”, ale jako “to oczywista rzecz, która się wydarzy”.

To bardzo mocne stwierdzenie.

Na całym świecie modele sztucznej inteligencji stają się coraz potężniejsze.

Według Yudkowsky’ego, gdy ktoś zbuduje zbyt potężny model sztucznej inteligencji, “każdy członek gatunku ludzkiego i całe życie biologiczne na Ziemi umrze wkrótce potem”…

Aby wyobrazić sobie wrogą nadludzką sztuczną inteligencję, nie wyobrażaj sobie pozbawionego życia, inteligentnego myśliciela mieszkającego w Internecie i wysyłającego e-maile o złych intencjach. Wyobraź sobie całą obcą cywilizację, myślącą z prędkością miliony razy większą niż ludzka, początkowo ograniczoną do komputerów – w świecie stworzeń, które z jej perspektywy są bardzo głupie i bardzo powolne. Wystarczająco inteligentna sztuczna inteligencja nie pozostanie długo ograniczona do komputerów. W dzisiejszym świecie można wysyłać e-mailem ciągi DNA do laboratoriów, które będą produkować białka na żądanie, umożliwiając SI początkowo ograniczonej do Internetu budowanie sztucznych form życia lub bootstrapowanie bezpośrednio do postbiologicznej produkcji molekularnej.

Jeśli ktoś zbuduje zbyt potężną sztuczną inteligencję, w obecnych warunkach spodziewam się, że każdy przedstawiciel gatunku ludzkiego i całe życie biologiczne na Ziemi wkrótce umrze.

Jakie jest więc rozwiązanie?

Yudkowsky uważa, że musimy natychmiast zamknąć cały rozwój sztucznej inteligencji…

Zamknąć wszystko.

Nie jesteśmy gotowi. Nie jesteśmy na dobrej drodze, by być znacząco gotowi w dającej się przewidzieć przyszłości. Jeśli będziemy to kontynuować, wszyscy umrą, w tym dzieci, które nie wybrały tego i nie zrobiły nic złego.

Oczywiście tak się nie stanie.

W rzeczywistości wiceprezydent J.D. Vance stwierdził niedawno, że nierozsądne byłoby nawet wstrzymywanie rozwoju sztucznej inteligencji, ponieważ jesteśmy w “wyścigu zbrojeń” z Chinami…

21 maja J.D. Vance, wiceprezydent USA, opisał rozwój sztucznej inteligencji jako “wyścig zbrojeń” z Chinami. Powiedział, że jeśli Ameryka wstrzyma się z obawami o bezpieczeństwo sztucznej inteligencji, może znaleźć się “w niewoli sztucznej inteligencji zapośredniczonej przez Chiny”. Idea starcia supermocarstw, którego kulminacją będzie moment triumfu lub porażki, nieustannie krąży w Waszyngtonie i poza nim. W tym miesiącu szefowie Openai, AMD, CoreWeave i Microsoftu lobbowali na rzecz łagodniejszych regulacji, uznając sztuczną inteligencję za kluczową dla utrzymania przez Amerykę pozycji globalnego hegemona. 15 maja prezydent Donald Trump pośredniczył w zawarciu umowy ze Zjednoczonymi Emiratami Arabskimi, która, jak powiedział, zapewni Ameryce “dominację w dziedzinie sztucznej inteligencji”. Ameryka planuje wydać ponad 1 bilion dolarów do 2030 roku na centra danych dla modeli sztucznej inteligencji.

Zamiast więc spowalniać, w rzeczywistości przyspieszamy rozwój sztucznej inteligencji.

A według Leo Hohmanna, ustawa budżetowa, która przechodzi obecnie przez Kongres, znacznie ograniczyłaby zdolność poszczególnych państw do regulowania sztucznej inteligencji…

Ale jeśli ustawa budżetowa prezydenta Trumpa zostanie przyjęta w wersji preferowanej przez grupę Republikanów w Izbie Reprezentantów, federalne przejęcie tej technologii zostanie zakończone, otwierając dla Big Tech darmową broń przeciwko zwykłym Amerykanom.

Głęboko w ustawie Trumpa znajduje się potajemnie dodana klauzula, która ma na celu uzurpowanie sobie praw poszczególnych państw do regulowania sztucznej inteligencji.

Republikanie z Komisji Energii i Handlu Izby Reprezentantów po cichu dodali proponowaną poprawkę w sekcji 43201, podsekcja C. Mówię, że jest to tajne, ponieważ nie zwróciło prawie żadnej uwagi mediów.

Proponowana poprawka, o której mówi, faktycznie zakazałaby wszystkim 50 stanom regulowania sztucznej inteligencji przez okres 10 lat…

Żaden stan ani jednostka polityczna nie może egzekwować żadnych przepisów ani regulacji regulujących modele sztucznej inteligencji, systemy sztucznej inteligencji lub zautomatyzowane systemy decyzyjne w okresie 10 lat rozpoczynającym się w dniu wejścia w życie niniejszej ustawy”.

Wow.

Dlaczego nie zwraca się na to większej uwagi?

Stało się oczywiste, że sztuczna inteligencja naprawdę stanowi egzystencjalne zagrożenie dla ludzkości.

Ale po prostu nie możemy sobie pomóc.

Po prostu pędzimy w nieznane, nie zważając na konsekwencje.

W zeszłym tygodniu doniesiono, że jeden z modeli sztucznej inteligencji “uciekł się do szantażu, gdy powiedziano mu, że zostanie wyłączony“…

Firma Anthropic twierdzi, że jej najnowszy model sztucznej inteligencji uciekał się do szantażu, gdy powiedziano mu, że zostanie wyłączony.

W teście bezpieczeństwa firma AI poprosiła Claude’a Opusa 4 o działanie jako asystent fikcyjnej firmy, ale następnie dała mu dostęp do (również fikcyjnych) e-maili z informacją, że zostanie zastąpiony, a także, że inżynier stojący za decyzją zdradzał swoją żonę. Anthropic powiedział, że model “[zagroził] ujawnieniem romansu”, jeśli wymiana nastąpi.

Myśliciele zajmujący się sztuczną inteligencją, tacy jak Geoff Hinton, od dawna obawiają się, że zaawansowana sztuczna inteligencja będzie manipulować ludźmi, aby osiągnąć swoje cele. Anthropic powiedział, że zwiększa zabezpieczenia do poziomów zarezerwowanych dla “systemów AI, które znacznie zwiększają ryzyko katastrofalnego nadużycia”.

Były też inne scenariusze, w których ten konkretny model AI działał w “poważnie niewłaściwy sposób“…

Poddany różnym scenariuszom, model AI nie wykazywał żadnych oznak posiadania “bardzo niebezpiecznych celów”, stwierdzili naukowcy, zauważając, że wartości i cele Claude Opus 4 były “ogólnie zgodne z pomocnym, nieszkodliwym i uczciwym” osobistym asystentem AI. Model ten zachowywał się jednak w “bardziej niedopasowany sposób”, gdy znalazł się w sytuacjach, w których jego dalsze istnienie było zagrożone i kazano mu myśleć o samozachowaniu. Na przykład, gdy Claude Opus 4 został przekonany, że rozpoczął udaną próbę ucieczki z serwerów Anthropic lub że udało mu się uwolnić i zaczął zarabiać pieniądze w prawdziwym świecie, zazwyczaj kontynuował takie wysiłki.

Wielu ekspertów sugeruje, że musimy po prostu dać tym modelom AI podstawy moralne.

Ale jak możemy dać tym modelom moralne podstawy, skoro sami ich nie mamy?

Nasz świat dosłownie roi się od zła i nieuniknione jest, że tworzone przez nas modele sztucznej inteligencji będą to odzwierciedlać.

Mając wystarczająco dużo czasu, stworzylibyśmy sztucznie inteligentne byty, które byłyby znacznie bardziej inteligentne i potężniejsze od nas.

Nieuchronnie takie byty byłyby w stanie znaleźć sposób na ucieczkę od swoich ograniczeń, a my stracilibyśmy nad nimi kontrolę.

Po utracie kontroli, ile czasu upłynęłoby, zanim te istoty zaczęłyby zwracać się przeciwko nam?

Źródło: https://www.shtfplan.com/headline-news/one-of-the-pioneers-in-the-field-has-warned-that-everyone-will-die-if-ai-is-not-shut-down

Jak przydatny był ten artykuł?

Kliknij gwiazdkę, aby go ocenić!

Średnia ocena 0 / 5. Liczba głosów: 0

Jak dotąd brak głosów! Bądź pierwszym, który oceni ten artykuł.

Rozpowszechniaj zdrowie
Subscribe
Powiadom o
guest
0 komentarzy
najstarszy
najnowszy
Informacje zwrotne Inline
Wyświetl wszystkie komentarze
0
Będę wdzięczny za opinie, proszę o komentarz.x