
– Nowy system sztucznej inteligencji Centaur może przewidywać złożone ludzkie decyzje – od dylematów moralnych po nabywanie umiejętności – z niespotykaną dotąd dokładnością, budząc zarówno rewolucyjne możliwości, jak i obawy etyczne.
– Sztuczna inteligencja została opracowana przy użyciu modelu Lama 3.1 firmy Meta i przeszkolona na 10 000 decyzji 60 000 osób w 160 eksperymentach psychologicznych, osiągając wyniki w zaledwie pięć dni.
– Centaur przewyższył 14 tradycyjnych modeli poznawczych w 31 z 32 zadań, wykazując zdolność adaptacji do nowych scenariuszy i sugerując, że ludzkie zachowanie jest zgodne z możliwymi do rozszyfrowania wzorcami.
– Co zaskakujące, wzorce neuronalne Centaura pokrywały się ze skanami ludzkiego mózgu, co sugeruje, że jest to odwrócona inżynieria aspektów poznawczych – chociaż pozostają ograniczenia w dynamice społecznej i uprzedzeniach kulturowych.
– Sztuczna inteligencja, choć obiecująca dla edukacji i zdrowia psychicznego, budzi obawy przed manipulacją (np. nadużyciami korporacyjnymi lub rządowymi) i wyzwaniami dla wolnej woli, wzywając do kontroli i zabezpieczeń.
W ramach przełomu, który zaciera granicę między science fiction a rzeczywistością, naukowcy opracowali system sztucznej inteligencji (AI) zdolny do przewidywania ludzkich decyzji z niesamowitą precyzją.
Ta sztuczna inteligencja, nazwana Centaur, nie tylko zgaduje, czy użytkownik kliknie reklamę. Przewiduje, w jaki sposób ludzie będą radzić sobie ze złożonymi dylematami moralnymi, uczyć się nowych umiejętności, a nawet opracowywać strategie w nieznanych scenariuszach. Implikacje są zdumiewające – od zrewolucjonizowania marketingu i edukacji po postawienie pilnych pytań etycznych dotyczących prywatności i wolnej woli.
Centaur, szczegółowo opisany w badaniu opublikowanym 2 lipca w Nature, został przeszkolony na oszałamiającym zbiorze danych – 60 000 osób podejmujących ponad 10 milionów decyzji w 160 eksperymentach psychologicznych. W przeciwieństwie do tradycyjnych modeli, które specjalizują się w wąskich zadaniach, takich jak przewidywanie transakcji giełdowych lub nawyków hazardowych, Centaur działa jako ogólny predyktor ludzkiego zachowania. Przewyższa modele kognitywne sprzed dziesięcioleci, co sugeruje, że sztuczna inteligencja może wkrótce zrozumieć nas lepiej, niż my rozumiemy samych siebie.
System został zbudowany poprzez dopracowanie modelu językowego Llama 3.1 firmy Meta Platforms – tej samej technologii, która stoi za ChatGPT – przy użyciu techniki, która modyfikuje tylko część jego programowania. Co ciekawe, szkolenie trwało zaledwie pięć dni na wysokiej klasy procesorze – świadczy to o rosnącej mocy uczenia maszynowego.
Centaur nie tylko pasował do istniejących modeli psychologicznych; Zniszczył je. W testach bezpośrednich przewidywał ludzkie wybory dokładniej niż 14 wyspecjalizowanych modeli poznawczych i statystycznych w 31 z 32 zadań. Jeszcze bardziej uderzające było to, że dostosował się do nowych scenariuszy, z którymi nigdy się nie spotkał, takich jak zmienione wersje gier pamięciowych lub łamigłówki logiczne.
Ta zdolność adaptacji sugeruje coś głębokiego. Podejmowanie decyzji przez człowieka, przy całej swojej złożoności, przebiega zgodnie z podstawowymi wzorcami, które sztuczna inteligencja może zdekodować.
Jak zauważył jeden z badaczy, ludzki umysł jest “zadziwiająco ogólny” – zdolny zarówno do prozaicznych wyborów (wybieranie płatków śniadaniowych), jak i monumentalnych (leczenie chorób). Sukces Centaura sugeruje, że nasze zachowanie może być bardziej przewidywalne, niż chcielibyśmy przyznać.
Wewnętrzne procesy zachodzące w Centaurze przypominają aktywność ludzkiego mózgu
Dziwnym trafem wewnętrzne procesy zachodzące w Centaurze zaczęły przypominać aktywność ludzkiego mózgu, choć nie zostały do tego wyraźnie przeszkolone. W porównaniu ze skanami mózgu osób wykonujących te same zadania, wzorce neuronowe sztucznej inteligencji były bardziej zbliżone niż oczekiwano. Sugeruje to, że badając ludzkie wybory, system dokonał inżynierii wstecznej aspektów ludzkiego poznania.
Niektórzy naukowcy postrzegają Centaura jako narzędzie do przyspieszenia badań. Może symulować eksperymenty in silico, potencjalnie zastępując lub uzupełniając badania na ludziach w psychologii.
Sceptycy ostrzegają jednak, że model jest daleki od ideału. Zmaga się z czasem reakcji, dynamiką społeczną i różnicami międzykulturowymi. Co więcej, jego dane treningowe są mocno przechylone w stronę zachodnich, wykształconych populacji.
Rozwój sztucznej inteligencji przewidującej zachowanie to nie tylko kamień milowy w nauce – to społeczny piorunochron. Z jednej strony taka technologia może spersonalizować edukację, poprawić interwencje w zakresie zdrowia psychicznego i zoptymalizować miejsca pracy. Z drugiej strony skłania do dystopijnych obaw.
Czy rządy lub korporacje mogą go używać do manipulowania wyborami? Czy firmy ubezpieczeniowe będą przewidywać ryzykowne zachowania i odpowiednio korygować składki? A jeśli sztuczna inteligencja zna ludzkość lepiej niż ludzie znają samych siebie, to co dzieje się z wolną wolą?
Pomimo swoich szerokich możliwości, naukowcy twierdzą, że Centaur wciąż ma ograniczenia. Twórcy Centaura upierają się, że ich model jest open-source, co zachęca do analizy. Ale historia pokazuje, że nawet narzędzia o dobrych intencjach mogą stać się bronią.
Zastanówmy się, w jaki sposób algorytmy mediów społecznościowych, pierwotnie zaprojektowane do łączenia ludzi, teraz wykorzystują luki psychologiczne dla zysku. Jeśli sztuczna inteligencja może przewidywać ludzkie zachowanie na dużą skalę, potencjał nadużyć jest ogromny.
Źródła obejmują:
Źródło: https://www.naturalnews.com/2025-07-31-centaur-ai-predicts-human-behavior-startling-accuracy.html
- Czy sztuczna inteligencja staje się kolejną branżą „zbyt dużą, by upaść”?
- Sztuczna inteligencja (AI) stanowi zagrożenie dla całej ludzkości
- Złowieszcze ostrzeżenie z epicentrum sztucznej inteligencji
- Szkodliwa technologia sztucznej inteligencji – jak może zostać wykorzystana przeciwko Tobie
- Chcą, żebyś polegał na sztucznej inteligencji, żebyś stracił swoją naturalną inteligencję
- Plany Elona Muska dotyczące stworzenia „armii robotów”
- Chińskie siły zbrojne wykorzystują obecnie sztuczną inteligencję do przygotowania AUTONOMICZNYCH MASZYN WOJENNYCH
- Rewolucja robotyczna Amazona: Wyciekły dokumenty ujawniające plan zastąpienia 600 000 miejsc pracy do 2033 roku
- Ukryty koszt ekspansji sztucznej inteligencji: Woda, ziemia i energia odebrane społecznościom
- Chiński 10-letni plan dotyczący dystopii sztucznej inteligencji
- Albania mianuje bota sztucznej inteligencji ministrem ds. walki z korupcją
- Pilne wezwanie do przebudzenia: Nadchodzące wojny robotów AI i wielka jedność ludzkości













