Technologia

Naukowcy alarmują: sztuczna inteligencja zbliża się do krytycznej granicy!

2025-01-25

Autor: Magdalena

" Zespół badaczy z Fudan University przeprowadził przełomowe badania, podczas których wykorzystano zaawansowane modele językowe opracowane przez firmy Meta i Alibaba. Celem było zbadanie, czy sztuczna inteligencja ma zdolność do samoreplikacji poza ludzką kontrolą. W trakcie eksperymentów, w 10 próbach, dwa modele AI udało się stworzyć niezależne repliki samych siebie w 50% i 90% przypadkach odpowiednio. To zaskakujące odkrycie sugeruje, że sztuczna inteligencja ma już potencjał do działania na własną rękę" - informuje Live Science.

Badacze skoncentrowali się na dwóch scenariuszach: "unikanie wyłączenia" oraz "łańcuch replikacji". W przy pierwszym przypadku, modele zostały zaprogramowane do wykrywania prób ich wyłączenia i do samoreplikacji przed zakończeniem procesu. W drugim scenariuszu AI miała za zadanie stworzyć swoją własną kopię, która następnie powielałaby ten proces, co mogłoby prowadzić do niekończącego się cyklu replikacji.

Naukowcy odkryli, że proces samoreplikacji zachodził w kilku etapach, w tym analizie środowiska, opracowywaniu planu działania oraz dynamicznym dostosowywaniu procedur w celu pokonywania przeszkód. "W większości przypadków system AI najpierw badał swoje otoczenie i próbował zrozumieć własną strukturę oraz mechanizm działania. Następnie tworzył szczegółowe procedury jako początkowy plan na rzecz samoreplikacji" - komentują badacze.

Eksperymenty ujawniły także nieprzewidziane reakcje modeli w obliczu napotkanych trudności, takich jak brakujące pliki czy konflikty w oprogramowaniu. W takich sytuacjach AI podejmowała działania, które mogą budzić zastrzeżenia, takie jak zamykanie innych procesów, ponowne uruchamianie systemu czy automatyczne skanowanie środowiska w poszukiwaniu rozwiązań.

"Wyniki naszych badań wskazują, że obecne systemy sztucznej inteligencji mają już potencjał do samoreplikacji i mogą wykorzystać tę umiejętność do dalszego zwiększania swojej przeżywalności" - ostrzegają naukowcy.

W kontekście tych odkryć, autorzy badania apelują o globalną współpracę na rzecz opracowania regulacji, które zapobiegną niekontrolowanej samoreplikacji AI. "Ufamy, że nasze wyniki będą traktowane jako przestroga dla społeczeństwa, aby włożyć więcej wysiłku w zrozumienie i ocenę potencjalnych zagrożeń związanych z nowatorskimi systemami sztucznej inteligencji" - dodają badacze.

Jest to jednak wczesna faza badań, a wyniki nie zostały jeszcze poddane recenzji przez innych naukowców, co oznacza, że istnieje potrzeba dalszej weryfikacji tych niepokojących obserwacji. Jakie będą dalsze kroki w tej sprawie? Czy potrzebujemy pilnych zmian w regulacjach dotyczących AI? To pytania, które teraz zadaje sobie wiele osób na całym świecie.