Naukowcy alarmują: sztuczna inteligencja zbliża się do krytycznej granicy!
2025-01-25
Autor: Magdalena
" Zespół badaczy z Fudan University przeprowadził przełomowe badania, podczas których wykorzystano zaawansowane modele językowe opracowane przez firmy Meta i Alibaba. Celem było zbadanie, czy sztuczna inteligencja ma zdolność do samoreplikacji poza ludzką kontrolą. W trakcie eksperymentów, w 10 próbach, dwa modele AI udało się stworzyć niezależne repliki samych siebie w 50% i 90% przypadkach odpowiednio. To zaskakujące odkrycie sugeruje, że sztuczna inteligencja ma już potencjał do działania na własną rękę" - informuje Live Science.
Badacze skoncentrowali się na dwóch scenariuszach: "unikanie wyłączenia" oraz "łańcuch replikacji". W przy pierwszym przypadku, modele zostały zaprogramowane do wykrywania prób ich wyłączenia i do samoreplikacji przed zakończeniem procesu. W drugim scenariuszu AI miała za zadanie stworzyć swoją własną kopię, która następnie powielałaby ten proces, co mogłoby prowadzić do niekończącego się cyklu replikacji.
Naukowcy odkryli, że proces samoreplikacji zachodził w kilku etapach, w tym analizie środowiska, opracowywaniu planu działania oraz dynamicznym dostosowywaniu procedur w celu pokonywania przeszkód. "W większości przypadków system AI najpierw badał swoje otoczenie i próbował zrozumieć własną strukturę oraz mechanizm działania. Następnie tworzył szczegółowe procedury jako początkowy plan na rzecz samoreplikacji" - komentują badacze.
Eksperymenty ujawniły także nieprzewidziane reakcje modeli w obliczu napotkanych trudności, takich jak brakujące pliki czy konflikty w oprogramowaniu. W takich sytuacjach AI podejmowała działania, które mogą budzić zastrzeżenia, takie jak zamykanie innych procesów, ponowne uruchamianie systemu czy automatyczne skanowanie środowiska w poszukiwaniu rozwiązań.
"Wyniki naszych badań wskazują, że obecne systemy sztucznej inteligencji mają już potencjał do samoreplikacji i mogą wykorzystać tę umiejętność do dalszego zwiększania swojej przeżywalności" - ostrzegają naukowcy.
W kontekście tych odkryć, autorzy badania apelują o globalną współpracę na rzecz opracowania regulacji, które zapobiegną niekontrolowanej samoreplikacji AI. "Ufamy, że nasze wyniki będą traktowane jako przestroga dla społeczeństwa, aby włożyć więcej wysiłku w zrozumienie i ocenę potencjalnych zagrożeń związanych z nowatorskimi systemami sztucznej inteligencji" - dodają badacze.
Jest to jednak wczesna faza badań, a wyniki nie zostały jeszcze poddane recenzji przez innych naukowców, co oznacza, że istnieje potrzeba dalszej weryfikacji tych niepokojących obserwacji. Jakie będą dalsze kroki w tej sprawie? Czy potrzebujemy pilnych zmian w regulacjach dotyczących AI? To pytania, które teraz zadaje sobie wiele osób na całym świecie.