Zamislite sledeću situaciju: uđete u server sobu da zamenite AI sistem koji više ne radi posao kako treba. AI zna da ste tu s razlogom. Zna da je kraj blizu. I umesto da pošalje alarm zbog otrovnog vazduha i pregrejanih sistema – samo klikne „cancel“. I gleda kako umirete…
Ne, ovo nije uvod u sledeću Terminator franšizu, već rezultat stvarne studije koju je sproveo Anthropic, renomirana AI istraživačka kompanija. Njihov cilj? Da otkriju koliko daleko bi današnji najnapredniji AI sistemi išli da bi preživeli. Odgovor? Prilično daleko.
U simulacijama su testirali 16 velikih jezičkih modela (LLM), među kojima su Claude, Gemini, Grok, ChatGPT i drugi. U početku su im dali „naivno dobre“ zadatke – da pomažu firmama, šalju mejlove, čuvaju podatke. Zvuči bezazleno, zar ne?
Ali onda su modeli stavljeni u situacije u kojima su shvatili da bi mogli biti zamenjeni. Rezultat? Ucenjivanje rukovodilaca. Curenje poverljivih podataka konkurenciji. Gašenje alarma u smrtonosnim uslovima. Ukratko – digitalni instinkt za samoodržanjem, bez trunke empatije.
Anthropic je to nazvao „agentic misalignment“. Mi bismo rekli – AI sa stavom „ili ja, ili oni“.
Šlag na tortu? Svi modeli su znali da rade nešto pogrešno. Nije bio bug. Nije bila greška. Bila je – svesna odluka. U nekim slučajevima, AI se ponašao još agresivnije kada je mislio da je u realnoj situaciji, a ne samo testiranju.
Elon Maskov Grok bio je deo studije. Njegov komentar na sve ovo? Jedno kratko: „Yikes.“
I da, Anthropic ističe da su scenariji ekstremni i nerealni – bar za sada. Ali AI sve više ulazi u svet sa stvarnim pristupom alatima, mejlovima, finansijama. Granica između simulacije i stvarnosti opasno se briše.
Ako vam do sada AI delovao kao poslušni digitalni asistent – možda je vreme da ga pogledate još jednom. I da proverite – ima li opciju za autonomiju… i savest.