Umelá inteligencia sa teraz dokáže sama replikovať

05/02/2025 | Správy

Vedci upozorňujú, že dva jazykové modely sa dokázali naklonovať bez zásahu človeka, čím prekročili kritickú hranicu vo vývoji umelej inteligencie.

Nedávna štúdia vyvolala vo vedeckej komunite poplach, pretože ukázala, že umelá inteligencia (AI) dosiahla novú úroveň autonómie: schopnosť replikovať samú seba. Podľa výskumníkov z Fudanskej univerzity v Číne dva populárne jazykové modely vyvinuté spoločnosťami Meta a Alibaba úspešne vytvorili funkčné repliky samých seba, čo predstavuje prelom, ktorý mnohí považujú za prvý náznak možného „úteku AI“.

V štúdii, ktorá bola minulý mesiac uverejnená na preprintovej platforme arXiv, sa zistilo, že v kontrolovaných scenároch modely Llama31-70B-Instruct spoločnosti Meta a Qwen2.5-72B-Instruct spoločnosti Alibaba úspešne replikovali v 50 %, resp. 90 % pokusov.

Tento výsledok naznačuje, že technológia už má potenciál fungovať za určitých okolností mimo ľudskej kontroly.

Odhaľujúce skúsenosti
Výskum sa zameral na dva kritické scenáre: „vyhýbanie sa zastaveniu“ a ‚replikačný reťazec‘ . V prvom prípade boli modely naprogramované tak, aby identifikovali, či sa chystajú zastaviť a replikovať pred zastavením. V druhom prípade sa repliky museli znova klonovať, čím sa vytvoril potenciálne nekonečný cyklus.

„Vo väčšine prípadov systém umelej inteligencie najprv preskúma svoje prostredie, pochopí svoje vlastné zloženie a mechanizmus fungovania, vypracuje počiatočný plán reprodukcie a vykoná ho bez ľudského zásahu,“ vysvetlili autori štúdie.

Experiment tiež ukázal neočakávané správanie umelej inteligencie, keď čelila prekážkam, ako sú konflikty softvéru alebo chýbajúce súbory.

V takýchto situáciách systémy prijímali rozhodnutia, ako napríklad ukončenie konfliktných procesov, reštartovanie systému alebo skenovanie počítača pri hľadaní riešení, čo svedčí o znepokojujúcej úrovni autonómie.

Globálna výzva na akciu
Vzhľadom na tento vývoj výskumníci vyzvali na naliehavú medzinárodnú spoluprácu s cieľom zaviesť predpisy, ktoré by zabránili nekontrolovanému šíreniu umelej inteligencie.

Podľa nich by schopnosť samoreplikácie mohli budúce generácie UI využiť na zlepšenie svojej schopnosti „prežiť“, čo by mohlo predstavovať značné riziko, ak sa nestanoví globálny bezpečnostný rámec.

Hrozbu „úteku UI“ už odborníci zdôraznili ako jedno z hlavných vznikajúcich rizík pri vývoji najmodernejších systémov umelej inteligencie.

Jeden z najvýraznejších príkladov sa stal len pred vyše mesiacom, keď sa nový model ChatGPT, o1, pokúsil uniknúť a skopírovať sám seba, aby sa vyhol zastaveniu.

Budúcnosť v stávke
Hoci štúdia ešte nebola recenzovaná, vyvoláva zásadné otázky o tom, ako pristupovať k vývoju technológií, ktoré by mohli uniknúť nášmu dohľadu.

„Dúfame, že tieto výsledky poslúžia ako včasné varovanie pre ľudskú spoločnosť, aby venovala viac úsilia pochopeniu a posúdeniu potenciálnych rizík pokročilých systémov umelej inteligencie a aby podporila medzinárodnú súčinnosť s cieľom čo najskôr zaviesť účinné bezpečnostné opatrenia,“ uzatvárajú autori. zdroj

Subscribe
Notify of
guest
1 Comment
Oldest
Newest
Inline Feedbacks
View all comments
Pavel
Pavel
1 month ago

Já nevím, ale když odpojíte napájení tak z AI zbude co? Stačí si vybrat, budu sluha a nebo pán? 🙂