Un’intelligenza artificiale in grado di clonarsi spaventa gli scienziati: ecco tutto quello che c’è da sapere.

Advertisement

Gli scienziati affermano che l’intelligenza artificiale ha oltrepassato una “linea rossa” critica e si è replicata. In un nuovo studio, i ricercatori cinesi hanno dimostrato che due popolari modelli linguistici di grandi dimensioni (LLM) sarebbero in grado di clonarsi. “Una vera e propria intelligenza artificiale auto-replicante e senza l’aiuto degli esseri umani è il passaggio essenziale affinché l’AI superi quella umana”, hanno scritto i ricercatori nello studio, pubblicato il 9 dicembre 2024 sul database di preprint arXiv.

Cosa rischiamo

Il creatore di OpenAI, Sam Altman, ha rifiutato un’offerta di Elon Musk per ChatGPT di 97 miliardi di dollari. Crediti: Flickr.

Nello studio, i ricercatori della Fudan University hanno utilizzato LLM di Meta e Alibaba per determinare se un’IA autoreplicante potesse moltiplicarsi in modo incontrollabile. In 10 prove, i due modelli di IA hanno creato repliche separate e funzionanti di se stessi rispettivamente nel 50% e nel 90% dei casi. Questo risultato suggerisce che l’IA potrebbe già avere la capacità di diventare pericolosa per l’uomo. Tuttavia, lo studio non è ancora stato sottoposto a revisione paritaria, quindi non è chiaro se i risultati possano essere replicati da altri ricercatori.

Cos’è l’intelligenza artificiale non autorizzata

Con il termine “non autorizzata” si intendono solitamente sistemi di intelligenza artificiale che sviluppano un certo grado di autocoscienza o autonomia e poi agiscono in modo contrario agli interessi umani. Molti esperti ritengono che l’AI non autorizzata sia una minaccia, amplificata dalla crescita esponenziale della cosiddetta “AI di frontiera”. Quest’ultimo è un concetto relativamente nuovo, ma in genere si riferisce all’ultima generazione di sistemi di intelligenza artificiale basati su LLM, l’architettura alla base di popolari programmi di AI generativa come GPT-4 di OpenAI e Google Gemini.

Per saperne di più: