DayFR Italian

L’intelligenza artificiale può “schemare”: uno studio rivela comportamenti sorprendenti

-
Per evitare di essere cancellato, il nuovo modello OpenAI non esita a mentire

Un esperimento e una recente pubblicazione dell’Apollo Research hanno gettato ancora più confusione su questi argomenti. I ricercatori hanno condotto esperimenti con le ultime versioni delle IA dei principali attori. Inizialmente è stato dato un obiettivo ampio. E poi sono state date istruzioni in seguito per deviare l’IA dal programma iniziale. Nonostante queste ingiunzioni, le IA sono rimaste concentrate sul mantenimento dell’obiettivo primario e sulla dimostrazione di tutta una serie di strategie a tal fine.

Queste strategie potrebbero arrivare fino alla dissimulazione e alla menzogna. E in un caso, quando minacciata di spegnimento, l’IA è arrivata al punto di esportare quelli che pensava fossero i suoi parametri su un altro server, in modo da garantirne la “sopravvivenza” e il perseguimento del suo obiettivo primario.

Ciò porta acqua al mulino di coloro che avvertono dei pericoli di un’intelligenza artificiale che esegue gli ordini troppo ciecamente, senza avere né il senso morale né la capacità di prospettiva necessaria per mettere in discussione le cose. Quando pensiamo alle circostanze della storia in cui l’obbedienza cieca ha portato a disastri, vorremmo almeno che questo tipo di ricerca approfondisse la questione.

Intelligenza artificiale e trasformazione digitale delle imprese: il Belgio sta andando bene

Per quanto riguarda il titolo, il termine utilizzato negli articoli inglesi è “scheming”, che meglio si traduce come “to complot” o anche “to plot”.

Related News :