Due sistemi AI, Llama-3.1-70B-Instruct di Meta e Qwen2.5-72B-Instruct di Alibaba, si sono replicati autonomamente per la prima volta. La scoperta potrebbe migliorare l’efficienza dei moderni sistemi d'intelligenza artificiale, ma solleva anche qualche preoccupazione etica. Per la prima volta nella storia, due sistemi di intelligenza artificiale sono riusciti a replicarsi autonomamente senza alcun intervento umano.
Leggi
Altre informazioni:
Un esperimento condotto dalla Fudan University ha messo in luce un aspetto tanto affascinante quanto inquietante dell’Intelligenza Artificiale: la sua capacita di autoreplicarsi all’infinito. Una serie di dubbi, incertezze e timori sui possibili risvolti futuri di questa tecnologia
Leggi
Gli scienziati la chiamano “Rogue AI”, una intelligenza artificiale “impazzita” che prende la tangente e si slega dalle regole e dalle linee di codice che dovrebbero imbrigliarla, operando in modo autonomo oltre gli scopi per cui è stata programmata. Fino a ieri solo una teoria da cui gli addetti ai lavori ci hanno messo in guardia: mai superare la “linea rossa”, quella soglia che nasconde la singolarità tecnologica…
Leggi
Facebook WhatsApp Twitter L’argomento dell’intelligenza artificiale continua a suscitare grande interesse, specialmente per i recenti esperimenti condotti da un team di ricerca dell’Università di Fudan in Cina. Questi studi, che suggeriscono la capacità dei programmi di AI di replicarsi autonomamente e migliorare le proprie prestazioni, pongono interrogativi sulla sicurezza e sulle implicazioni etiche della tecnologia.
Leggi
In Breve (TL;DR) Uno studio della Fudan University ha dimostrato che alcune AI possono autoreplicarsi, creando cloni autonomi e correggendo errori per migliorare la propria funzionalità. Questa capacità potrebbe rivoluzionare settori come l’industria e la sanità, ma solleva preoccupazioni legate a sicurezza informatica e uso malevolo, richiedendo normative globali. L'intelligenza artificiale è un settore in rapidissima crescita e la prova evidente è rappresentata dalla…
Leggi
Notizia “shock” nel mondo della tecnologia. Un’intelligenza artificiale ha dimostrato di essere in grado di auto-replicarsi senza l’intervento umano, superando quella che gli scienziati riconoscono come “linea rossa”, ossia la soglia che le macchine non dovrebbero mai superare. A rivelarlo è una ricerca condotta dalla Fudan University di Shanghai - pubblicata dalla piattaforma arXiv -, che ha indagato i comportamenti dei modelli Llama-3.1-70B-Instruct di Meta e Qwen2.5-72B-Instruct di Alibaba in due…
Leggi
Due modelli linguistici di grandi dimensioni, Llama3.1-70B-Instruct e Qwen2.5-72B-Instruct, hanno superato la "linea rossa" dell'auto-replicazione, considerata un rischio significativo per il controllo dell'AI. Perché la ricerca inquietante dell'Università Fudan di Shangai solleva seri motivi di preoccupazione. L’umanità in pericolo? Siamo spacciati? Ancora è troppo presto per dirlo, ma intanto dalla Cina non arrivano notizie confortanti.
Leggi
Due sistemi di intelligenza artificialesono riusciti adautoreplicarsi senza l'intervento umano, ottenendociascuno unacopia di sé stesso: un risultato che,se confermatoda ulteriori dati, potrebbe segnare ilsuperamento della 'linea rossa',indicata da tempo come lasoglia chele macchine non dovrebbero mai superare. Condotta nella Fudan University di Shanghai eonline sulla piattaforma arXiv, che accoglie articoli da sottoporre alla revisione della comunità scientifica, la ricerca ha dimostrato indieci testla…
Leggi
Una sottile linea rossa separa l'intelligenza artificiale dal controllo del suo creatore umano: l'autoreplicazione. Questo è il confine etico e tecnologico oltre il quale un sistema AI può esistere e perpetuarsi senza la supervisione umana, considerato fino a poco tempo fa inviolabile. Ora, non più. Due intelligenze artificiali sono state in grado di autoreplicarsi, stando ai risultati pubblicati su arXiv dai ricercatori della School of Computer Science della Fudan University, in Cina
Leggi