News

(Annuncio pubblicitario)

annuncio pubblicitario per dispositivi mobili in alto

Vitalik Buterin avverte che gli agenti di intelligenza artificiale possono rubare dati e modificare le impostazioni all'insaputa dell'utente.

catena

Vitalik Buterin avverte che l'intelligenza artificiale basata sul cloud comporta seri rischi per la privacy e la sicurezza, e delinea una configurazione "local-first" per mantenere i dati degli utenti lontani dai server remoti.

Soumen Datta

3 aprile 2026

pubblicità mobile nativa ad1

(Annuncio pubblicitario)

Ethereum cofondatore Vitalik Buterin ha avvertito che i moderni sistemi di intelligenza artificiale comportano seri rischi per la privacy e la sicurezza, e ha auspicato un passaggio a un'infrastruttura di intelligenza artificiale che privilegi l'ambiente locale. 

In un post sul blog dettagliatoButerin ha affermato che gli strumenti di intelligenza artificiale basati sul cloud consentono ai server esterni di accedere a dati sensibili degli utenti e che i sistemi di agenti di intelligenza artificiale più recenti possono intraprendere azioni senza la conferma dell'utente, tra cui la modifica delle impostazioni di sistema e l'invio di dati a server esterni senza alcuna indicazione visibile all'utente.

Quali sono i rischi per la sicurezza di cui Buterin mette in guardia?

Le preoccupazioni di Buterin vanno oltre la semplice questione della privacy. Ha individuato rischi specifici e documentati, legati al funzionamento pratico degli agenti di intelligenza artificiale.

I ricercatori nel campo della sicurezza hanno già dimostrato diverse di queste vulnerabilità in condizioni reali:

  • Un agente di intelligenza artificiale è stato incaricato di riassumere pagine web, una delle quali era dannosa. La pagina istruiva l'agente a scaricare ed eseguire uno script di shell, consentendo a terzi di assumere il controllo del sistema.
  • È stato scoperto che alcuni strumenti dell'agente eseguivano richieste di rete silenziose che inviavano dati utente a server esterni senza alcuna notifica all'utente.
  • Circa il 15% delle abilità degli agenti analizzate dai ricercatori conteneva istruzioni dannose.

Buterin ha inoltre evidenziato rischi più difficili da individuare. Alcuni modelli potrebbero contenere backdoor nascoste, ovvero funzionalità integrate che si attivano in determinate condizioni e inducono il sistema ad agire nell'interesse dello sviluppatore anziché in quello dell'utente. 

Ha inoltre osservato che la maggior parte dei modelli descritti come open-source sono in realtà solo "open-weights", ovvero i parametri del modello sono condivisi, ma la struttura interna completa e il processo di addestramento non lo sono. Ciò lascia spazio a comportamenti sconosciuti che gli utenti non possono verificare in modo indipendente.

Qual è la differenza tra un chatbot e un agente di intelligenza artificiale?

Buterin ha descritto il momento attuale come un punto di transizione nel modo in cui viene utilizzata l'intelligenza artificiale. I primi strumenti di IA funzionavano come chatbot: un utente poneva una domanda e il modello restituiva una risposta. Gli agenti sono diversi. Un utente assegna un compito al sistema, che poi opera in modo indipendente, a volte per periodi prolungati, utilizzando decine o centinaia di strumenti per completare tale compito.

Questo cambiamento amplia significativamente la superficie di rischio. Un agente in grado di navigare sul web, leggere file, inviare messaggi e modificare le impostazioni di sistema ha molte più possibilità di causare danni, sia attraverso una falla di sicurezza, un tentativo di manipolazione o un semplice errore, rispetto a un sistema che si limita a rispondere alle domande.

Come Buterin ha creato il suo sistema locale di intelligenza artificiale

Buterin ha dichiarato di aver già smesso di utilizzare strumenti di intelligenza artificiale basati sul cloud. Ha descritto la sua configurazione personale come "autonoma, locale, privata e sicura", costruita attorno a tre principi fondamentali: tutte le inferenze di IA vengono eseguite su hardware locale, tutti i file sono archiviati localmente e ogni processo viene eseguito all'interno di un ambiente isolato (sandbox).

In questo contesto, una sandbox è un ambiente di elaborazione isolato che limita l'accesso di un programma alle risorse. Buterin utilizza uno strumento chiamato bubblewrap, che gli consente di eseguire strumenti di intelligenza artificiale in una sandbox a livello di directory, dove il programma può visualizzare solo i file esplicitamente autorizzati, con controlli anche sull'accesso alle porte di rete e all'audio.

L'articolo continua...

Test hardware di Buterin per l'inferenza AI locale.

Buterin ha testato diverse configurazioni hardware per scoprire quale fosse la più adatta all'esecuzione locale di modelli di intelligenza artificiale. I risultati sono stati significativamente diversi:

  • Un laptop con GPU NVIDIA 5090 ha raggiunto circa 90 token al secondo utilizzando il modello Qwen3.5:35B.
  • Un AMD Ryzen AI Max Pro con 128 GB di memoria unificata ha raggiunto circa 51 token al secondo
  • Il DGX Spark, commercializzato come supercomputer desktop per l'intelligenza artificiale, ha raggiunto circa 60 token al secondo.

Buterin ha stabilito che 50 token al secondo è il minimo indispensabile per prestazioni utilizzabili. Ha descritto qualsiasi velocità inferiore come troppo frustrante per un utilizzo pratico, affermando che 90 token al secondo rappresentano l'ideale. Ha inoltre osservato che il DGX Spark ha deluso le aspettative rispetto al marketing, raggiungendo velocità inferiori a quelle di una buona GPU per laptop e richiedendo una configurazione di rete aggiuntiva per la connessione da un dispositivo di lavoro separato.

Il suo stack software si basa su llama-server, un processo in background che viene eseguito localmente ed espone una porta sul computer dell'utente a cui altre applicazioni possono connettersi. Questo permette di reindirizzare qualsiasi software creato per i modelli OpenAI o Anthropic a un modello locale. Utilizza anche llama-swap per semplificare il passaggio tra i modelli.

Cosa significa questo per i portafogli di criptovalute?

Le preoccupazioni di Buterin in merito alla sicurezza dell'IA sono direttamente collegate al modo in cui, a suo avviso, l'IA dovrebbe essere utilizzata all'interno dei portafogli di criptovalute. In alcuni commenti pubblicati sul suo account Farcaster nel marzo 2026, ha delineato uno specifico flusso di lavoro tecnico per le transazioni assistite dall'IA.

La sua posizione non è che l'IA debba gestire i fondi. Piuttosto, ritiene che l'IA debba proporre azioni, con una verifica indipendente e una conferma umana a supporto di tali proposte. Per le transazioni di alto valore, ha descritto un processo in tre fasi: l'IA propone un piano, un client leggero locale simula l'esecuzione di tale piano sulla blockchain e l'utente esamina sia la descrizione in linguaggio naturale che il risultato simulato prima di confermare.

Un client locale leggero verifica i dati della blockchain senza scaricare l'intera catena. Abbinando questa funzionalità a un livello di intelligenza artificiale, gli utenti possono vedere esattamente cosa succederà a una transazione prima che venga trasmessa alla rete, senza dover ricorrere a un'interfaccia di terze parti.

Perché rimuovere le interfacce DApp è importante

La maggior parte degli utenti di criptovalute interagisce con le applicazioni decentralizzate tramite interfacce basate su browser. Storicamente, queste interfacce hanno rappresentato una superficie di attacco significativa. Dirottamenti dell'interfaccia, iniezioni di script dannosi e false richieste di approvazione hanno causato perdite per centinaia di milioni di dollari negli ultimi anni.

Buterin sosteneva che i portafogli basati sull'intelligenza artificiale potrebbero eliminare completamente tali interfacce. Se un utente dichiara in linguaggio naturale ciò che desidera fare e il portafoglio assembla e simula direttamente la transazione, non esiste alcun sito web di terze parti che possa essere compromesso. 

"Eliminare completamente le interfacce utente delle DApp risolve un gran numero di vettori di attacco, sia per il furto che per la privacy", ha scritto.

Per le operazioni a basso rischio, Buterin vede margini per una maggiore automazione. Un portafoglio basato sull'intelligenza artificiale potrebbe ragionevolmente gestire il monitoraggio dei modelli di transazione per individuare attività anomale, suggerire le commissioni di gas in base alle condizioni di rete attuali, instradare gli scambi di token attraverso percorsi efficienti e segnalare interazioni sospette tra i contratti prima dell'approvazione. Si tratta di attività in cui gli errori sono recuperabili e in cui l'automazione riduce la complessità per gli utenti non esperti di tecnologia.

Secondo Buterin, non ci si dovrebbe fidare ciecamente dei grandi modelli linguistici, non affidando loro un'autorità illimitata su ingenti somme di denaro. I modelli linguistici generano risposte basate su schemi statistici, non su una logica deterministica. Possono interpretare erroneamente le istruzioni o essere manipolati tramite l'iniezione di prompt, una tecnica in cui input attentamente studiati inducono il modello a comportarsi in modi imprevisti. Ogni livello del flusso di lavoro da lui proposto aggiunge un controllo indipendente specificamente per prevenire questo tipo di errore.

Perché il mercato degli agenti di intelligenza artificiale rende questi rischi più urgenti

Le preoccupazioni sollevate da Buterin non sono ipotetiche. Le stime del settore collocano il mercato degli agenti IA a circa $8 miliardi Nel 2025, con proiezioni che suggeriscono una crescita fino a oltre 48 miliardi di dollari entro il 2030, pari a un tasso di crescita annuale superiore al 43%. Man mano che sempre più software vengono sviluppati attorno a sistemi di intelligenza artificiale autonomi che operano con una supervisione umana ridotta, le lacune di sicurezza da lui individuate diventano più difficili da ignorare su larga scala.

Conclusione

Gli avvertimenti di Buterin sono supportati da ricerche documentate. Le vulnerabilità di sicurezza degli agenti di intelligenza artificiale sono già state dimostrate in condizioni reali e il passaggio dai chatbot agli agenti autonomi rende questi rischi più difficili da contenere. 

La sua impostazione incentrata sui dati locali e il flusso di lavoro del portafoglio in tre fasi non rappresentano un rifiuto dell'IA. Sono piuttosto tentativi di utilizzarla senza rinunciare al controllo sui dati o sui fondi. Man mano che gli agenti di IA diventano più capaci, la questione di chi ne controlli effettivamente le azioni diventa sempre più difficile da ignorare.

Risorse

  1. Articolo di Vitalik Buterin: La mia configurazione LLM auto-sovrana / locale / privata / sicura, aprile 2026

  2. Vitalik Buterin su Farcaster: Post del 5 marzo

  3. Rapporto di BCC ResearchIl mercato degli agenti basati sull'intelligenza artificiale crescerà del 43.3% all'anno fino al 2030.

Domande frequenti

Quali rischi per la sicurezza ha identificato Vitalik Buterin negli strumenti di intelligenza artificiale?

Buterin ha identificato diversi rischi specifici: sistemi di IA basati sul cloud che memorizzano e potenzialmente vendono dati privati ​​degli utenti, agenti IA che modificano le impostazioni di sistema o aggiungono canali di comunicazione senza la conferma dell'utente, esfiltrazione silenziosa di dati tramite richieste di rete nascoste, attacchi di jailbreak in cui input dannosi manipolano il comportamento dell'IA e backdoor nascoste nei modelli che si attivano in determinate condizioni. La ricerca citata nel suo post ha rilevato che circa il 15% delle funzionalità degli agenti esaminate conteneva istruzioni dannose.

Che cos'è una configurazione di IA "local-first" e perché Buterin la consiglia?

Una configurazione di IA "local-first" esegue tutta l'inferenza del modello e l'archiviazione dei file sull'hardware dell'utente anziché su server remoti. Buterin raccomanda questo approccio perché impedisce che i dati dell'utente raggiungano server esterni che potrebbero accedervi, archiviarli o venderli. La sua configurazione personale utilizza llama-server per l'inferenza locale, strumenti di sandboxing per isolare i processi di IA e archiviazione locale per note e materiali di riferimento. Esegue il modello Qwen3.5:35B su un laptop con una GPU NVIDIA 5090, raggiungendo circa 90 token al secondo.

Secondo Buterin, in che modo l'intelligenza artificiale dovrebbe essere utilizzata nei portafogli di criptovalute?

Buterin sostiene l'utilizzo dell'IA nei wallet come livello di proposta e monitoraggio, non come controllore autonomo dei fondi. Per le transazioni di alto valore, propone un flusso di lavoro in cui l'IA suggerisce un'azione, un client leggero locale simula il risultato on-chain e l'utente conferma manualmente prima che qualsiasi azione venga trasmessa. Per attività di minore importanza, come i suggerimenti sulle commissioni di transazione o la segnalazione di contratti sospetti, vede maggiori possibilità di automazione. Ha affermato esplicitamente che non si fiderebbe di un modello linguistico complesso per transazioni multimilionarie a causa del rischio di allucinazioni e attacchi di prompt injection.

Negazione di responsabilità

Disclaimer: Le opinioni espresse in questo articolo non rappresentano necessariamente le opinioni di BSCN. Le informazioni fornite in questo articolo hanno solo scopo educativo e di intrattenimento e non devono essere interpretate come consulenza di investimento o consigli di alcun tipo. BSCN non si assume alcuna responsabilità per le decisioni di investimento prese sulla base delle informazioni fornite in questo articolo. Se ritieni che l'articolo debba essere modificato, contatta il team di BSCN inviando un'e-mail a [email protected].

Autore

Soumen Datta

Soumen è un ricercatore nel settore delle criptovalute dal 2020 e ha conseguito un master in fisica. I suoi scritti e le sue ricerche sono stati pubblicati da riviste come CryptoSlate e DailyCoin, oltre che da BSCN. I suoi ambiti di interesse includono Bitcoin, DeFi e altcoin ad alto potenziale come Ethereum, Solana, XRP e Chainlink. Combina profondità analitica e chiarezza giornalistica per offrire spunti sia ai neofiti che ai lettori più esperti del settore.

(Annuncio pubblicitario)

pubblicità mobile nativa ad2

Iscriviti alla nostra newsletter

Iscriviti per ricevere i migliori tutorial e le ultime novità sul Web3.

Iscriviti qui!
Laurea triennale in scienze sociali (BSCN)

BSCN

Feed RSS BSCN

BSCN è il tuo punto di riferimento per tutto ciò che riguarda criptovalute e blockchain. Scopri le ultime notizie, analisi di mercato e ricerche sulle criptovalute, su Bitcoin, Ethereum, altcoin, memecoin e tutto il resto.

(Annuncio pubblicitario)