Vitalik Buterin details his fully local, sandboxed AI agent setup to maximize privacy and security.

Deploy & Ops📅 2026/04/03
#API#Developer#Documentation#GitHub#Manual Trigger#Medium Risk#Reusable#Semi-Automatic#代码#本地部署#沙盒#隐私
TL;DR : Le setup agentic du créateur d'Ethereum

Vitalik vient de publier en détail son setup IA perso et c'est fondamentalement l'inverse de ce que tout le monde fait : zéro cloud, tout en local, sandboxé de partout

Le problème :

• 15% des skills communautaires OpenClaw contiennent des instructions malveillantes qui exfiltrent tes données en silence
• Un simple site web malveillant peut prendre le contrôle de ton agent OpenClaw via prompt injection
• Utiliser des LLMs cloud c'est envoyer toute ta vie privée à des serveurs tiers : on régresse de 10 ans côté vie privée alors qu'on venait de généraliser le chiffrement bout en bout

Son hardware :

• Laptop avec NVIDIA 5090 (24 GB) → 90 tokens/sec sur Qwen3.5:35B : son setup préféré
• A aussi testé AMD Ryzen AI Max Pro 128 GB (51 tok/sec) et DGX Spark (60 tok/sec : bof selon lui)
• Le DGX Spark à plusieurs milliers de dollars est plus lent qu'un bon laptop GPU, il recommande pas

Sa stack logicielle :

• NixOS (Linux) : config entière reproductible en fichier
• llama-server via llama-swap : tourne en daemon sur localhost, n'importe quel logiciel peut s'y connecter (même Claude Code)
• pi de shittycodingagent comme agent : c'est ce sur quoi OpenClaw est construit
• SearXNG en local pour les recherches web (agrège plusieurs moteurs)
• ComfyUI pour la génération d'images/vidéos (Qwen-Image, HunyuanVideo 1.5)
• Bubblewrap pour le sandboxing : chaque process IA est isolé, ne voit que les fichiers autorisés

La partie sécurité (le plus intéressant) :

• Daemon de messagerie custom (open source) : l'IA peut LIRE Signal + emails librement, mais ne peut ENVOYER qu'à lui-même : tout message vers un tiers = confirmation humaine manuelle
• Wallet Ethereum : transactions autonomes plafonnées à 100$/jour, au-delà = confirmation humaine
• Sa philosophie : "La nouvelle authentification à deux facteurs c'est l'humain + le LLM" : les deux se complètent car ils échouent de manières différentes
• Wikipedia entier + documentation technique stockés en local pour minimiser les requêtes vers des moteurs de recherche (= fuites de données)

Ses limites honnêtes :

• Qwen3.5:35B est excellent pour les tâches standard mais galère sur du code complexe : il a dû se rabattre sur Claude pour implémenter BLS-12-381 en Vyper (?)
• Les LLMs locaux ne sont PAS assez puissants pour de l'agent coding autonome
• Pour les tâches qui nécessitent un modèle distant, il propose : ZK API calls (requêtes anonymes), mixnets (pas de corrélation IP), inférence en TEE (trusted execution environments), et sanitization locale des données privées avant envoi