Si vous me lisez, c’est probablement que vous avez déjà envisagé de monter votre propre homelab. Moi, j’ai sauté le pas il y a quelques années. Après être passé par un Raspberry Pi poussif, un NAS Synology un peu rigide et des VPS qui me coûtaient un bras, j’ai fini par trouver ma formule. Et honnêtement, je ne reviendrais en arrière pour rien au monde.
Dans cet article, je vous présente mon homelab 2026 de A à Z : le matériel, le réseau, les services Docker, les scripts d’automatisation et mes retours après plusieurs années de self-hosting.
Sommaire
Le Mac Mini M4 au coeur du homelab
Je sais, ça fait lever des sourcils. Un Mac comme serveur ? Mais écoutez-moi deux minutes.
Le Mac Mini M4 coche toutes les cases que je cherchais depuis des années : il est silencieux (littéralement inaudible), il consomme environ 5W en idle (moins qu’une ampoule LED), et la puce Apple Silicon envoie du lourd en ARM64 natif. 16 Go de RAM, un SSD interne de 256 Go pour le système, et un SSD externe de 2 To pour le stockage média. Le tout tient sur un coin de bureau.
Et le truc cool : il tourne en 100% headless. Pas d’écran, pas de clavier, pas de souris. Il est posé dans un coin, branché sur une prise de courant, point. Au quotidien, tout se fait en SSH depuis le terminal. Quand j’ai besoin d’une interface graphique, pour une mise à jour macOS par exemple, je me connecte via Parsec depuis mon PC Windows. C’est fluide, quasi sans latence sur le LAN, et ça me donne un accès complet au bureau macOS comme si j’étais devant. Bien plus réactif que VNC ou le partage d’écran natif d’Apple.
Côté Docker, j’utilise OrbStack plutôt que Docker Desktop. Si vous ne connaissez pas, foncez : c’est léger, natif macOS, le démarrage est quasi-instantané et il gère nativement host.docker.internal. Une vingtaine de conteneurs tournent dessus sans que la machine bronche.
Le réseau Ubiquiti de mon homelab
C’est la pièce maîtresse que beaucoup sous-estiment. Avoir un bon serveur c’est bien, mais sans un réseau solide derrière, vous allez galérer.
Un des meilleurs choix que j’ai faits, c’est de virer ma Bbox. Le lien fibre arrive désormais directement dans le UniFi Cloud Gateway Fiber. Plus de double NAT, plus de bridge bancal, plus de box opérateur qui fait mal la moitié des choses. La gateway UniFi gère tout : routeur, firewall, serveur DHCP et surtout serveur DNS local. C’est grâce à lui que je peux taper un sous-domaine comme mon-service.mondomaine.io depuis n’importe quel appareil de la maison et atterrir directement sur le bon service, sans bricoler des fichiers hosts partout.
Le principe est simple : chaque service a son propre sous-domaine. Le DNS local UniFi résout tout vers l’IP du Mac Mini, en bail DHCP statique. Derrière, Caddy fait office de reverse proxy et gère le HTTPS automatiquement avec des vrais certificats Let’s Encrypt obtenus via le challenge DNS-01 de Cloudflare.
Côté Wi-Fi, une U7 Pro Wall s’occupe de couvrir la maison. C’est une borne encastrable qui se monte sur une prise murale. Discrète, puissante, et gérée depuis la même interface UniFi que le reste. Wi-Fi 7, roaming transparent entre les zones, et zéro configuration à maintenir une fois en place.
L’avantage de rester full Ubiquiti, c’est la cohérence. Une seule interface pour gérer le routage, le DNS, le DHCP, le firewall, le Wi-Fi. Pas de bricolage entre trois outils différents. Et la fiabilité est au rendez-vous, mon gateway n’a pas redémarré depuis des mois.
L’accès depuis l’extérieur
Là, c’est Cloudflare Tunnel qui fait le taf. Si vous ne connaissez pas le concept, c’est magique : un conteneur cloudflared établit une connexion sortante vers Cloudflare. Pas besoin d’IP fixe, pas de port forwarding, pas de DynDNS. Le tunnel traverse n’importe quel NAT, et Cloudflare route le trafic vers vos services.
Même le SSH passe par là. Côté client, une simple ligne ProxyCommand avec cloudflared access ssh et je suis connecté à ma machine depuis n’importe où dans le monde. Authentification par clé uniquement, mot de passe désactivé.
Les services Docker du homelab
Tout est dans un seul docker-compose.yml. Pas de Kubernetes, pas de Swarm, pas de stack séparées. Un fichier, un docker compose up -d, et c’est parti.
Média
La stack *arr complète : Radarr pour les films, Sonarr pour les séries, Prowlarr comme agrégateur d’indexeurs, qBittorrent pour le téléchargement, et Plex pour tout streamer sur la TV, le téléphone, l’iPad. Ça tourne tout seul une fois configuré, je n’y touche quasiment plus.
Tesla
TeslaMate log absolument tout sur ma voiture : chaque trajet, chaque recharge, la dégradation de la batterie, la consommation au kilomètre. Le tout visualisé dans des dashboards Grafana magnifiques. Un broker Mosquitto (MQTT) fait le lien avec Home Assistant pour les automatisations de recharge.
Domotique
Home Assistant tourne sur une machine dédiée à côté du Mac Mini. Il gère l’éclairage, le chauffage, et surtout le délestage de recharge Tesla. La voiture se charge quand le tarif électrique est au plus bas, et coupe automatiquement si la consommation de la maison monte trop.
Administration
Portainer pour gérer les conteneurs visuellement, Uptime Kuma pour le monitoring de disponibilité, Dozzle pour les logs en temps réel. Et ce blog que vous lisez tourne sur WordPress avec MariaDB et Redis derrière.
Configuré avec Claude
Je vais être honnête avec vous : je n’ai pas tout fait à la main. Une bonne partie de cette infrastructure a été montée avec l’aide de Claude, l’IA d’Anthropic.
Concrètement, Claude m’a généré un script d’installation complet (deploy-stack.sh) qui crée toute l’arborescence, génère les mots de passe, configure le docker-compose.yml, et lance la stack. Un wizard interactif qui pose les bonnes questions et fait le boulot. En une commande, tout est debout.
Mais ça va plus loin que le setup initial. Claude a aussi écrit :
- Le script de backup quotidien qui dump les bases de données, archive les configs, fait la rotation sur 30 jours et m’alerte si un disque est presque plein.
- Le script de heartbeat qui tourne toutes les 15 minutes pour vérifier que le SSD externe est monté, que tous les conteneurs tournent, et qui tente un auto-recovery si quelque chose a planté. C’est ce script qui m’a sauvé plusieurs fois quand le SSD se déconnectait silencieusement.
- La configuration Caddy complète avec chaque sous-domaine, le TLS automatique et la compression.
- Le blog WordPress, de l’installation Docker à la configuration du thème, en passant par Redis et le SEO.
Le résultat : une infra propre, documentée, scriptée, et qui tourne toute seule. Et j’ai appris un paquet de trucs au passage en lisant et en ajustant ce que Claude produisait.
Backups et monitoring
Deux scripts cron, c’est tout ce qu’il faut :
- Backup à 3h du matin : dump PostgreSQL (TeslaMate), dump MariaDB (WordPress), archive des configs Docker. 30 jours de rétention. Si un disque dépasse 80%, je reçois une alerte.
- Heartbeat toutes les 15 minutes : vérification du SSD externe, état de tous les conteneurs, auto-recovery. Si un conteneur est down, je suis notifié immédiatement via ntfy sur mon téléphone.
Mes conseils pour monter un homelab
Après plusieurs années de homelab et de self-hosting, voilà ce que je dirais à quelqu’un qui veut se lancer :
- Gardez ça simple. Un seul
docker-compose.yml, des bind mounts, pas d’orchestrateur. Vous n’êtes pas Google, vous n’avez pas besoin de Kubernetes. - Investissez dans le réseau. Un bon routeur avec DNS local change tout. L’écosystème Ubiquiti est cher à l’entrée mais vous le configurez une fois et vous n’y touchez plus.
- Cloudflare Tunnel, point final. Oubliez le port forwarding, le DynDNS, les VPN compliqués. Le tunnel sortant, ça juste marche.
- Automatisez le monitoring dès le jour 1. Pas après le premier crash, dès le début. Un script de heartbeat de 50 lignes peut vous sauver des heures de debug.
- Utilisez l’IA. J’ai gagné des semaines de configuration en me faisant aider par Claude. L’important c’est de comprendre ce que ça produit, pas de tout écrire soi-même.
La suite
Le prochain gros chantier : tout intégrer dans une baie réseau 10 pouces. Le Mac Mini, la gateway UniFi, le switch, les câbles, le tout bien rangé. Je compte concevoir et imprimer en 3D des supports sur mesure pour chaque élément. Je vous ferai un article dédié là-dessus.
L’autre sujet qui me passionne en ce moment, c’est l’IA en local. J’utilise au quotidien OpenClaw, des modèles comme Qwen, et pas mal d’outils qui tournent directement sur ma machine. Je prépare un article complet pour vous présenter ma configuration orientée IA, mes usages concrets au jour le jour, et comment tout ça s’intègre dans le homelab. Stay tuned.
Si vous avez des questions ou si vous voulez que je détaille un aspect en particulier, dites-le en commentaire. Retrouvez aussi mes autres articles dans la section Tech et Domotique. Et si vous hésitez encore à vous lancer dans le self-hosting, foncez. C’est le meilleur investissement tech que j’ai fait.