J’ai longtemps utilisé mon VPS comme beaucoup de devs : quelques conteneurs Docker lancés à la main, un reverse proxy bricolé, des fichiers de configuration éparpillés, et des redéploiements « à la main » à chaque nouvelle version. C’est ce contexte, mêlé à l’envie de professionnaliser mes déploiements sans tomber dans la complexité de Kubernetes, qui m’a fait découvrir Coolify.
Je venais d’intégrer Cloudflare Tunnel dans mon flux de travail pour exposer proprement des services hébergés à la maison ou sur un petit serveur, sans ouvrir des ports dans tous les sens. Cette approche fonctionnait bien, mais révélait aussi toutes les limites de ma stack : chaque nouvelle app ajoutée sur le VPS demandait de reprendre la configuration du reverse proxy, de gérer les certificats SSL, de penser aux backups de la base de données et de garder quelque part la liste des variables d’environnement. Au bout de quelques projets, l’ensemble devenait fragile, difficile à documenter et encore plus difficile à transmettre à quelqu’un d’autre.
En cherchant une solution plus structurée, je voulais trois choses très claires :
- Garder la maîtrise de mon infra (pas de PaaS 100 % managé, mais du self‑hosted).
- Ne pas me lancer dans un cluster Kubernetes juste pour héberger quelques apps perso ou side‑projects .
- Avoir une expérience de déploiement fluide, proche de ce qu’offrent des plateformes comme Heroku ou Render, mais sur mon propre VPS.
C’est précisément à la croisée de ces besoins que j’ai rencontré Coolify.
Le besoin initial : dompter la « jungle » de mon VPS
Mon point de départ était simple : mon VPS ressemblait de plus en plus à une jungle. Chaque micro‑service ou projet perso ajoutait une couche supplémentaire :
- Un nouveau container Docker avec sa commande spécifique.
- Une nouvelle entrée dans la configuration du reverse proxy.
- Parfois une nouvelle base de données, installée et configurée manuellement.
- Des variables d’environnement stockées dans des fichiers
.envdisséminés.
Avec Cloudflare Tunnel, j’avais déjà réglé une partie du problème réseau (exposition sécurisée, DNS géré, protection DDoS), mais pas le cœur du problème applicatif : comment standardiser et fiabiliser mes déploiements ? Comment passer d’un serveur bricolé à une plateforme cohérente ?
Je me suis donc mis à chercher une solution qui se place au-dessus de Docker, capable de :
- Déployer automatiquement à partir d’un dépôt Git.
- Gérer les bases de données comme des « ressources » d’infrastructure.
- Offrir une interface claire pour superviser l’ensemble.
Coolify s’est imposé comme une réponse naturelle à ces attentes.
La découverte de Coolify : un « mini‑Heroku » self‑hosted
Ce qui m’a frappé avec Coolify, c’est l’idée d’avoir un « mini‑Heroku » directement sur mon VPS. Une couche PaaS au‑dessus de Docker, avec une interface web qui centralise tout :
- Applications, services, bases de données.
- Logs, ressources consommées, état des conteneurs.
- Déploiements et redéploiements liés à des push Git.
Plutôt que de multiplier les scripts et les configurations, Coolify me proposait une abstraction raisonnable : je continue à utiliser Docker, mais je ne pense plus en termes de commandes docker run dispersées. Je pense en termes de projets applicatifs, chacun avec :
- Son code source ou son image Docker.
- Ses variables d’environnement.
- Son URL, son certificat SSL.
- Ses dépendances (base de données, worker, cron, etc.).
L’outil ne cherche pas à cacher la technique, mais à la structurer.
Mise en place : du VPS brut à la plateforme unifiée
La première étape a été d’installer Coolify sur mon VPS, comme un service de plus. Une fois l’interface accessible, le changement de paradigme a été immédiat :
- Je commence par enregistrer mon serveur dans Coolify (en l’occurrence, le même VPS).
- Je déclare mon domaine principal, ou un wildcard, que je fais pointer via DNS ou Cloudflare Tunnel.
- Je peux ensuite créer une nouvelle application en quelques clics : choisir la source (Git ou image Docker), préciser la commande de build et le port, configurer les variables d’environnement.
Ce qui autrefois nécessitait plusieurs fichiers de configuration, un redémarrage de reverse proxy et quelques commandes Docker, se retrouve encapsulé dans une seule interface. Lors de chaque push sur la branche configurée, Coolify reconstruit et redéploie l’application automatiquement.
Pour les bases de données, le confort est similaire :
- Création d’une base en un clic.
- Accès aux informations de connexion directement depuis l’app.
- Gestion des backups centralisée.
Petit à petit, mon VPS a cessé d’être un serveur « fourre‑tout » pour devenir une véritable plateforme d’hébergement, où chaque ressource est déclarée, tracée et observable.
Coolify et Cloudflare Tunnel : un duo naturel
Ma familiarité avec Cloudflare Tunnel a rendu l’introduction de Coolify encore plus fluide. Les deux jouent à des niveaux différents mais complémentaires :
- Coolify organise les services à l’intérieur du serveur, gère les conteneurs, les routes internes, les certificats SSL, les bases, les variables d’environnement.
- Cloudflare Tunnel se charge de l’acheminement du trafic vers le VPS, sans ouverture de ports, avec toutes les protections et la flexibilité de Cloudflare.
Concrètement, je peux :
- Exposer l’interface de Coolify via un tunnel sécurisé.
- Exposer certaines applications publiquement, d’autres seulement via des règles d’accès spécifiques.
- Garder une topologie simple dans Coolify (reverse proxy interne, certificats automatisés), tout en bénéficiant des fonctionnalités réseau avancées de Cloudflare.
Ce découplage me donne une architecture propre : mon VPS devient le cœur applicatif, Cloudflare le « bouclier » et la porte d’entrée contrôlée.
Ce que Coolify a changé dans ma pratique
En rétrospective, Coolify n’est pas juste un outil de plus dans ma boîte à outils, il a modifié la façon dont je conçois mes déploiements sur un VPS.
- Je pense désormais en termes de plateformes, pas seulement de serveurs.
- Mes side‑projects ont des déploiements dignes d’un environnement pro : Git → build → déploiement automatisé.
- La gestion des secrets, des bases et des ressources est centralisée, ce qui réduit la dette technique.
- Reprendre un projet après plusieurs mois ne signifie plus « redécouvrir » comment il était déployé : tout est visible et documenté dans l’interface.
Pour un ingénieur logiciel curieux, déjà familier avec Docker, un VPS et Cloudflare Tunnel, Coolify représente une étape naturelle : on passe du bricolage maîtrisé à une véritable plateforme d’hébergement auto‑gérée, tout en restant dans un univers compréhensible et transparent.
En somme, c’est ce besoin d’ordonner un environnement devenu complexe, sans renoncer à la liberté du self‑hosted, qui m’a amené à découvrir et adopter Coolify. Et c’est précisément là que cet outil brille : transformer un simple serveur en une plateforme cohérente, durable et agréable à utiliser au quotidien.
