load balancer logo

Load Balancer

Distribuez votre trafic de manière dynamique pour augmenter l’évolutivité de votre application

Le Load Balancer vous permet d’assurer plus facilement l’évolutivité, la haute disponibilité et la résilience de vos applications. Cela passe par un équilibrage dynamique de la charge de trafic sur plusieurs instances réparties dans différentes régions. Offrez à vos utilisatrices et utilisateurs une expérience optimale en gérant automatiquement le trafic variable et les pics de charge, tout en maîtrisant les coûts. En combinant notre Load Balancer avec Gateway et une IP flottante, vous pouvez mettre en place une solution faisant office de point d’entrée unique à votre application. Cette solution sécurise l’exposition de vos ressources privées et prend en charge les basculements.

Conçus pour offrir une haute disponibilité

Le Load Balancer repose sur une architecture distribuée et est garanti par un engagement de niveau de service de 99,99 %. En tirant parti de sa capacité de contrôle d'intégrité, le Load Balancer répartit la charge sur les instances disponibles.

Created with Sketch.

Conçu pour un déploiement automatisé

Choisissez la taille qui correspond à vos besoins. Configurez et automatisez votre Load Balancer avec l'API OpenStack, l'interface utilisateur, la CLI ou l'API OVHcloud. Il peut être déployé avec Terraform pour automatiser et équilibrer les charges de trafic à grande échelle.

Created with Sketch.

Sécurité intégrée

Pour assurer la sécurité et la confidentialité des données, le Load Balancer est livré avec une terminaison HTTPS gratuite et bénéficie de notre infrastructure Anti-DDoS, une protection en temps réel contre les attaques réseau.

Découvrez notre gamme Load Balancer

Le tableau suivant fournit des valeurs informatives pour vous aider à choisir l’offre qui répond le mieux à vos besoins.


 
Applicable au point d’entrée (listener) suivant :
Tout HTTP/TCP/HTTPS* HTTP/HTTPS TERMINATED_HTTPS* UDP
Taille du Load Balancer Bande passante Sessions actives simultanées  Sessions créées par seconde Requêtes par seconde Sessions SSL/TLS créées par seconde Requêtes par seconde Paquets par seconde
Taille S 200 Mbit/s (up/down) 10 000 8 000 10 000 250 5 000 10 000
Taille M 500 Mbit/s (up/down) 20 000 10 000

20 000

500 10 000 20 000
Taille L 2 Gbit/s (up/down) 40 000 10 000

40 000

1 000 20 000 40 000


* Le point d’entrée HTTPS est un relais, ce qui signifie que la terminaison SSL/TLS est gérée par les membres du load balancer. La terminaison SSL/TLS est cependant gérée par le point d’entrée TERMINATED_HTTPS.

Cas d’usage

Gérer les pics de trafic et les activités saisonnières

Le Load Balancer vous permet de gérer la croissance et la baisse du trafic en ajoutant et supprimant de manière transparente des instances, comme des membres de pool, à votre configuration. Et ce, en quelques clics ou via un appel API.

Déploiement Blue/Green ou Canary

Avec les IP flottantes, vous pouvez passer rapidement d'un environnement bleu/vert à un autre en toute agilité, car le retour arrière est facile. Exploitez la puissance des stratégies L7 et du routage pondéré pour mettre en œuvre de manière transparente les déploiements canary, améliorant ainsi les performances de votre application afin d’assurer une expérience utilisateur optimale.

Optimisez les performances des instances avec le déchargement du chiffrement HTTPS

Avec la terminaison HTTPS, vous pouvez déplacer les tâches de chiffrement et de déchiffrement TLS/SSL vers le Load Balancer. Vos instances profitent ainsi du déchargement et accélèrent votre logique applicative.

Scénarios pour le Load Balancer

Le Load Balancer peut être utilisé dans trois principaux types d'architecture. L’IP flottante et le Gateway peuvent ou non faire partie de l’architecture, selon le scénario donné.

public to private

Public à privé

Le trafic entrant provient d'Internet et atteint une IP flottante associée au répartiteur de charge. Les instances derrière le Load Balancer sont situées sur un réseau privé et n'ont pas d'adresse IP publique, ce qui garantit qu'elles restent complètement privées et isolées d'Internet.

 

public to public

Public à public

Le trafic entrant provient d'Internet et atteint une IP flottante associée au Load Balancer. Les instances vers lesquelles le Load Balancer route le trafic sont accessibles avec une IP publique. Le Load Balancer utilise donc l’IP flottante avec une sortie pour atteindre ces instances.

private to private

Privé à privé

Le trafic entrant provient d'un réseau privé et est routé vers des instances accessibles à partir de ce dernier. Dans ce cas, l’IP flottante ou le Gateway ne sont pas nécessaires.

Usage

Notre Load Balancer peut être utilisé avec l’API ou le CLI OpenStack et sera disponible ultérieurement via votre espace client.

Vous trouverez ci-dessous les commandes de base pour :

Créer un Load Balancer

OpenStack loadbalancer create --flavor small --vip-network-id my_private_network

Configurer un point d’entrée (listener) et une cible (pool)

OpenStack loadbalancer listener create --name listener1 --protocol HTTP --protocol-port 80 test
OpenStack loadbalancer pool create --name pool1 --lb-algorithm ROUND_ROBIN --listener listener1 --protocol HTTP
OpenStack loadbalancer healthmonitor create --delay 5 --max-retries 4 --timeout 10 --type HTTP --url-path /healthcheck pool1
OpenStack loadbalancer member create --subnet-id my_subnet --address 10.0.0.1 --protocol-port 80 pool1
OpenStack loadbalancer member create --subnet-id my_subnet --address 10.0.0.2 --protocol-port 80 pool1

Configurer le réseau (vous devez être à l’intérieur d’un vRack pour que cette étape fonctionne correctement. Consultez notre guide de configuration du vRack).

# configure the network Gateway
OpenStack subnet set --gateway 10.0.0.254 my_subnet
# add a vrouter
OpenStack router create myrouter
OpenStack router set --external-gateway Ext-Net myrouter
OpenStack router add subnet myrouter my_subnet
# add the floating IP
OpenStack floating ip create Ext-Net
# The following IDs should be visible in the output of previous commandsv
OpenStack floating ip set --port

Documentation et guides

Concepts de mise en réseau dans Public Cloud
Démarrer avec un Load Balancer sur le Public Cloud
Différences entre un Load Balancer privé à privé et un Load Balancer public à privé
Configurer la terminaison HTTPS avec Let's Encrypt
Et si vous vous lanciez ?

Créez un compte et lancez vos services dans la minute.

Caractéristiques principales

Types de trafics entrants

Le Load Balancer Public Cloud prend en charge les trafics entrants suivants : HTTP/HTTPS (1.1 ou 2), SCTP, TCP, UDP. Avec un répartiteur de charge, vous pouvez recevoir différents types de trafics sur plusieurs ports.

Haute disponibilité by design

OVHcloud gère la disponibilité de votre Load Balancer.

Algorithme de répartition de charge multiple avec persistance de session optionnelle

Le Load Balancer Public Cloud prend en charge l'algorithme suivant pour équilibrer le trafic : least-connections, round-robin, source-IP ou source-IP-port. Vous pouvez également définir la persistance de la session en fonction de votre application de cookies personnalisée ou laisser le Load Balancer la gérer pour vous.

Déchargement SSL/TLS avec terminaison HTTPS

Le chiffrement et le déchiffrement SSL/TLS peuvent être exécutés par le Load Balancer afin de concentrer les performances de vos instances sur votre logique applicative. Cette fonctionnalité vous permet de gérer votre certificat dans un emplacement unique.

Transmettre les informations de connexion client aux membres (PROXY/PROXY2)

Grâce à la prise en charge des protocoles PROXY/PROXY2, vos membres peuvent recevoir les informations de connexion du client (IP source, port source, etc.)

Surveiller l'intégrité des membres du pool

Le répartiteur de charge peut surveiller l'état de santé des membres via différentes requêtes : HTTP, HTTPS, PING, SCTP, TCP, TLS-HELLO et UDP-CONNECT. Si un membre ne répond pas à la demande du moniteur d'intégrité, le Load Balancer arrête de lui envoyer du trafic, puis reprend lorsque la vérification d'intégrité est revenue à la normale.

Publication de métriques conformes à Prometheus

Les métriques du Load Balancer peuvent publier un point de terminaison qui fournit les métriques dans un format conforme à Prometheus.

Filtrage/redirection/routage du trafic HTTP entrant

Grâce à la politique et aux règles L7, le répartiteur de charge peut filtrer et rediriger le trafic vers une URL spécifique ou router le trafic HTTP vers un pool de membres spécifique.

Intégration avec Managed Kubernetes Service

Le Load Balancer Public Cloud est entièrement intégré à notre offre Managed Kubernetes Service.

Architecture publique à privée, publique à publique ou privée à privée

Ce Load Balancer peut être utilisé dans trois types d'architectures, à savoir publique à privée, publique à publique ou privée à privée. Lors de la gestion du trafic public, le Gateway et l'IP flottante sont nécessaires.

Redirigez le trafic vers des instances Public Cloud, des serveurs Bare Metal ou Hosted Private Cloud

Intégré au réseau privé vRack, le Load Balancer Public Cloud permet de rediriger le trafic vers n’importe quel hôte connecté au même VLAN, même s’il appartient à un autre univers produit.

Gestion simplifiée

Choisissez l'outil qui vous convient pour l'administration de votre Load Balancer : interface utilisateur ou API OpenStack Horizon.

Modèle de tarification pay-as-you-go prévisible

Notre tarification est prévisible, car vous ne payez que lorsque vous utilisez le produit. Il n'y a pas de frais d'entrée ou de sortie facturés pour le trafic.

Public cloud prices

Facturation du Load Balancer

Le Load Balancer est facturé à l'usage, à l'heure. Ce service est disponible selon trois plans différents, en fonction de votre flux : Small, Medium et Large.

Les questions que vous vous posez

Qu’est-ce que la couche 7 de la répartition de charge HTTP(S) ?

Il s’agit de la manière de transporter la couche d’application (c’est-à-dire le trafic web) d’une source aux serveurs dorsaux par le biais d’un composant de répartition charge qui peut appliquer différentes politiques avancées de routage du trafic. Ces politiques comprennent l’utilisation de cookies http, la prise en charge de protocoles proxy, différentes méthodes de répartition de la charge entre les backends, l’utilisation de https et le déchargement.

Pourquoi mon Load Balancer est-il généré par région ?

La disponibilité des solutions Public Cloud dépend des régions OpenStack. Chaque région dispose de sa propre plateforme OpenStack, qui lui fournit ses propres ressources de calcul, de stockage, de réseau, etc. Pour en savoir plus sur la disponibilité régionale, cliquez ici.

Quels protocoles puis-je utiliser avec mon Load Balancer ?

Au lancement du produit et selon la version, les protocoles supportés sont les suivants : TCP, HTTP, HTTPS, TERMINATED_HTTPS, UDP, SCTP et HTTP/2.

Comment le Load Balancer détermine-t-il la santé des hôtes ?

Le Load Balancer utilise healthmonitor pour vérifier si les services backend sont en vie. Vous pouvez configurer un certain nombre de protocoles à cette fin, notamment (mais pas exclusivement) HTTP, TLS, TCP, UDP, SCTP et PING.

Puis-je utiliser mon propre certificat SSL si j’en possède déjà un ?

Bien sûr ! Vous pouvez utiliser votre espace client OVHcloud pour télécharger votre propre certificat SSL, à utiliser avec le Load Balancer. Si vous souhaitez automatiser cette action, vous pouvez utiliser l’API OVHcloud.

Je ne sais pas comment générer un certificat SSL, comment puis-je utiliser HTTPS LBaaS ?

Pas d’inquiétude. L'espace client vous permet de créer et de générer votre propre certificat Let's Encrypt SSL DV afin de l'utiliser avec votre Load Balancer pour faciliter votre déploiement. Ce certificat est inclus dans le prix du Load Balancer sans frais supplémentaires.

Qu’est-ce qu’un Load Balancer cloud ?

Un Load Balancer cloud est un système de répartition de charge entièrement géré dans le cloud. Rapidement instancié, il peut être configuré via une API et présente une très haute disponibilité. Le Load Balancer cloud est facturé selon un modèle pay-as-you-go, ce qui signifie que vous ne payez que ce que vous consommez.

Quelle est la différence entre un Load Balancer for Kubernetes et un Load Balancer ?

Le Load Balancer for Kubernetes fonctionne uniquement avec notre offre Managed Kubernetes. Il dispose d’une interface directement compatible avec Kubernetes, ce qui signifie que vous pouvez facilement contrôler votre Load Balancer for Kubernetes avec des outils natifs.

Le Load Balancer classique repose sur OpenStack Octavia. Il peut être déployé dans votre projet Public Cloud en exploitant l’API OpenStack, ce qui permet l’automatisation par le biais d’outils comme Terraform, Ansible ou Salt. Il est prévu que Load Balancer prenne en charge Kubernetes. Nous ne manquerons pas de vous informer lorsque cette fonctionnalité sera disponible.