Cette formation sur les fondamentaux de l'infrastructure et du réseau, conçue pour vous offrir une base solide de connaissances et compétences essentielles dans le domaine. Que vous soyez débutant cherchant à acquérir les bases ou professionnel expérimenté souhaitant consolider vos connaissances, cette formation vous guidera à travers les principes fondamentaux, vous permettant ainsi de développer une compréhension approfondie de ces domaines pour la réussite de l'organisation
Curieux
A la découverte des nouveaux termes techniques
Expérimenté
Conforter ses bases techniques
Soif de connaissances
Consolider ses expériences
A venir
3. Services réseau
4. Réseaux locaux (LAN) et étendus (WAN)
5. Infrastructure réseau
6. Sécurité réseau
7. Gestion des performances et des ressources
Architecture et modèle en couches (modèle OSI, modèle TCP/IP)
Adressage IP et sous-réseaux
Protocoles réseau (TCP, UDP, ICMP)
Routage et commutation
L'architecture en couches et les modèles OSI (Open Systems Interconnection) et TCP/IP (Transmission Control Protocol/Internet Protocol) sont des concepts fondamentaux dans le domaine des réseaux informatiques. Ils fournissent des cadres de référence pour la conception, la communication et le fonctionnement des systèmes de communication.
Le modèle OSI est composé de sept couches qui représentent différentes fonctionnalités et responsabilités du réseau. Chaque couche effectue des tâches spécifiques et communique avec les couches adjacentes pour garantir un flux de données efficace.
Les sept couches du modèle OSI sont les suivantes :
Couche physique : Elle définit les caractéristiques physiques du support de transmission, tels que les câbles et les signaux électriques.
Couche liaison de données : Elle gère la fiabilité de la transmission des données sur un lien physique spécifique, en détectant et en corrigeant les erreurs.
Couche réseau : Elle gère la connectivité logique entre les hôtes sur un réseau, en déterminant les chemins de transmission optimaux pour les données.
Couche transport : Elle assure un transport fiable des données entre les points de terminaison du réseau, en segmentant les données, en les réassemblant et en gérant le contrôle de flux et la correction d'erreurs.
Couche session : Elle établit, maintient et termine les sessions de communication entre les applications.
Couche présentation : Elle gère la représentation des données, leur compression et leur chiffrement, assurant ainsi l'interopérabilité entre les différents systèmes.
Couche application : Elle fournit une interface pour les applications réseau afin d'accéder aux services de communication.
Le modèle TCP/IP, quant à lui, est basé sur une architecture en quatre couches, qui se chevauchent partiellement avec le modèle OSI.
Les quatre couches du modèle TCP/IP sont :
Couche réseau (ou réseau d'accès) : Elle équivaut aux couches physiques et de liaison de données du modèle OSI. Elle gère la transmission des données brutes sur le réseau.
Couche Internet : Elle correspond à la couche réseau du modèle OSI. Elle fournit des fonctionnalités de routage et de commutation pour acheminer les paquets de données à travers le réseau.
Couche transport : Elle correspond à la couche transport du modèle OSI. Elle assure le transport fiable des données en utilisant les protocoles TCP (Transmission Control Protocol) et UDP (User Datagram Protocol).
Couche application : Elle englobe les couches session, présentation et application du modèle OSI. Elle fournit des services de communication aux applications et inclut des protocoles tels que HTTP, FTP, SMTP, etc.
EN BREF
L'architecture en couches, telle que le modèle OSI et le modèle TCP/IP, fournissent des structures pour organiser et gérer les réseaux informatiques. Le modèle OSI comprend sept couches qui définissent différentes fonctions, tandis que le modèle TCP/IP se compose de quatre couches qui se chevauchent avec le modèle OSI, et est plus couramment utilisé dans la pratique pour la conception des réseaux informatiques
Le modèle OSI est principalement utilisé à des fins d'enseignement et de compréhension conceptuelle, tandis que le modèle TCP/IP est largement utilisé dans la pratique pour la conception et l'implémentation des réseaux informatiques, en particulier sur Internet.
L'adressage IP est un système qui permet d'identifier les dispositifs sur un réseau, tandis que les sous-réseaux permettent de diviser un réseau en segments plus petits pour une gestion plus efficace des adresses IP et un meilleur contrôle du trafic
L'adressage IP est un système utilisé pour identifier et localiser de manière unique les dispositifs connectés à un réseau informatique. Les adresses IP sont des nombres binaires de 32 bits (IPv4) ou de 128 bits (IPv6) et sont représentées sous forme de suites de chiffres décimaux séparées par des points.
Les adresses IP publiques et privées sont utilisées pour identifier les dispositifs sur un réseau, mais elles présentent des différences importantes.
Une adresse IP publique est attribuée à un appareil connecté directement à Internet. Elle est unique et accessible depuis n'importe où sur Internet. Les adresses IP publiques sont fournies par les fournisseurs d'accès à Internet (FAI) et sont utilisées pour communiquer avec des serveurs publics, héberger des sites web, gérer des connexions distantes, etc.
En revanche, une adresse IP privée est utilisée au sein d'un réseau local (LAN). Les adresses IP privées ne sont pas routables sur Internet et sont destinées à être utilisées en interne, généralement derrière un routeur ou un pare-feu. Cela permet de créer des réseaux privés au sein d'une organisation, offrant un niveau supplémentaire de sécurité et de contrôle.
Les plages d'adresses IP privées les plus couramment utilisées sont 10.0.0.0 à 10.255.255.255, 172.16.0.0 à 172.31.255.255 et 192.168.0.0 à 192.168.255.255.
Pour organiser efficacement les réseaux et gérer les adresses IP, on utilise le concept de sous-réseaux. Les sous-réseaux permettent de diviser un réseau IP en segments plus petits, ce qui facilite la gestion des adresses IP et l'acheminement des données.
Ils sont définis par un masque de sous-réseau, également appelé masque réseau ou masque de sous-réseau, qui spécifie quelle partie de l'adresse IP est utilisée pour identifier le réseau et quelle partie est utilisée pour identifier les hôtes individuels au sein du réseau.
Le calcul du masque de sous-réseau dépend de la taille souhaitée pour les sous-réseaux. Plus le nombre de bits dans le masque est élevé, plus le nombre de sous-réseaux est important, mais cela réduit le nombre d'adresses disponibles pour les hôtes dans chaque sous-réseau.
Pour calculer le masque de sous-réseau, on utilise les puissances de 2. Par exemple, pour un masque de sous-réseau de /24, cela signifie qu'il y a 24 bits alloués au réseau et 8 bits pour les hôtes (2^8 = 256 adresses).
Usuellement, les réseaux domestiques sont par exemple en 192.168.0.0/24
Lors de l'attribution d'un CIDR (Classless Inter-Domain Routing), il existe certaines contraintes et plages d'adresses réservées qui doivent être prises en compte. Voici quelques-unes des contraintes et plages d'adresses IP réservées les plus courantes :
Adresse réseau (Network Address) : L'adresse où tous les bits d'hôte sont définis à zéro est réservée pour représenter le réseau lui-même. Par exemple, dans un CIDR /24, l'adresse réseau serait la première adresse de la plage (par exemple, 192.168.0.0).
Adresse de diffusion (Broadcast Address) : L'adresse où tous les bits d'hôte sont définis à un est réservée pour envoyer des paquets à tous les appareils d'un réseau. Par exemple, dans un CIDR /24, l'adresse de diffusion serait la dernière adresse de la plage (par exemple, 192.168.0.255).
Adresse loopback : L'adresse IP 127.0.0.1 est réservée pour la boucle locale (loopback). Elle est utilisée pour tester la connectivité réseau sur la machine locale elle-même, sans passer par le réseau physique.
Adresses IP privées : Les plages d'adresses IP privées, telles que 10.0.0.0/8, 172.16.0.0/12 et 192.168.0.0/16, sont réservées pour une utilisation en interne dans les réseaux locaux. Ces adresses ne sont pas routables sur Internet et sont généralement utilisées pour les réseaux domestiques, les réseaux d'entreprise et les réseaux privés.
Adresses IP réservées spéciales : Il existe également d'autres plages d'adresses IP réservées pour des utilisations spécifiques, comme les adresses réservées pour les tests (par exemple, 192.0.2.0/24), les adresses liées à des protocoles spécifiques (par exemple, 224.0.0.0/4 pour le multicast) et les adresses réservées pour des fins documentaires (par exemple, 240.0.0.0/4).
Il est important de prendre en compte ces contraintes et plages d'adresses réservées lors de la planification et de la configuration des réseaux, afin de s'assurer que les adresses IP utilisées sont conformes aux normes et ne créent pas de conflits ou de problèmes de routage.
EN BREF
L'adressage IP est un système qui permet d'identifier les appareils sur un réseau. Les sous-réseaux sont utilisés pour diviser un réseau en parties plus petites, ce qui facilite la gestion des adresses IP et le contrôle du trafic. Les masques de sous-réseau indiquent quelles parties de l'adresse IP appartiennent au réseau et aux appareils, et leur calcul se base sur les puissances de 2 pour déterminer la taille des sous-réseaux.
L'adressage IP permet d'identifier les appareils, les sous-réseaux aident à organiser le réseau, et les masques de sous-réseau définissent comment les adresses IP sont réparties entre les réseaux et les appareils.
Les protocoles réseau sont des ensembles de règles et de procédures qui permettent aux dispositifs de communiquer et d'échanger des données sur un réseau. Trois protocoles réseau couramment utilisés sont TCP (Transmission Control Protocol), UDP (User Datagram Protocol) et ICMP (Internet Control Message Protocol).
TCP est un protocole fiable et orienté connexion. Il divise les données en segments, les envoie de manière séquentielle et garantit leur réception dans l'ordre correct. TCP offre également des mécanismes de contrôle de flux et de retransmission pour assurer une transmission sans erreur des données. Il est largement utilisé pour des applications nécessitant une transmission fiable des données, telles que les transferts de fichiers, la navigation web et les e-mails.
UDP, en revanche, est un protocole sans connexion et non fiable. Il envoie des datagrammes individuels sans garantir leur réception ou leur ordre. UDP est plus simple et plus rapide que TCP, car il ne nécessite pas d'établissement de connexion ni de mécanismes de contrôle de flux. Il est souvent utilisé dans des scénarios où une transmission plus rapide est privilégiée aux garanties de fiabilité, comme les applications de streaming en direct, les jeux en ligne et les appels vidéo.
ICMP est un protocole utilisé pour la gestion des messages de contrôle et de diagnostic sur les réseaux IP. Il permet aux dispositifs de communiquer des informations sur l'état du réseau, tels que les messages de demande et de réponse pour tester la connectivité (comme les ping), les notifications d'erreur et les messages de routage. ICMP est essentiel pour la détection de problèmes de réseau et la résolution des erreurs de communication.
TCP (Transmission Control Protocol) et UDP (User Datagram Protocol) ont des caractéristiques différentes qui les rendent adaptés à des cas d'utilisation spécifiques.
Utilisation privilégiant TCP :
Transfert de fichiers : TCP est préféré pour le transfert de fichiers et le téléchargement car il garantit une transmission fiable des données et la retransmission des segments perdus.
Communication web : Les applications web telles que les sites web et les services en ligne utilisent généralement TCP pour s'assurer que les données sont correctement reçues et dans l'ordre, par exemple lors du chargement de pages web.
Emails : Les protocoles de messagerie électronique, tels que SMTP (Simple Mail Transfer Protocol) et IMAP (Internet Message Access Protocol), utilisent TCP pour garantir que les messages sont correctement transmis et reçus sans perte de données.
Utilisation privilégiant UDP :
Streaming en direct : Les applications de streaming en direct, telles que les services de diffusion de vidéos en direct, utilisent souvent UDP pour minimiser la latence. La perte occasionnelle de quelques paquets n'a pas un impact majeur sur l'expérience utilisateur, et la vitesse de transmission est primordiale.
Jeux en ligne : Les jeux en ligne nécessitent une transmission rapide des données en temps réel, telle que la position des joueurs, les actions et les mises à jour du jeu. UDP est préféré car il offre une latence réduite et une meilleure réactivité.
Voix sur IP (VoIP) : Les applications de téléphonie sur Internet, comme les appels vocaux et vidéo, utilisent souvent UDP car elles nécessitent une transmission en temps réel et sont plus tolérantes à la perte de paquets occasionnels.
Il convient de noter que ces exemples sont des cas d'utilisation courants, mais il peut y avoir des exceptions en fonction des exigences spécifiques de chaque application. Certains protocoles peuvent également utiliser à la fois TCP et UDP en fonction du type de données ou de la situation. Le choix entre TCP et UDP dépendra donc des priorités en termes de fiabilité, de vitesse et de réactivité dans chaque scénario d'utilisation.
EN BREF
En résumé, TCP est un protocole fiable et orienté connexion, UDP est un protocole sans connexion et non fiable, et ICMP est un protocole de contrôle et de diagnostic du réseau. Chacun de ces protocoles est utilisé dans des contextes spécifiques en fonction des besoins en termes de fiabilité, de vitesse et de diagnostic des applications et des dispositifs réseau.
Routeurs : fonctionnement, configuration et routage
Commutateurs : VLANs, commutation Ethernet, agrégation de liens
Points d'accès sans fil (WiFi)
Pare-feu (firewalls) et sécurité réseau
Les routeurs jouent un rôle essentiel dans les réseaux informatiques en permettant la transmission efficace des données entre différents réseaux. Ils assurent la connectivité en prenant des décisions sur la manière de transférer les paquets de données d'un réseau à un autre.
Les routeurs fonctionnent au niveau du réseau dans le modèle OSI (Open Systems Interconnection). Ils sont capables de lire les adresses IP (Internet Protocol) des paquets de données qu'ils reçoivent et de déterminer la meilleure route pour les acheminer vers leur destination. Pour cela, ils utilisent des tables de routage qui contiennent des informations sur les réseaux auxquels ils sont connectés.
La configuration des routeurs peut être effectuée à l'aide d'une interface de ligne de commande (CLI) ou d'une interface graphique utilisateur (GUI) fournie par le fabricant. Les administrateurs réseau peuvent accéder à l'interface de configuration pour spécifier les paramètres tels que les adresses IP, les masques de sous-réseau, les interfaces réseau, les protocoles de routage, les listes de contrôle d'accès, etc.
La configuration correcte des routeurs est essentielle pour assurer un routage précis et sécurisé.
Le routage est le processus par lequel les routeurs déterminent la meilleure trajectoire pour transférer les paquets de données.
Les routeurs utilisent des protocoles de routage tels que RIP (Routing Information Protocol), OSPF (Open Shortest Path First), BGP (Border Gateway Protocol), etc., pour échanger des informations de routage avec d'autres routeurs.
Ces protocoles permettent aux routeurs de découvrir les réseaux disponibles, d'évaluer les chemins possibles et de prendre des décisions de routage en fonction de différents critères tels que la distance, la bande passante, la fiabilité, etc.
Cela leur permet de découvrir les itinéraires possibles et de choisir le meilleur chemin pour envoyer les données.
Il existe deux principaux types de routage :
Routage statique : Dans le routage statique, les administrateurs réseau configurent manuellement les routes dans les tables de routage des routeurs. Cela convient aux réseaux de petite taille où les changements de topologie sont rares.
Routage dynamique : Dans le routage dynamique, les routeurs échangent automatiquement des informations de routage à l'aide de protocoles de routage. Cela permet aux réseaux de s'adapter aux changements de topologie et de trouver automatiquement les meilleurs chemins pour acheminer les paquets. Les protocoles de routage dynamique prennent en compte des facteurs tels que la disponibilité des liens, la congestion du réseau, la qualité de service, etc.
EN BREF
les routeurs sont des appareils qui redirigent les données entre les réseaux. Ils utilisent des adresses spéciales et des tables pour décider où envoyer les données. Les administrateurs réseau les configurent en entrant des paramètres importants. Les routeurs communiquent entre eux pour trouver les meilleurs itinéraires pour les données.
Un commutateur réseau, également appelé switch, est un équipement essentiel dans les réseaux informatiques. Il joue un rôle crucial dans la connectivité des périphériques au sein d'un réseau local (LAN) en acheminant le trafic de données entre eux.
VLANs (Virtual Local Area Networks) :
Les VLANs sont des réseaux logiques créés au sein d'un réseau local (LAN) physique. Ils permettent de regrouper des périphériques en fonction de critères tels que le département, la fonction ou tout autre critère pertinent. Les VLANs offrent des avantages en termes de gestion du réseau, de sécurité et de performance.
En créant des VLANs, vous pouvez segmenter votre réseau pour limiter le trafic entre différents groupes d'utilisateurs, améliorer la sécurité en isolant les données sensibles et optimiser les performances en réduisant la diffusion de paquets inutiles.
Commutation Ethernet :
La commutation Ethernet est une technique de transmission de données utilisée dans les réseaux locaux (LAN). Elle implique l'utilisation de commutateurs Ethernet pour acheminer les paquets de données vers leur destination.
Les commutateurs Ethernet analysent les adresses MAC (Media Access Control) des périphériques connectés pour déterminer à quel port envoyer les données, améliorant ainsi la performance et l'efficacité du réseau
Agrégation de liens :
L'agrégation de liens, également appelée mise en grappe de liens ou troncage de liens, est une technique permettant de combiner plusieurs connexions physiques entre deux périphériques réseau en une seule connexion logique. L'objectif est d'augmenter la bande passante, d'améliorer la redondance et de renforcer les performances globales du réseau. En agrégeant les liens, vous pouvez augmenter la capacité de transmission des données entre les commutateurs, les routeurs ou les serveurs.
Cela permet également de fournir une certaine tolérance aux pannes, car si l'un des liens physiques échoue, le trafic est automatiquement redistribué sur les autres liens agrégés.
Il existe plusieurs méthodes d'interconnexion de switch pour une agrégation de lien. Nous pouvons retrouver du Link Aggregation Control Protocol (LACP), du Port Trunking ou encore des fonctionnalités propres à des fabriquants comme le EtherChannel avec Cisco.
Principalement nous retrouvons 2 types de lien :
Switch Stacking :
Le switch stacking est une méthode de connexion de plusieurs commutateurs réseau pour créer une infrastructure réseau unifiée. Dans un empilement de commutateurs (stack), plusieurs commutateurs physiques sont interconnectés via des câbles spéciaux pour former un seul commutateur logique. Le switch stacking permet de gérer plusieurs commutateurs comme une seule entité, simplifiant ainsi la configuration et l'administration du réseau. Il offre également une haute disponibilité, car si l'un des commutateurs de l'empilement tombe en panne, les autres commutateurs prennent automatiquement le relais.
Avantages du switch stacking :
Gestion simplifiée : Les commutateurs dans un empilement sont gérés comme une seule unité, ce qui facilite la configuration et l'administration du réseau.
Évolutivité : De nouveaux commutateurs peuvent être ajoutés à l'empilement pour augmenter la capacité du réseau.
Haute disponibilité : En cas de défaillance d'un commutateur, les autres commutateurs de l'empilement prennent le relais pour assurer la continuité du réseau.
Performance : Les connexions entre les commutateurs de l'empilement sont rapides, ce qui permet un débit élevé entre les ports.
MLAG (Multi-chassis Link Aggregation Group) :
MLAG, ou Multi-chassis Link Aggregation Group, est une technique de réseau dans laquelle plusieurs commutateurs sont interconnectés pour créer une agrégation de liens (link aggregation) redondante et résiliente. Dans un MLAG, deux commutateurs ou plus fonctionnent ensemble en tant que paire, partageant la charge du trafic réseau et fournissant une redondance au cas où l'un des commutateurs tomberait en panne. Les commutateurs MLAG agissent comme une seule entité logique, offrant une connectivité transparente aux appareils connectés.
Avantages du MLAG :
Redondance et tolérance aux pannes : En cas de défaillance d'un commutateur MLAG, l'autre commutateur prend en charge le trafic, assurant ainsi la continuité du réseau.
Amélioration des performances : Les connexions de liens agrégés entre les commutateurs MLAG augmentent la bande passante globale et permettent une répartition de charge efficace entre les liens.
Facilité de déploiement : Le MLAG ne nécessite pas de modifications de l'infrastructure existante. Les commutateurs peuvent être connectés via des câbles Ethernet standard sans nécessiter d'équipements spéciaux.
Différences entre le switch stacking et le MLAG :
Architecture : Le switch stacking crée un seul commutateur logique à partir de plusieurs commutateurs physiques, tandis que le MLAG permet à plusieurs commutateurs de fonctionner de manière coordonnée en partageant la charge du trafic.
Topologie : Le switch stacking nécessite des câbles spéciaux (Câble Ethernet croisé ou crossover) pour connecter les commutateurs en cascade, tandis que le MLAG peut utiliser des câbles Ethernet standard pour interconnecter les commutateurs.
Évolutivité : Le switch stacking permet d'ajouter de nouveaux commutateurs à l'empilement pour augmenter la capacité du réseau, tandis que le MLAG se concentre sur la redondance et la performance entre une paire de commutateurs.
En résumé, le switch stacking crée un commutateur logique unifié à partir de plusieurs commutateurs physiques, simplifiant la gestion et offrant une haute disponibilité, tandis que le MLAG permet à plusieurs commutateurs de fonctionner de manière coordonnée pour fournir une redondance et une répartition de charge améliorées.
EN BREF
un commutateur réseau ou switch est un équipement essentiel qui permet de connecter et d'acheminer les données entre les périphériques d'un réseau local. Il offre une connectivité dédiée, améliore les performances du réseau et prend en charge des fonctionnalités avancées telles que les VLANs.
La fonctionnalité d'agrégation de liens permet de combiner plusieurs connexions physiques pour augmenter la bande passante et améliorer la redondance. C'est comme transformer plusieurs routes en une autoroute à plusieurs voies pour des transferts de données plus rapides et plus fiables.
Les points d'accès sans fil (WiFi) sont des dispositifs utilisés pour créer des réseaux locaux sans fil (WLAN) en permettant aux appareils compatibles WiFi de se connecter à un réseau. Ils sont largement utilisés dans les environnements domestiques, professionnels et publics pour offrir une connectivité sans fil simplifiée.
Standards WiFi :
Les points d'accès sans fil fonctionnent conformément aux normes établies par l'Institute of Electrical and Electronics Engineers (IEEE). Les normes WiFi courantes incluent IEEE 802.11a, 802.11b, 802.11g, 802.11n, 802.11ac et 802.11ax (également connu sous le nom de WiFi 6). Chaque norme offre des débits de données et des capacités de transmission différents.
Fréquences :
Les réseaux WiFi utilisent généralement les fréquences de 2,4 GHz et/ou de 5 GHz. La bande de 2,4 GHz offre une meilleure portée, mais une vitesse de transmission plus faible, tandis que la bande de 5 GHz offre une vitesse plus élevée, mais une portée plus limitée.
Sécurité :
La sécurité est un aspect crucial des réseaux WiFi. Les protocoles de sécurité couramment utilisés comprennent le WEP (Wired Equivalent Privacy), le WPA (WiFi Protected Access) et le WPA2. Il est recommandé d'utiliser le WPA2 ou le WPA3 (pour les équipements plus récents) pour garantir une protection adéquate des données.
Canaux :
Les points d'accès sans fil utilisent différents canaux pour transmettre les données. Les canaux permettent de réduire les interférences entre les réseaux WiFi voisins. Il est important de choisir des canaux non surchargés pour optimiser les performances du réseau.
Capacité et débit :
Les points d'accès sans fil ont une capacité limitée en termes du nombre d'appareils pouvant se connecter simultanément. Les dernières normes WiFi, comme le WiFi 6, offrent une meilleure gestion du trafic et une capacité accrue pour gérer un plus grand nombre d'appareils connectés. Le débit réel dépendra également du nombre d'appareils connectés et de leur utilisation simultanée.
Configuration et gestion :
Les points d'accès sans fil sont configurables via une interface d'administration. Il est possible de définir des paramètres tels que les SSID (Service Set Identifiers), les mots de passe, les plages d'adresses IP, les règles de pare-feu, etc. La gestion centralisée des points d'accès est également possible à l'aide de contrôleurs sans fil.
EN BREF
Le WiFi est une technologie sans fil qui vous permet de vous connecter à Internet et de créer un réseau local sans utiliser de câbles. Il offre la flexibilité de se connecter de manière pratique et rapide, permettant la communication et le partage de données entre les appareils connectés en toute sécurité.
Les pare-feu, également connus sous le nom de firewalls, jouent un rôle essentiel dans la sécurité des réseaux. Ils sont conçus pour protéger les systèmes informatiques en contrôlant le flux de données entre les réseaux internes et externes.
Définition et fonctionnement des pare-feu :
Un pare-feu est un dispositif logiciel ou matériel qui filtre le trafic réseau en fonction d'un ensemble de règles prédéfinies. Son objectif principal est de bloquer les communications non autorisées et de permettre uniquement le trafic autorisé. Les pare-feu utilisent des méthodes telles que l'inspection des paquets, le filtrage des adresses IP, les listes de contrôle d'accès (ACL), les états de connexion et d'autres techniques avancées pour établir des barrières de sécurité.
Types de pare-feu :
Pare-feu filtrant les paquets (Packet Filtering Firewall) : Ce type de pare-feu examine les en-têtes des paquets réseau et les compare aux règles de filtrage pour décider s'ils doivent être autorisés ou bloqués.
Pare-feu à état (Stateful Firewall) : Ces pare-feu surveillent l'état des connexions réseau et autorisent le trafic basé sur l'état de la session, ce qui les rend plus intelligents et capables de détecter les attaques telles que les tentatives d'établissement de connexions non sollicitées.
Pare-feu applicatif (Application Firewall) : Ces pare-feu sont spécialement conçus pour protéger les applications spécifiques en analysant le trafic au niveau de la couche applicative.
Zones de sécurité et segmentation :
Les pare-feu sont souvent utilisés pour créer des zones de sécurité et segmenter les réseaux en fonction de la confiance et de la sensibilité des données.
Par exemple, une architecture de sécurité courante est la "DMZ" (zone démilitarisée), où les serveurs accessibles au public sont placés derrière un pare-feu, séparés du réseau interne.
Politiques de sécurité et règles de pare-feu :
Les administrateurs réseau définissent des politiques de sécurité en utilisant des règles de pare-feu pour spécifier les autorisations et les interdictions. Ces règles déterminent quels types de trafic sont autorisés ou bloqués en fonction de critères tels que les adresses IP source et destination, les numéros de port, les protocoles, etc.
VPN et pare-feu :
Les réseaux privés virtuels (VPN) sont souvent utilisés en conjonction avec des pare-feu pour sécuriser les connexions distantes. Les VPN créent un tunnel chiffré entre l'utilisateur distant et le réseau interne, permettant aux utilisateurs de se connecter de manière sécurisée aux ressources internes sans compromettre la sécurité du réseau.
Exemple de port et protocole à connaître :
Port 80 (HTTP) : Ce port est souvent filtré pour bloquer l'accès non autorisé à des sites Web ou pour forcer le trafic Web à passer par un proxy ou un serveur de sécurité.
Port 443 (HTTPS) : Bien que le trafic HTTPS soit généralement crypté et sécurisé, certaines organisations peuvent choisir de filtrer ce port pour des raisons de conformité ou pour appliquer des politiques de sécurité supplémentaires.
Port 22 (SSH) : Le protocole SSH est souvent utilisé pour les connexions distantes sécurisées à des serveurs. Cependant, ce port peut être filtré pour restreindre l'accès à certains utilisateurs ou adresses IP spécifiques.
Port 25 (SMTP) : Ce port est utilisé pour le transfert de courrier électronique. Pour prévenir les abus tels que le spam sortant, de nombreux pare-feu filtrent le trafic SMTP sortant à moins qu'il ne soit acheminé à travers un serveur de messagerie autorisé.
Ports de protocoles potentiellement dangereux : Certains protocoles tels que Telnet (port 23), FTP (ports 20 et 21), SNMP (port 161), bureau à distance RDP (port 3389) ou encore NetBIOS (ports 137-139) peuvent présenter des vulnérabilités connues et être filtrés pour renforcer la sécurité du réseau.
EN BREF
Un pare-feu offre plusieurs fonctionnalités clés et présente de nombreux avantages en termes de sécurité réseau. Il filtre le trafic en fonction de règles prédéfinies, ce qui permet de contrôler les communications autorisées et de bloquer les communications non autorisées. Les pare-feu peuvent être configurés pour filtrer les paquets au niveau de la couche réseau ou de la couche applicative, et ils utilisent des méthodes telles que l'inspection des paquets, le filtrage des adresses IP et les états de connexion pour établir des barrières de sécurité.
Ils permettent de définir des politiques de sécurité personnalisées à l'aide de règles de filtrage, de protéger les applications spécifiques grâce à des pare-feu applicatifs, et de sécuriser les connexions distantes via des VPN. Les avantages d'un pare-feu incluent la prévention des attaques, la détection d'intrusion, la protection contre les logiciels malveillants, la réduction des surfaces d'attaque, et la conformité aux réglementations en matière de sécurité.