Par Pascal Lando
Dernière mise à jour : octobre 2016

1. Réseaux : aspects techniques avancés et évolutions

1.1. Aspects technique d’Internet

Internet est un réseau de réseaux, composé de millions de réseaux aussi bien publics que privés, universi- taires, commerciaux et gouvernementaux.

Le modèle Internet, TCP/IP, est une collection de protocoles permettant l’exploitation du réseau de commu- nication Internet. Le standard TCP/IP définit l’ensemble des règles qui gèrent les communications sur réseau TCP/IP.

Les principales caractéristiques de TCP/IP sont :

  • L’adressage logique permet de référencer un matériel dans un réseau, avec une possibilité de subdivi- sion. L’adresse, appelée adresse IP, inclut un numéro d’identification du réseau, un numéro d’identification de sous-réseau, ainsi qu’un numéro d’hôte, identifiant la machine sur le réseau.
  • Le routage permet d’orienter les données à transmettre sur le réseau vers leurs destinataires attendus, grâce à l’utilisation des adresses IP. Le routage est réalisé par des routeurs, les informations sont routées sous la forme de paquets nommés datagrammes. Chaque datagramme possède un en-tête propre, con- tenant les informations nécessaires à son acheminement vers sa destination.
  • La résolution d’adresses permet de manipuler un adressage en langage naturel (sous la forme de noms de domaines) plutôt que par des adresses IP. DNS est le service de TCP/IP permettant principalement de faire corréler un nom de domaine et l’adresse IP de la machine portant ce nom.
  • Le contrôle des erreurs et des flots de données, réalisé par la couche transport de TCP/IP, permet d'assurer la robustesse et la fiabilité du protocole. Les numéros de séquence sont utilisés afin d'ordonner les segments TCP reçus et de détecter les données perdues, les sommes de contrôle permettent la dé- tection d'erreurs, et les acquittements ainsi que les temporisations permettent la détection des segments perdus ou retardés. En outre, le protocole est dit « non fiable » (unreliable), dans le sens où la livraison des paquets n’est pas garantie.
  • Le support Application introduit la notion de numéros de ports, des voies génériques de transit, pour identifier les applications. Des exemples d’applications utilisant ces ports sont FTP (21), SSH (22), Telnet (23), SMTP (25), HTTP (80), ou encore POP3 (110).

Parmi les problématiques actuelles liées à TCP/IP, on trouve notamment le problème de l’adressage IP. En effet, la version 4 du protocole IP, couramment appelée IPv4, permet de gérer des adresses comportant 32 bits, pour une capacité de d’environ 4 milliards de numéros : la demande croissante et la non-optimisation des attributions a mené à une pénurie progressive en adresses IP. Pour pallier ce problème, plusieurs initia- tives sont aujourd’hui déployées, dont la plus importante est IPv6, nouvelle version du protocole Internet dont la capacité d'adressage est de 3,4×1038 adresses.

1.2. Radiocommunication

Une radiocommunication est une télécommunication effectuée dans l'espace au moyen d'ondes électro- magnétiques.

Une onde radioélectrique (onde radio, onde hertzienne) est une onde électromagnétique dont la fréquence est inférieure à 3000 GHz, soit une longueur d'onde supérieure à 0,1 mm. Elle se propage dans plusieurs directions, en ligne droite, depuis sa source d’émission. On parle de célérité pour qualifier la vitesse de propagation de l’onde : la célérité est généralement d’environ 300000 km/sec. Les ondes radio sont transportées dans l'air et subissent des pertes en intensité au cours de leur trajet avec la distance et les obstacles (quand une onde rencontre un obstacle, elle est divisée et son énergie se voit répartie). Le calcul de la dis- tance théorique pouvant être parcourue dépend alors de la puissance du signal émis ainsi que de la sensibilité du récepteur.

La radiocommunication est à la base des réseaux mobiles, conférant un accès sans fil à l’information, tout en permettant au client de se déplacer à travers le réseau en conservant une même adresse. On parle alors de réseau sans fil (wireless): un réseau sans fil est « un réseau dans lequel au moins deux terminaux, potentiellement en mouvement (ordinateur, périphérique mobile, téléphone…), se connectent et communiquent entre eux par voie hertzienne, directement (IR, bluetooth) ou indirectement (via borne de connexion intermédiaire : Wi-Fi, GSM…) ». La portée d’un réseau sans fil varie de quelques mètres (ex. : bluetooth) à plusieurs dizaines de kilomètres (ex. : GSM, GPRS, UMTS). Les communications sont réalisées selon deux phases : la phase de dialogue et de négociation puis la phase d’échange de données.

Les réseaux sans fil sont régis par des protocoles, dont les principaux sont :

  • Wi-Fi : objet de la norme IEEE 802.11, le Wi-Fi permet de relier sans fil plusieurs appareils informatiques (ordinateur, routeur, décodeur Internet, etc.) au sein d'un réseau informatique, afin de permettre la trans- mission de données entre eux. Sa portée est de quelques centaines de mètres à plusieurs kilomètres, en fonction de la puissance d’émission (limite autorisée par l’Autorité de régulation des communications élec- troniques et des postes : 100 mW en sortie d’antenne pour les réseaux privés et indépendants), de la sensibilité des récepteurs et de l’affaiblissement dû aux interférences et aux obstacles. Tous les équipements Wi-Fi sont équipés d'une antenne et d'un module chargé de la commutation ondes radio/trames IP (niveaux 1/3 de la pile OSI) : la couche Wi-Fi est indépendante de la couche IP.
  • WiMax (Worldwide Interoperability for Microwave Access) est un standard de communication sans fil (famille de normes IEEE 802.16), destiné à transmettre des données à haut débit sur une couverture géo- graphique plus étendue sur le Wi-Fi (utilisé comme mode de transmission et d'accès à Internet haut débit). WiMax est conçu pour exploiter une gamme de fréquences large, allant de 2 à 66 GHz (ex. : 3,5 GHz). Un réseau de stations émettrices est installé sur des points hauts des territoires à couvrir, permet- tant aux clients équipés d’une antenne radio spécifique de recevoir et d’émettre. Les applications courantes sont : Internet haut débit, téléphonie (VoIP) ou encore interconnexion de réseaux d’entreprise.
  • GSM (Global System for Mobile Communications) est une norme numérique de seconde génération pour la téléphonie mobile. Utilisant la gamme de fréquences des 900 MHz, il est particulièrement adapté à la téléphonie. Plus récemment, le GSM a été étendu pour donner naissance au GPRS (General Packet Radio Services) puis EDGE (Enhanced Data rates for GSM Evolution), deux modes pouvant cohabiter avec le mode « voix commutée » du GSM, en utilisant les mêmes antennes et les mêmes bandes de fréquence.
  • GPS (Global Positioning System) est un système de positionnement par satellites conçu par et pour le département de la défense des États-Unis. Mis en service en 1986, il utilise 24 satellites et la technique de triangulation pour déterminer, en tout point du globe, la position (marge d’erreur ~5m) et l’heure (marge d’erreur ~1µs). Les satellites utilisés émettent sur deux fréquences : 1575.42 MHz et 1227.60 MH (gamme des microondes).

1.3. Réseaux publics et haut débit

Le Gouvernement a annoncé le 9 novembre 2012 la création d’une mission « Très haut débit », chargée de travailler avec les autres administrations compétentes pour proposer un schéma de déploiement du très haut débit en consultant l’ensemble des acteurs concernés.

D’après le Projet de feuille de route pour une stratégie nationale de déploiement du très haut débit, « la stratégie nationale de déploiement du très haut débit devrait être définie et mise en œuvre sur l’intégralité du territoire national, quelles que soient les zones considérées et la nature des initiatives de déploiement publiques comme privées ».

Techniquement, le très haut débit fait référence un accès à internet offrant un débit supérieur à celui d'un accès haut débit, par exemple via réseau DSL ou fibre optique. Le FTTH (fiber to the home) technologie, consistant amener directement la fibre optique jusqu'aux foyers et non plus seulement jusqu'aux centraux téléphoniques, permet notamment le développement d’offres à plus de 100 Mbit/s.

Concernant les réseaux mobiles et de radiocommunication, les normes de type 4G sont considérées comme faisant partie des accès très haut débit (jusqu’à 1 Gbit/s).

Les principaux opérateurs mettant en œuvre le très haut débit en France sont Numericable, Orange, SFR, Bouygues et Free.

2. Convergence voix-données

La convergence voix-données désigne la convergence du monde informatique et du monde de la télé- phonie, permettant de combiner des systèmes de voix et données en un réseau unique. Il s’agit d’une évo- lution majeure du domaine des télécommunications.

Dans ce contexte, la VoIP (Voice over Internet Protocol) consiste à transmettre une conversation vocale sur un réseau régi par le protocole IP (cf. plus haut dans cette fiche). La technique consiste à numériser la voix, de manière à l’acheminer par paquets tout comme le sont les données sur Internet. Les classiques autocommutateurs téléphoniques privés (PABX pour Private Automatic Branch eXchange), destinés à relier les postes téléphoniques des organisations et le réseau public, ont alors évolué vers des PABX-IP ou IPBX, permettant la mise en œuvre de communications unifiées cohérentes : moyens de communications inter- personnels temps réel (téléphonie fixe et mobile, visiophonie, ponts de conférence audio/vidéo…), outils de travail collaboratif (messagerie instantanée, systèmes de conférence par le web, partage de documents…) et outils de bureautique (agenda, client de messagerie électronique…).

2.1. Intérêt pour les collectivités

La démocratisation des solutions de convergence voix-données apporte son lot d’améliorations pour l’optimisation de la gestion de la téléphonie et des éléments du SI liés (travail collaboratif, bureautique…). Parmi les avantages de la convergence voix-données, citons :

  • Le fait de mutualiser les canaux de distribution des données et de la voix permet aux collectivités de réaliser des économies d’échelle substantielles, en mutualisant notamment ses interconnexions IP.
  • Fonctionnellement parlant, la VoIP présente des améliorations certaines des conditions de travail des agents : l’intégration des services téléphoniques aux applicatifs métier de la collectivité permettent par exemple la numérotation automatique à partir de l’annuaire ou de toute autre application bureautique, de recevoir ses messages vocaux en pièce jointe par courrier électronique, d'organiser des conférences à plusieurs en partageant un document commun ou encore de modifier via une interface Web ses règles de filtrage et de renvoi d’appels.
  • La VoIP confère également à la collectivité une autonomie et une flexibilité d’administration largement étendue par rapport aux réseaux téléphoniques classiques. Le brassage des postes IP ne nécessite plus d’outils spécifiques, et le système téléphonique n’est plus une boîte noire dont la gestion est réservée à l’opérateur.

2.2. Protocoles

VoIP apporte, comme toute nouvelle technologie liée à Internet, son lot de protocoles propriétaires et normalisés. Parmi eux :

  • H.323 : systèmes de communication multimédia en mode paquet issu de la téléphonie, développé par l’Union internationale des télécommunications (UIT). Sa mise en œuvre est complexe et hétérogène selon les fabricants.
  • SIP (Session Initiation Protocol) : protocole standard et ouvert de gestion de sessions, utilisé dans les télécommunications multimédia (son, image, etc.). Plus rapide et plus souple qu’H.323, il reprend des concepts plus orientés « informatique » (DNS, « HTTP like »…), et est devenu le plus courant pour la VoIP.
  • SCCP (Skinny Call Control Protocol) et ABCF, respectivement proposés par Cisco et Alcatel, sont quand à eux des protocoles propriétaires mis en place par différentes firmes pour leurs implémentations respectives de la téléphonie IP.

2.3. Qualité de service

La transmission de la voix est une application sensible et exigeante. Dans le but de permettre une transmis- sion fluide et fiable, la cohabitation voix/données doit être assurée par une infrastructure cohérente et adap- tée à cette problématique (choix d’architecture, dimensionnement, paramétrage…).

Les aspects déterminants pour la qualité de la voix sur IP sont :

  • le traitement de la voix (codage/compression avant transmission) ;
  • la clarté (fidélité de la voix reçue par rapport à la voix émise) ;
  • le délai de bout en bout (temps de propagation de la voix à travers le réseau de l’émetteur vers le récepteur) ;
  • l’écho (son émis par l’émetteur qui lui revient).

Les spécifications G.114 et G.131 de l’ITU établissent à 150 ms la valeur recommandée pour le délai de transit de la voix de bout en bout. D’autre part, la technique PLC (Packet Loss Concealment) permet d’améliorer la clarté, en atténuant l’effet négatif de la perte de paquets sur le rendu de la voix.

2.4. Sécurité

Les risques en matière de sécurité liés à la VoIP sont principalement relatifs à Internet, mais pas uniquement :

  • Technique bien connue par les hébergeurs de sites Web, le déni de service consiste notamment, dans le contexte de la VoIP, à saturer arbitrairement les boites vocales d’une organisation.
  • Le spam est une autre technique héritée d’Internet, et se transpose à la téléphonie sur IP par le biais du dépôt de messages publicitaires vocaux/SMS sur les boites de l’organisation. On appelle généralement cette technique SPIT (Spam Over IP Telephony).
  • D’autres problématiques de sécurité plus complexes doivent être mentionnées : tentatives d’interception d’appels, usurpation d’identité, détournement d’appels et de services…

3. Administration réseaux

Cette section aborde une thématique très large et riche par essence : l’administration des réseaux infor- matique, leur maintenance et leur sécurité.

3.1. Ingénierie des réseaux : conception

La conception d’un réseau implique généralement les étapes suivantes :

  1. Élaboration d’un plan d’ensemble du réseau à mettre en place, sur la base du recensement des be- soins utilisateurs et des ressources et contraintes existantes.
  2. Choix d’une topologie adaptée au contexte et aux contraintes. Selon les cas, on envisagera un simple réseau en étoile pour un réseau restreint à un site, ou encore plusieurs sites interconnectés via liaisons spécialisées. C’est lors de cette étape que les ressources matérielles devront être estimées et prévues (hubs, routeurs, ponts…).
  3. Réalisation d’un plan d’adressage, afin de définir, pour chaque réseau physique (LAN et WAN) une adresse de réseau IP. Pour chaque machine de chacun de ces réseaux, une adresse machine sera attribuée dans le réseau IP choisi. En corollaire de cette étape, on réfléchira au plan de nommage (notamment choisir un ou des noms de domaine), ainsi qu’au plan de routage (protocoles, nature du routage, NAT…).
  4. Sélection des services réseau à déployer : il s’agit ici de lister les services réseaux nécessaires au bon fonctionnement du réseau. Parmi eux, certains services sont d’intérêt commun (DNS, SMTP, LDAP, FTP…), d’autres plus ciblés (multicast…). Il convient, lors de cette étape, de réfléchir aux aspects sécurité des données internes au réseau, notamment face aux attaques extérieures : quelles mesures et services seront mis en place pour assurer la sécurité du réseau (firewall, iptable et règles de filtrage, diagnostic via nmap…) ?
  5. Réflexion à la problématique des ressources humaines pour la bonne gestion future du réseau : on recensera les besoins en personnel (administrateurs, techniciens…) en fonction de la taille du réseau, de la répartition géographique et du nombre/nature des services à mettre en œuvre.

Les réflexions listées ci-dessus doivent faire l’objet de la rédaction d’un cahier des charges, document qui servira de base et permettra notamment un cycle de validation, le lancement des appels d’offre, etc.

3.2. Supervision et maintenance des réseaux

Le propre du matériel étant de pouvoir tomber en panne à tout moment, les matériels réseaux doivent dis- poser d’une maintenance permettant de faire remplacer les pièces défectueuses à tout moment.

Simple Network Management Protocol (SNMP) est un protocole d’administration réseau basé sur UDP et permettant aux administrateurs de gérer les équipements et de diagnostiquer les problèmes. La plupart des équipements réseau (switchs, pare-feux matériels, routeurs…) intègrent la gestion de ce protocole pour les diagnostics. En pratique, SNMP est utilisé pour administrer les équipements et pour surveiller le com- portement des équipements. Il permet de disposer d’informations sur les équipement, via des « objets gérables » (informations disponibles sur les matériels) référencés dans la MIB (Management Information Base, fichiers descriptifs des objets utilisés par le protocole SNMP et implémentés dans les agents SNMP).

SNMP propose deux modes de supervision : le polling et les traps.

  • Le polling (attente active ou vérification active) consiste à envoyer une requête à intervalles réguliers pour obtenir une valeur particulière : le fait que la requête échoue à un moment donné signifie qu’il est possible que le périphérique présente un problème.
  • Les traps (alarmes, notifications d’événements) permettent de faire de la vérification passive : ici l’administrateur configure un périphérique réseau (routeur par exemple) pour que celui-ci envoie un « trap SNMP » lors de certains événements (exemple : détection d’une ligne coupée).

Exemples d’outils utilisés pour réaliser des requêtes SNMP : scotty, gxsnmp, tkined, MRTG…

3.3. Sécurité des réseaux

La sécurité représente une préoccupation essentielle en matière d’administration de réseaux informatique. La problématique de la sécurité appelle nécessairement l’évaluation du risque, produit de la vulnérabilité et de la menace pondéré par les protections mises en place. Autrement dit : risque = (menace × vulnérabilité) / protection

Le mot sécurité recouvre en fait des notions variées. On peut notamment parler d’intégrité des données qui transitent sur le réseau, de confidentialité des informations ou de contrôle d’accès aux équipement réseau. À chacune de ces préoccupations correspondent des dispositifs que les administrateurs doivent être en mesure de mettre en place :

  • Intégrité des données : désigne l'état de données qui, lors de leur traitement, de leur conservation ou de leur transmission, ne subissent aucune altération ou destruction volontaire ou accidentelle, et conservent un format permettant leur utilisation. La cryptographie, le modèle Biba et le modèle de Clark et Wilson sont des outils permettant d’assurer l’intégrité des données.
  • Confidentialité des informations : désigne la nécessité de protéger l’accès aux données afin que seules les personnes légitimes puissent les utiliser. Techniquement, on met en œuvre des outils tels que IPsec (Internet Protocol Security), assurant des communications privées et protégées sur des réseaux IP, par l'utilisation des services de sécurité cryptographiques. Des dispositifs de chiffrement spécifiques peuvent également être employés.
  • Contrôle d’accès aux équipements : désigne la mise en place de dispositifs de nature à s’assurer que seules les personnes autorisées puissent accéder aux équipement actifs et aux serveurs. En plus des contrôles d’accès de base, il est préférable de conserver en sûreté les configurations de tous les équipements, de manière à pouvoir les restaurer rapidement en cas de problème.

Quelques mécanismes de défense doivent également être cités : antivirus, pare-feu, détection d’intrusion, journalisation de l’activité (logs), analyse de vulnérabilité, contrôle du routage, horodatage, contrôle d’accès aux communications par VPN ou tunnels…

Sitothèque et bibliographie

Tags :
    
© 2023 CNFPT