vendredi 10 août 2012

Le Serveur informatique


Serveur informatique



Un serveur informatique est un dispositif informatique matériel ou logiciel qui offre des services, à différents clients. Les services les plus courants sont :
le partage de fichiers ;
l'accès aux informations du World Wide Web ;
le courrier électronique ;
le partage d'imprimantes ;
le commerce électronique ;
le stockage en base de données ;
le jeu et la mise à disposition de logiciels applicatifs (optique software as a service).
Un serveur fonctionne en permanence, répondant automatiquement à des requêtes provenant d'autres dispositifs informatiques (les clients), selon le principe dit client-serveur. Le format des requêtes et des résultats est normalisé, se conforme à des protocoles réseaux et chaque service peut être exploité par tout client qui met en œuvre le protocole propre à ce service.
Les serveurs sont utilisés par les entreprises, les institutions et les opérateurs de télécommunication. Ils sont courants dans les centres de traitement de données et le réseau Internet.
D'après le cabinet Netcraft, il y a en mars 2009 plus de 220 millions de serveurs web dans le monde, et leur nombre est en augmentation constante depuis l'invention du World Wide Web en 1995

Histoire

au milieu des années 1970, les systèmes informatiques dans lesquels plusieurs ordinateurs co-opèrent, sont devenus réalisables suite à la baisse de prix et l'augmentation de la puissance des ordinateurs. Les prix abordables des petits mini-ordinateurs ou des micro-ordinateurs permettaient alors à une institution d'en acquérir plusieurs. La recherche s'oriente alors vers deux axes différents, qui sont l'utilisation en commun de ressources telles que les imprimantes et les disque durs, et l'utilisation de la puissance de calcul des différentes machines par répartition des tâches
En 1975 les services de poste des États-Unis, du Canada, de l'Allemagne de l'Ouest et du Royaume Uni mettent en place des serveurs en vue d'utiliser des moyens électroniques pour envoyer du courrier. Des moyens qui - contrairement au fax, au télégramme ou au télex - n'utilisent pas de papier
Entre 1980 et 1995, l'avénement simultané des réseaux locaux, des services en ligne, de l'Internet, et de l'architecture client-serveur sont des facteurs qui ont influencé le marché, la technologie et les usages des serveurs.

Les réseaux locaux

Avant la mise en place de serveurs, l'utilisation d'ordinateurs à usage personnel et isolés était peu pratique. La nécessité pour une entreprise d'acquérir une imprimante pour chaque ordinateur, la difficulté des échanges d'informations numériques entre les différents ordinateurs. Chaque usager devait copier les informations sur une disquette puis la transmettre en main propre au destinataire.
En 1980 apparaissent les premiers réseaux locaux équipés d'ordinateurs personnels et de serveurs. Xerox met sur le marché un ensemble composé de 4 serveurs qui permet aux ordinateurs connectés au réseau local d'imprimer des documents et enregistrer des fichiers. Il permet également d'échanger des fichiers et du courrier électronique avec une installation similaire ailleurs dans le monde. À la même période Nestar met sur le marché une suite de logiciels pour offrir les mêmes services sur un réseau composé uniquement d'ordinateurs personnels Apple II tous identiques. Un des ordinateurs est arbitrairement choisi pour servir de serveur de fichier ou d'impression.
En 1984 Sun Microsystems met sur le marché le Network file system (abr. NFS), un service qui permet l'accès aux fichiers de différents ordinateurs d'un réseau local (abr. LAN). La documentation du protocole réseau est immédiatement rendue publique, en vue de permettre aux autres constructeurs de créer les logiciels nécessaires pour offrir ou exploiter ce service avec leurs propres ordinateurs. Quatre ans plus tard il existe plus de 100 produits serveur et client du service NFS.
Les serveurs de fichiers ont facilité les échanges de fichiers entre utilisateurs.Utilisés dans les institutions, ils ont permis à plusieurs utilisateurs d'exécuter un même logiciel. Une seule copie du logiciel est stockée sur le serveur de fichier.
En 1989 70 % des serveurs sont utilisés pour du partage de fichiers, 34 % comme serveur de bases de données et 10 % pour du courrier électronique. Apparu deux ans avant, le service de bases de données se place comme concurrent du partage de fichiers, offrant un service de stockage d'informations plus efficace, plus sûr, et plus rapide.

Les services en ligne et Internet

En 1978 le bureau de recherche du département de la défense des États-Unis, le DARPA étudie la possibilité d´internetworking - relier entre eux plusieurs réseaux locaux dans un réseau de réseaux. Le DARPA relie ensemble 4 serveurs dans 4 universités des États-Unis. Cinq ans plus tard le réseau relie de nombreuses universités des États-Unis, la majorité des serveurs connectés utilisent le système d'exploitation Unix, le réseau est alors principalement exploité par des étudiants qui l'ont appelé Internet. Le département de la défense abandonne alors ce projet devenu public.
En 1979, The Source Telecomputing Corporation met à disposition une suite de services informatiques destinés aux petits groupes d'utilisateurs. Les services mis à disposition sont des banques de données, du courrier électronique, des nouvelles, les horaires des vols, du commerce électronique, des prévisions météo ainsi que d'autres services. Par la suite, d'autres société ont fait de même, par exemple Telenet, Compuserve, Dow Jones ou Lockheed.
En 1980, les serveurs de bulletin board system permettent à l'aide d'un micro-ordinateur, un modem et un émulateur de terminal d'accéder à des services. Ils permettent également aux différents usagers de s'envoyer des messages, poster des annonces, dialoguer entre eux et s'échanger des fichiers.
Depuis 1989, les technologies apportées à l'Internet passent pas un procédé démocratique d'acceptation mutuelle organisé par l'Internet Engineering Task Force (abr. IETF) - un consortium d'industriels. Pour qu'un service soit reconnu officiellement comme service Internet, son protocole doit avoir été publié sous la forme d'un RFC et être accepté par les membres de l´IETF. Ce procédé de standardisation aide à obtenir une large audience des technologies des serveurs et clients Internet.
En 1994 plus de 5000 réseaux, et autant de serveurs, sont reliés à l'Internet, les fournisseurs d'accès Internet mettent à disposition des services tels que Gopher, World wide web, le courrier électronique ou le transfert de fichiers FTP pour plus de 7 millions d'usagers.

Le client-serveur et le downsizing

En 1987 le principe du client-serveur, dans lequel une application informatique est scindée en 2 processus qui peuvent être exécutés par deux ordinateurs différents, intéresse les fournisseurs de logiciels pour les bases de données. Ashton-Tate, Microsoft et Sybase travaillent ensemble au développement d'un système de gestion de base de données selon le principe du client-serveur, en même temps que IBM et Oracle Corporation mettent sur le marché de tels produits.
Depuis 1990, les systèmes informatiques, en client-serveur, ont connu une croissance explosive ; le client-serveur était une nouveauté à la mode et le mot était considéré comme un buzzword. Contrairement aux systèmes informatiques précédents qui étaient alors équipés d'un mainframe manipulé depuis des terminaux, un système informatique en client-serveur demandait un matériel moins spécifique et moins coûteux. De plus les systèmes client-serveurs utilisaient des produits ouverts, basés sur des standards industriels évitant à l'acheteur de devoir acquérir la totalité de son système informatique auprès du même fabricant. Ces avantages sont à l'origine du downsizing: le replacement progressif des mainframes coûteux et volumineux par des serveurs plus petits, meilleur marché et qui travaillent de concert avec des micro-ordinateurs20.
Les logiciels sont typiquement organisés en trois couches: une qui contient les traitements relatifs à l'affichage, une pour ce qui est relatif aux calculs, et la dernière qui est relative au stockage des informations. En client-serveur les traitements des différentes couches ont été répartis entre deux ordinateurs différents - un client et un serveur.
L'architecture trois tiers est une évolution de l'architecture client-serveur où les traitements des trois couches sont répartis entre un client et deux serveurs.

Technique

Une application distribuée est une application informatique dans laquelle les résultats sont obtenus par la coopération de plusieurs ordinateurs d'un réseau informatique. Un protocole de communication établit les règles selon lesquelles les ordinateurs communiquent et coopèrent.
L'architecture client/serveur est un modèle d'organisation d'une application distribuée dans laquelle les traitements sont effectués par l'exécution conjointe de deux logiciels différents et complémentaires placés sur des ordinateurs différents : le client et le serveur. Le client formule des requêtes, puis les transmet au serveur. Le serveur traite les demandes, puis envoie sa réponse au client. Le client affiche la réponse (par exemple, il présente le résultat à l'écran). Un protocole de communication établit le format des requêtes envoyées au serveur, et des réponses de celui-ci.
Dans l'architecture client-serveur les clients vont rechercher les informations stockées dans les serveurs. Dans l'architecture pair-à-pair (anglais peer-to-peer abrégé P2P) par contre les clients vont rechercher des informations stockées dans d'autres clients, et les serveurs jouent le rôle d'intermédiaires.

Caractéristiques techniques

Dans les produits du marché des serveurs, l'accent est mis sur le débit (nombre de réponses données par unité de temps), la disponibilité et la scalabilité - capacité d'adaptation à une augmentation de la demande. Les serveurs s'occupent de plusieurs utilisateurs simultanément, et ont besoin d'une puissance de calcul supérieure à celle des ordinateurs personnels25. Les serveurs jouent un rôle clé dans de nombreux réseaux et sont souvent logés dans des locaux ventilés et sécurisés26.
Les serveurs fonctionnent continuellement, l'objectif visé étant la disponibilité continue du service, 24 heures sur 24. Les constructeurs de matériel affirment souvent que l'ordinateur peut assurer une disponibilité de 99,999 % (soit moins de 5 minutes d'interruption par année). La disponibilité effective est cependant moins élevée. Les pannes dues au logiciel sont plus fréquentes que celles dues au matériel, et leur nombre a tendance à augmenter avec l'évolution technologique: la quantité de logiciel augmente et sa qualité moyenne stagne. La qualité du matériel, la qualité du logiciel, autant que la qualité des procédures de manipulation du serveur ont un impact sur la disponibilité des services27.
Les composants du matériel dont les caractéristiques ont un effet sur le débit du serveur sont l'interface réseau, les disques durs, les bus, la mémoire, ainsi que la puissance de calcul du ou des processeurs. Le débit du serveur ne sera jamais plus élevé que celui du plus faible des composants28. Le débit est souvent limité par la connexion au réseau. Les serveurs peuvent être équipés de plusieurs processeurs, ce qui leur permet de servir plus de clients, accélère le traitement des requêtes, et augmente le débit25. Des journaux d'activité permettent de déceler des erreurs, dues à un débit trop bas ou des temps de réponse trop longs28.
La capacité d'adaptation (scalabilité) du matériel d'un serveur permettra d'augmenter le débit du serveur en ajoutant ultérieurement des pièces. En cas de manque de scalabilité, une demande accrue posera des problèmes techniques et il sera alors nécessaire de remplacer le serveur. Le coût de remplacement sera le coût d'acquisition du matériel, auquel s'ajoute le coût des travaux de bascule du serveur, et le manque à gagner du à l'indisponibilité du service27.

Matériel

Le mot serveur ne désigne pas une taille d'ordinateur, mais un rôle joué par un appareil sur un réseau informatique. Un serveur peut être une petite boîte, un micro-ordinateur, ou alors un mini-ordinateur, un mainframe voire une ferme de calcul. La taille de l'appareil et sa puissance sera choisie en fonction de la quantité de travail, qui dépend du nombre d'utilisateurs qui demandent des services au même instant29.
Divers constructeurs et assembleurs tels que Apple, HP, Sun, IBM ou Bull vendent des ordinateurs destinés au marché des serveurs.
La durée moyenne d'arrêt des serveurs varie entre 36 minutes et 10 heures par année.
Les serveurs peuvent être montés dans des baies, ce qui permet de les empiler. Ils peuvent être équipés de dispositifs de prévention des pannes et de pertes d'informations, tels que les dispositifs RAID : les informations sont copiées sur plusieurs disques durs, en vue d'éviter leur perte irrémédiable en cas de panne d'un des disques durs.
Le regroupement de plusieurs serveurs en une grappe (en anglais cluster) permet de répartir la charge, et assure que les clients soit servis même en cas d'arrêt d'un des serveurs.
Un Network Attached Storage est un appareil clé en main, conçu spécialement comme serveur de fichier. Il existe également des appareils clé en main pour les serveurs d'impression.
Les serveurs sont parfois reliés à des réseaux de stockage : un ensemble de serveurs est relié par un réseau en fibre optique à une batterie de disques durs. L'espace de stockage de la batterie de disques durs est découpé en partitions réparties entre les serveurs.
Un appareil serveur peut exécuter plusieurs logiciels serveurs en même temps et servir pour de nombreux usagers en même temps. Un serveur est rarement manipulé, et le clavier et l'écran (s'il y en a) servent principalement à des travaux de maintenance, de réparation et de contrôle.
Pour l'année 2005 la consommation électrique annuelle de l'ensemble des serveurs informatiques a été estimée à environ 45 TWh aux États-Unis et 123 TWh pour toute la planète.

Du plus petit au plus grand

La taille et la puissance de calcul d'un appareil serveur seront choisies en fonction de la charge de travail, qui dépend du nombre d'utilisateurs servis au même instant. Un micro-ordinateur peut être suffisant pour offrir des services de partage de fichiers et d'imprimantes sur un réseau qui comporte une dizaine de clients, alors qu'un mainframe peut être nécessaire pour mettre à disposition une volumineuse base de données à plusieurs milliers de clients. Par exemple le serveur central de Whirlpool Corporation est un mainframe qui s'occupe de 73'000 employés répartis dans 70 sites dans le monde entier.
En 2009 le coût d'acquisition d'un ordinateur pour serveur peut aller de 1000 dollars (micro-ordinateur) à 500'000 dollars (mainframe). La scalabilité verticale des ordinateurs du marché des serveurs permet d'y ajouter des composants en vue d'augmenter après coup leur capacité, ce qui leur permet de s'occuper de plus de clients, stocker plus d'information et traiter plus de demandes en moins de temps.
Outre les ordinateurs, les serveurs existent également sous forme d'appareils prêts à l'emploi et offrant un service unique. Ces appareils peu coûteux, dont les plus petits tiennent au creux de la main, mettent en œuvre des services tels que le partage d'imprimante ou de fichiers. Ils possèdent souvent un serveur web incorporé, permettant de manipuler l'appareil. Ils sont destinés aux particuliers et petites entreprises et sont vendus en grande distribution.
Les appareils serveur (anglais server appliance) sont des appareils dans un boitier, qui mettent en œuvre des services courants tels que partage de fichiers, courrier électronique, world wide web, ainsi que des fonctions réseau tel que le pare-feu et le réseau privé virtuel et peuvent servir jusqu'à 50 clients. Les serveurs lame quant à eux, sont des serveurs composés d'un circuit imprimé unique, qui s'installe dans un châssis. Le châssis comporte plusieurs emplacements, permettant d'y placer plusieurs serveurs lame. L'encombrement réduit de tel appareils permet à une entreprise d'en placer un grand nombre dans un petit espace et d'obtenir ainsi de puissants serveurs.
L’avènement de l'Internet a permis de mettre des services à disposition d'un très grand nombre d'usagers. En raison de la taille sans précédent du réseau Internet, les services les plus populaires ont dû pour la première fois être construits en vue de supporter plus d'un million d'utilisations simultanées. Ces besoins ont posé un véritable challenge en nécessitant une puissance de calcul et un débit de réseau sans précédent; les applications Internet sont ainsi devenues un des moteurs de la recherche et de l'industrie informatique. les serveurs de grande dimension sont souvent mis en œuvre par une ferme de serveurs (cluster). Dans ces dispositifs il y a un groupe d'ordinateurs et un appareil qui répartit les demandes en les distribuant à tour de rôle à chacun des ordinateurs du groupe. Le moteur de recherche de Google est une ferme composée de 6000 micro-ordinateurs x86, ce qui permet de traiter plus de mille demandes par seconde.


Serveur de jeu

Le serveur fait partie d'un logiciel de jeu en ligne multijoueur en architecture client-serveur. Il répond à des demandes de diffusion des opérations effectuées par chaque joueur. Le serveur valide les opérations de chaque joueur, arbitre le jeu puis transmet les évolutions du jeu aux autres joueurs.
Le serveur de jeu stocke l'état du jeu en mémoire et l'entretient. Une copie de tout ou partie de l'état du jeu est envoyée aux joueurs qui entrent dans la partie.
Lors de la réception d'une demande — opération effectuée par un joueur — le serveur effectue divers traitements en vue de contrôler la conformité de l'opération par rapport aux règles du jeu puis il effectue les modifications nécessaires sur l'état du jeu qu'il stocke en mémoire. Le serveur envoie ensuite aux différents clients la liste des évolutions effectuées sur l'état du jeu. Chaque client entretient sa propre copie de l'état du jeu.
Le protocole est différent pour chaque jeu en ligne et dépend de la vitesse d'évolution du jeu. Dans un jeu d'action comme Quake ou Half-Life le protocole est adapté à une évolution très rapide80,81. Dans un jeu sur navigateur web les protocoles sont ceux du web et le serveur est une application web.


Économie

Marché

Le marché des ordinateurs serveurs s'est établi à 53 milliards de dollars en 2008 (en baisse de 3,3 % sur l'année).


Fabricants

Les principaux fabricants d'ordinateurs serveurs sont (au 4e trimestre 2008, selon le cabinet d'études Gartner)82 :
IBM : 4,4 milliards de dollars de chiffre d'affaires serveurs au quatrième trimestre 2008 ;
Hewlett Packard83 : 3,9 milliards ;
Dell84 : 1,4 milliard ;
Sun Microsystems : 1,2 milliard ;
Fujitsu et Fujitsu Siemens : 0,6 milliard ;
Autres : 1,6 milliard.
En 2009, 35 % des serveurs sont équipés avec les systèmes d'exploitation Windows NT, 14 % sont installés avec Linux et 36 % sont installés avec un autre système d'exploitation de la famille Unix. Les parts de Windows NT sur le marché des serveurs sont soutenus par la domination des systèmes d'exploitation Windows sur le marché des ordinateurs clients (plus de 80 % des parts de ce marché)85.
Une solution adoptée par de plus en plus de particuliers pour acquérir un serveur consiste à recycler un vieux PC, en installant dessus une version serveur d'un système d'exploitation, la plupart libres comme debian ou ubuntu server.

Aucun commentaire:

Enregistrer un commentaire