Citation
Les auteurs
Mikael LENA
(mikael.lena@gmail.com) - Vaillant GroupMarc Bidan
(marc.bidan@univ-nantes.fr) - Université de Nantes
Copyright
Déclaration d'intérêts
Financements
Aperçu
Contenu
Un rapide bilan indique que ce violent incendie a détruit entièrement la tour autoventillée du deuxième datacenter (SBG2, 2011) du bâtiment strasbourgeois et que, meme si les trois autres (SBG1, SBG3, SBG4) ont du être mis hors tension, ils pourront redemarrer avec, à priori d’ici le 22 mars, la récupération des données primaires et backup.
Toutefois, les dégâts matériels sont importants, les pertes logicielles sont colossales. La transparence de OVH est cependant totale. Elle est à saluer avec par exemple la mise à disposition d’informations détaillées pour chacune des 4 solutions (Web Cloud, Bare Metal, Hosted Private Cloud, Public Cloud) c’est à dire l’état, la localisation, la salle, le statut et la réalité ou non d’une sauvegarde.
Pour le grand public, il s’agit donc de revenir sur terre et d’arrêter de fantasmer une informatique qui n’est aucunement « dans les nuages ». Il n’existe d’ailleurs pas plus de nuage que de gratuité des services. Pour les praticiens, il s’agit également de revenir à plus de pragmatisme et de prudence en insistant sur l’utilité des plans de continuité/reprise d’activité, les backup et les redondances.
Il s’agit donc, dans les deux cas, de ré-interroger l’informatique en nuage (cloud computing). Il s’agit aussi de revisiter comment “faire son informatique” comme l’exprime Richard Stallman.
De quoi parlons – nous ?
Le nuage qui est évoqué lorsque nous parlons d’informatique en nuage n’est autre qu’un ensemble de services de stockage et de traitement de données fournis par un ou plusieurs opérateurs via le réseau Internet.
Il s’agit bien évidement d’un formidable portefeuille de solutions et il n’est pas question, ici, de l’opposer aux solutions locales basées sur des ordinateurs centraux (mainframe computer). Il est en effet évident que face à la montée en volume des données et en complexité des traitements, de très nombreuses entreprises n’ont tout simplement pas ou plus les capacités financières, matériels, logicielles, humaines, immobilières, sécuritaires, etc. de piloter en toute sécurité l’intégralité de leur informatique “sur site”. L’informatique en nuage propose ainsi aux entreprises de toutes tailles depuis déjà une bonne dizaine d’année une véritable révolution organisationnelle et technologique. Elle leur propose d’externaliser leurs données, applications et infrastructures et qu’un opérateur dont c’est le métier – infogérance – puisse s’en occuper moyennant finance au fur et à mesure que les réseaux et les capacités de stockage et traitements s’améliorent. De formidables possibilités naissent alors avec par exemple l’ouverture de marchés qui demeuraient hors d’atteinte, les pratiques qui peuvent s’affranchir des contraintes géographiques, les veilles et mises à jours non-anxiogènes et les processus qui se standardisent et s’industrialisent.
Nous ne reviendrons pas ici sur la nature et les caracétristiques des « nuages » mais rapellons que selon leur degré d’accessibilité, ils peuvent être public, privé voire hybride. De même, selon les services proposés ils peuvent être SaaS (Software as a Service), PaaS (Platform as a Service), IaaS (Infrastructure as a Service) voire pour les activités en mode nomade MBaaS (Mobile Backend as a Service). Le cloud est une formidable proposition technologique, c’est une évidence !
Quel est le problème ?
Comme nous l’a enseigné l’incendie du datacenter SBG2 d’OVH avec les perturbations pour des milliers de clients et sites web hébergés, le nuage est bien sur terre. Il n’est donc tout simplement pas à l’abri de la vie réelle et de ses vicissitudes, des incendies, des inondations, des planchers qui s’écroulent, des toits qui fuient, du béton qui se fissure, des canicules, des sècheresses, des tremblements de terre, des attaques physiques ou cyber, des coupures d’électricité, d’eau, de réseau internet, etc. Même si ces structures faites de béton, de ciment, de plastiques, de métaux, de verres, de câbles, etc. rivalisent d’ingéniosité afin de garantir la disponibilité des données 24/7, elles restent exposées aux aléas terrestres. D’ailleurs les méga datacenter qui maillent notre cybermonde sont situés dans les zone géographiques tempérés voire froide (pour minimiser les couts de refroidissement) et dans les zones géopolitiquement les moins tendues (pour minimiser les couts sécuritaires) pas trop éloignés des zones d’activités économiques là où les données à traiter sont massives !
Face à ces dangers bien réels et bien terrestres, le réveil des naufragés du cloud peut être brutal. Surtout si ils ont – volontairement ou non – décidé de ne pas externaliser leurs précieuses données chez deux prestataires distincts ou en deux localisations distinctes. C’est le cas malheureusement du studio de création de jeux vidéo Facepunch qui aurait perdu définitivement des données de ses joueurs.
Même si elles sont importantes, nous n’aborderons pas ici en détail les dimensions écologiques. La question de la soutenabilité du cloud computing, de ses datacenter et de son modèle d’externalisation croissante des données et applications est en effet centrale. Il semble clair que les prévisions de croissance du volume de données (big data) et surtout que la simultanéité de plus en plus massive de leur traitement renvoient à notre hérésie énergivore. Il s’agit par exemple de ces industries qui numérisent l’intégralité d’un process et des data qui lui sont liées alors que 75 % d’entre elles sont, et seront, inutiles. Il s’agit finalement non pas d’éduquer les opérateurs, fournisseurs et infogéreurs – qui ne font que leur travail en offrant un service qu’ils pensent rentables ! – mais plutôt leur clients (professionnels et particulier) et de les désacoutumer face à leur obsession de la data
Quelles sont les solutions ?
Il serait ridicule d’opposer solution cloud et solutions “mainframe” même si ces dernières sont moins exposées aux fuites de données. Nous plaidons plutôt ici pour une complémentarité, cloud et mainframe plutôt que cloud ou mainframe. Nous plaidons surtout pour que les clients – particuliers comme professionnels – du cloud computing redeviennent adultes
D’une part, il serait interesssant que les particuliers-usagers cessent de penser que la « dématérialisation » de leur photo postée sur Facebook, Instagram, TikTok ou de leur vidéo sur Youtube ne « coute » rien. Elles sont simplement ailleurs à quelques milliers de kilomètres de chez eux. Elles y ont été transportées par un câble sous marin pour être stockée sur le disque dur d’un ordinateur fabriqué par IBM, HP ou Cisco posé sur une dalle en ciment au troisième étage d’une tour autoventilée en béton refroidie 24/24 par des ventilateurs géants alors que dehors il fait 35 degrés ! Les usagers devraient peu à peu s’appercevoir que leurs données ne sont jamais dématérialisées, seule la matérialité de leur stockage a été déplacée de quelques milliers de kilomètres . Rien n’est perdu et peut être qu’un jour, nous adopterons une informatique frugale et des comportement plus responsables. Il est peut etre interessant aussi de s’interesser à des protocoles de messagerie open source comme MQTT, à des données éphèmeres ou à de nouveaux usages sans illusoire et intenable gratuité. La sobriété numérique est une voie à explorer !
D’autre part, il serait opportun que les praticiens-clients pensent sérieusement leur choix d’externalisation en triant les données importantes (celles pour lesquelles ils vont accepter de payer un certain prix pour un certain niveau de sécurité) et les données moins importantes (celles pour lesquelles ils vont accepter de prendre un risque de disparition) voir les données sans importance (celles qu’ils peuvent détruire eux même!). Ils peuvent même aussi penser à leur affecter une durée de vie – et oui la notion de durée de vie c’est à dire de mort des données n’existe pas dans le monde magique du cloud – et ne payer que pour garantir leur accès durant cette durée. Ils doivent aussi re penser leur stratégie d’externalisation en gardant à l’esprit qu’il sont amenés à partager le même prestataire que leurs concurrents. Ils doivent enfin se rappeler qu’un serveur maison non répliqué expose leur entreprise a autant – voire plus – de risques qu’un serveur hébergé dans le cloud.
Un peu d’espoir
Finalement, l’incendie du data center SBG2 de Strasbourg, nous incite aussi à se représenter le cloud, non pas comme une infrastructure magique « aux frontières du réel », mais plutôt comme une vaste solution “mainframe” délocalisée et partagée.
Cet incendie d’une des pépites française, qui est notamment en charge de porter le projet d’infrastructure européenne Gaia-X et clame « On Vous Héberge », doit nous inciter à appréhender le cloud comme un vaste enchevêtrement de béton, de ciment, de bois, de fer, de métaux, de câbles, de verre et de plastique afin de bien garder à l’esprit sa réalité et donc ses vulnérabilité.
Ensuite, il sera temps de repenser nos besoins en données. Les débits s’accroissent rapidement (5G, fibre), les disques durs de plus en plus performant s’empilent dans les data center et salles serveurs. Pourquoi faire ? Pour quelle utilité ? La plupart des données ne sont d’ailleurs pas exploitées ou si peu !
Paradoxalement, cet incendie nous invite à court terme à penser la matérialité du contenant (le datacenter) mais c’est bien à moyen terme que la question se pose, quel est donc le sens du contenu (les données) ? C’est bien les data et la folie de leur fabrication qu’il faut appréhender et revisiter.