Je veux tout savoir de la transformation numérique !
Pour lire l’intégralité des articles issus du magazine bimestriel, identifiez-vous. Vous accéderez ainsi aux articles premium, aux exclus web et vous pourrez télécharger l’ensemble de nos ressources en un clic.
Pour recevoir le magazine chez vous, abonnez-vous !
Je m'identifie

Ce que nous réserve le stockage en 2015

Stéphane Estevez Quantum-article

Stéphane Estevez, responsable senior du marketing produits pour les régions EMEA chez Quantum

  1. Le mot d’ordre : simplicité… et visualisation

Cela ne fait aucun doute : 2015 sera l’année de la simplicité. La complexité des données a pris des proportions inquiétantes. Le problème n’est pas seulement lié à la hausse de la capacité. Les appareils mobiles et les capteurs, dont le volume atteindra 20 milliards d’ici 2020 d’après IDC, produisent tous de nouveaux points de terminaison où des données sont créées. Celles-ci génèrent une quantité sans cesse plus importante d’objets à indexer, chacun d’entre eux étant plus volumineux que par le passé, en raison de la granularité accrue des données à recueillir. Ce flux ininterrompu pose des problèmes inédits et particuliers en termes de performances et de disponibilité. En outre, les données doivent être conservées plus longtemps, car elles peuvent fournir un contexte aux futures analyses. La seule chose qui n’augmente pas, c’est le budget alloué à leur administration. Dans le même temps, les nouveaux arrivants sur le marché du travail, issus de la génération Y, ont grandi dans la simplicité de l’iPad et d’Internet, et ne se contenteront pas des systèmes d’administration à l’ancienne, qui manquent de clarté dans leur interface utilisateur et leurs fonctions de création de rapports. La visualisation va s’imposer. Pour y répondre, les fournisseurs de stockage devront proposer de meilleurs outils de supervision, de gestion et de création de rapports, en quantité comme en qualité, pour le stockage et, le cas échéant, les données elles-mêmes.

  1. La combinaison ultime : automatisation et intelligence

La méthode d’administration la plus simple, c’est encore de supprimer le besoin d’administration. 2015 va marquer le début de la prise de conscience selon laquelle les processus de stockage doivent non seulement être automatisés, mais aussi intelligents, en permettant de corréler le placement et le transfert des données avec leur source, leur type, leur utilisateur, ou encore les données démographiques de l’entreprise et la gestion des processus métier. Et tout cela de manière automatique, y compris dans le Cloud.

  1. Stockage défini par logiciel : plus qu’un simple buzz

Le stockage défini par logiciel (software defined storage en anglais) est à la mode. Dans une récente enquête de 451 Research, 96 % des personnes interrogées se déclarent assez ou très favorables à son adoption. Pourtant, malgré son nom et tout le buzz qu’il suscite, personne ne semble d’accord au sujet de sa définition.  Le logiciel renvoie-t-il uniquement au panneau de configuration, ou également au chemin de données ? Est-il propriétaire ou Open Source ? Ou mélange-t-il les deux ? Les réponses à ces questions varient selon le fournisseur, ce qui rend difficile pour le client de déterminer la valeur des différentes solutions de stockage définies par logiciel et d’en choisir une. En outre, compte tenu de la pression accrue qui s’exerce sur le personnel informatique et de la baisse constante des budgets, il est peu probable que les clients disposent des compétences et de l’expertise nécessaire pour comprendre et tirer parti de la grande diversité en matière d’IOPS, de débit, de latence, de coût et de durabilité offerte par les différentes options disponibles. Parfois, la flexibilité entraîne de la complexité, mettant ainsi hors-jeu nombre de solutions de stockage défini par logiciel, par manque de simplicité.

  1. Produits de stockage convergent : la dure réalité

Comme pour le stockage défini par logiciel, il existe autant de définitions du stockage convergent que de fournisseurs proposant ce type de solutions. Toutefois, tout le monde semble convenir que son objectif est de simplifier les choses (encore cette notion), en appliquant des algorithmes de transfert de données prédéfinis à une combinaison de disques SSD et classiques, créant ainsi un ensemble de blocs, de fichiers et d’objets en mode « scale-out », parfois avec un accès au Cloud et/ou une couche d’intégration avec l’hyperviseur. Il s’agit donc d’automatisation des données à l’échelle d’un équipement. 

Bien sûr, la difficulté réside dans le fait que pour que les algorithmes intelligents et la configuration de stockage choisie par le fournisseur fonctionnent correctement, le concepteur doit formuler des hypothèses concernant le cas d’utilisation, l’écosystème et la démographie des données, et adapter la configuration à cet usage. Ainsi, le stockage convergent constitue un moyen naturel de revenir à un stockage des données orienté applications (et donc non partagé). Revoilà donc les îlots de stockage. Mais ce problème attendra 2016. D’ici là, il va simplement devenir de plus en plus clair que bien que le stockage convergent puisse comporter des avantages lorsque les cas d’utilisation sont correctement définis et ne nécessitent que des niveaux de performance moyens, cette méthode n’est pas adaptée aux applications très consommatrices en données. Ces applications sont extrêmement sensibles au workflow, au choix de la méthode de stockage et à la configuration du client. Au final, bien que le concept de stockage convergent soit intéressant, les clients qui nécessitent des performances élevées doivent pouvoir ajuster les règles en matière de données à leurs besoins spécifiques, afin de définir leurs propres règles en matière de transfert automatique des données.

  1. La séparation des Clouds révèle les coûts au grand jour

Il ne fait aucun doute que les services de données en Cloud public pour l’archivage ou la sauvegarde peuvent permettre de réaliser des économies considérables, tant sur le plan des coûts d’infrastructure que sur celui du temps de gestion. Néanmoins, comme les clients commencent à s’en rendre compte, les Clouds publics ne sont intéressants sur le plan économique que si les données qu’ils stockent n’ont pas besoin d’être régulièrement téléchargées. Dans le cas contraire, le coût de transfert des données dans les deux sens atteint rapidement des niveaux vertigineux. C’est la raison pour laquelle les architectures en Cloud hybride sont amenées à s’imposer comme le modèle de prédilection à l’avenir, car elles permettent aux clients d’accéder aux données ou de les restaurer localement, tout en tirant parti de l’avantage du Cloud public pour les données rarement utilisées et la reprise après incident.

  1. Un seul prestataire Cloud ? Réfléchissez-y à deux fois

Outre son coût élevé, le téléchargement régulier de données d’une archive vers le Cloud n’est pas très rapide. À moins que le client ne soit disposé à payer pour une connexion réseau directe (et dédiée) avec son prestataire, les performances réseau seront bridées par la limite de débit général du réseau WAN et/ou par les problèmes de partage avec d’autres utilisateurs. Dans ces conditions, le téléchargement d’un Po de données ne prendra pas des heures ni même des jours, mais bien des semaines. Maintenant que les entreprises commencent à s’en rendre compte, l’idée consistant à faire appel à plusieurs prestataires Cloud devient plus séduisante, surtout si l’un des fournisseurs devient soudainement trop cher ou pénible à gérer.

  1. Stockage objets : une vedette en coulisses

Au cours des dernières années, le stockage objets de nouvelle génération s’est progressivement imposé comme une solution crédible pour répondre aux défauts inhérents aux RAID classiques en termes de gestion et de protection d’importants volumes de données (surtout dans le Cloud), mais les start-ups spécialisées dans cette méthode rencontrent toujours des difficultés. Pourquoi ? En tant qu’architecture, le stockage objets est un atout essentiel pour stocker d’importants volumes de données pendant longtemps en bénéficiant d’une excellente intégrité et disponibilité, tout en s’épargnant des mises à niveau majeures. Cette méthode est idéale pour le contenu statique, par exemple. Néanmoins, elle ne peut dialoguer avec les anciennes applications de niveau blocs et fichiers. Et comme ses économies d’échelle inhérentes ont tendance à se réaliser uniquement à volume élevé, il est très coûteux pour les grandes entreprises commerciales de la tester en tant que dispositif autonome. C’est la raison pour laquelle les start-ups spécialisées dans le stockage objets ont du mal à remporter l’adhésion générale. Mais ne vous y trompez pas : si les systèmes de stockage objets ne remportent pas un franc succès en tant que produits autonomes, la technologie s’impose en coulisses. On la retrouve dans les archives en ligne, la distribution de contenu et les solutions de workflow géré, et de plus en plus dans les offres convergentes des prestataires de services de stockage classiques. La tendance va s’accélérer au cours de l’année prochaine et le stockage objets va devenir un élément essentiel des solutions de stockage.

  1. Problématique de la hausse des volumes à stocker : l’omniprésence de la vidéo

La vidéo est partout. Autrefois cantonnée au secteur des médias, la vidéo est désormais employée par tous comme outil de communication, mais aussi de conformité. Côté communications, d’après une enquête réalisée par Cisco, la vidéo représentera 79 % du trafic Internet grand public d’ici 2018. S’agissant du marketing, une étude Forbes Insights révèle que 59 % des hauts dirigeants déclarent préférer regarder une vidéo plutôt que lire une publicité, ce qui devrait générer un chiffre d’affaires de 5 milliards de dollars pour les publicités vidéo d’ici 2016. Côté conformité, de plus en plus d’organismes de sécurité publique utilisent la vidéo, notamment les caméras portatives (par exemple, la police qui s’équipe en GoPro) pour enregistrer des interactions en direct et obtenir des preuves pouvant servir dans un cadre judiciaire ou général. Tout cela va renforcer la complexité des problématiques de stockage en 2015. Même compressés, les fichiers vidéo sont extrêmement volumineux et il est impossible de les dédupliquer. Ils ont aussi tendance à être statiques et réutilisables, ce qui justifie leur stockage prolongé. Ensemble, ces facteurs ont tendance à provoquer une croissance imprévisible du volume de données. Par ailleurs, il faut s’attendre à des problèmes similaires avec les données diffusées en continu par les capteurs. Dans certains cas, les similitudes avec la vidéo sont frappantes.

  1. L’impact général de la hausse du volume des données vidéo

Outre les problèmes qu’elles engendrent en matière de budget alloué au stockage, toutes ces vidéos (et les informations recueillies par les capteurs) posent un autre problème : elles créent d’immenses difficultés pour les processus de sauvegarde et de réplication habituels. Elles gaspillent d’importantes ressources en termes de temps, de personnel et de calcul informatique, minant la disponibilité des données et soulignant le fait que la sauvegarde est condamnée. Au cours de l’année à venir, de plus en plus de clients vont donc chercher de nouvelles méthodes et solutions pour sortir des magasins de données actives ces fichiers volumineux, impossibles à dédupliquer et statiques, et les transférer vers des magasins de contenu/d’archivage distincts, car il s’agit là de la seule façon de garder la maîtrise des coûts de stockage principal et de sauvegarde associés. Dans le cas contraire, ils perdront un temps considérable à traiter et transférer en permanence les mêmes jeux de données statiques.

  1. Ceph devient grand public pour les objets et les blocs

Autrefois uniquement prisé par les universitaires, Ceph a franchi le pas en devenant distribué par Red Hat (Inktank). Ceph est un peu le couteau suisse des plates-formes de stockage ouvertes : il présente les objets, les blocs et les fichiers (planifiés). Bien que la distribution puisse toujours gagner en maturité en termes de fonctionnalités et de prise en charge (par exemple, en améliorant la documentation disponible), il ne fait aucun doute que Red Hat dispose de la volonté et des capacités suffisantes pour que les choses évoluent à ce niveau. Les fournisseurs de solutions l’ont bien compris. Il faut donc s’attendre à voir débarquer toute une gamme de nouvelles plates-formes de stockage (vraisemblablement convergent) reposant sur cette technologie en 2015. Bonne nouvelle : l’intérêt suscité devrait accélérer la maturation et l’innovation, mais lorsque les premières solutions seront commercialisées, il faudra tout de même faire attention à ce dont elles sont réellement capables en termes de performances. Car bien que cette technologie semble universelle, comme tous les systèmes de stockage, elle ne sera vraiment adaptée qu’à certaines applications.


Commenter

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *