Le temps du datacenter unique est révolu !

Produits, Stockage // mardi, 21 mai 2019 // Rédigé par Yves Pellemans

Pour gérer l’explosion des données, les entreprises optent de plus en plus souvent pour une architecture bicéphale avec des data centers de proximité et des data centers centraux. Si les premiers permettent de collecter et de prétraiter les données issues notamment de l’IoT et de répondre à des problématiques locales, les seconds délivrent des informations plus stratégiques pour l’entreprise grâce à une puissance de calcul et à des outils de machine learning et d’IA...

 

Optimiser les processus, améliorer la relation clients, patients ou citoyens, réduire les coûts de production, anticiper des évènements, toutes les entreprises sont convaincues de l’utilité de la donnée pour répondre à ces problématiques. Mais toutes se heurtent à l’afflux de données. Comment collecter, transporter, traiter, analyser, sécuriser, archiver, stocker toutes ces données ? Comment tirer partie de ces millions de données issues des objets connectées, du big data et de l’IA ? Selon une étude d’IBM de 2018, chaque jour, 2,5 quintillions de bytes de donnéessont générés dans le monde. Une explosion qui s’accélérera de façon exponentielle sous l’impact des 200 milliards d’objets connectés d’ici 2020. Comment alors extraire de la valeur des données structurées ou non, internes ou externes à l’entreprise en un temps réduit et sans recourir à des ressources humaines supplémentaires ? Un enjeu qui trouve sa résolution dans l’automatisation de la gestion de la donnée via la mise en place d’un data center autonome structuré autour de deux piliers. 

 

Le Edge computing répond aux problématiques locales

Le premier pilier : un data center local pour traiter au plus près les données issues des objets connectés. Baptisé Edge Computing, ce data center local, repose sur une infrastructure appelée Software Defined Data Center (SDDC) permettant aux équipes opérationnelles de construire, depuis une console via du code, des services applicatifs. Avec le SDDC toutes les ressources du datacenter – serveurs, stockage, réseau, sécurité - sont exécutées et automatisées par le logiciel conformément à des règles préétablies. Les entreprises disposent alors de catalogues de services personnalisés et proposent à leurs utilisateurs l’IT as a Service. Ces datacenters locaux fournissent de la mémoire cache (data caching) réduisent le temps de latence et le traitement des données et assurent une plus grande confidentialité et sécurité des données. Ils permettent également d’homogénéiser les infrastructures multisites par le déploiement d’une solution identique, assurent une mise en service rapide et réduisent le coût total de possession. Le Edge computing est idéal pour répondre aux problématiques métiers d’un hôpital, d’un retailer, d’une ville, d’une collectivité.

 

Le data center central, délivre des informations stratégiques 

Deuxième pilier de ce data center autonome : le data center central construit au tour d’un datalake, capable de traiter de la donnée structurée ou non structurée et d’un datawarehouse pour les bases de données. Ainsi, les outils d’automatisation des centres de données de proximité envoient les données pré-consolidées et prétraitées au data center central où elles sont traitées par des applicatifs plus complexes, des outils de BI, des algorithmes de machine learning et d’IA. Croisées avec des données issues de l’extérieur, les données internes à l’entreprise délivrent alors des informations plus stratégiques pour l’entreprise que ce soit relatif à l’amélioration des process, de la relation client, patient, citoyen, ou relatif à des actions préventives ou prédictives. Des outils d’automatisation donnent à ce data center central un grand degré d’autonomie dans le traitement de la donnée, déchargeant ainsi la DSI de taches répétitives et chronophages. Extraites de ce data center central, certaines données peuvent alimenter des applicatifs disponibles dans le cloud public permettant ainsi aux entreprises de proposer rapidement de nouveaux services et usages.

 

Aujourd’hui sous la contrainte de l’explosion des données, les entreprises sont contraintes de repenser l’organisation de leur gestion de la donnée et leurs infrastructures. Cette architecture bicéphale permet, d’automatiser l’extraction de la valeur de toute la masse de données issues des objets connectés et cela en un temps réduit et sans recourir à des ressources humaines supplémentaires. Le data-driven, seul salut à la compétitivité des entreprises.

 

Tribune d'Yves Pellemans, CTO et directeur de la stratégie & innovation pour Axians  

Tags associés :
data center stockage
Derniers articles de Yves Pellemans

btn webtv

Dossier à la une

  • Le défilé Balenciaga a été réalisé avec 81 sorties (MP), dans un hall de leds immersifs à 360°. DR

    La projection numérique, axe incontournable du spectacle vivant

    jeudi, 18 juillet 2019 // Rédigé par Emma Mahoudeau Deleva
    Il y a maintenant une dizaine d’années, l’Agence nationale la recherche (ANR) soutenait le projet « Virage », une plate-forme de recherches sur les nouvelles interfaces de contrôle et d’écriture répondant aux attentes des professionnels. En 2008, elle concluait que la mutation de la vidéo dans le spectacle vivant bénéficiait...

Dernières news / coups de coeur

SV app

SONOVISION PREMIUM PARTNERS

Pas d'éléments trouvés.
Retour en haut de page
Copyright 2011-2019 Génération Numérique. Tous droits réservés sitemap