Data lake: révolution pour le stockage des données

Publié le 12 juin 2018

data_lake_stockage_donnees_generix_-_1
Image-Isabelle-badoc
Badoc
Isabelle
Product Marketing Manager chez Generix Group
Catégories
Entrepôt
Analyse Des Données

L'un des enjeux actuels du Big Data est de pouvoir stocker des données en quantité suffisante pour être exploitées avec pertinence. Les applications d'intelligence artificielle (IA) et de machine learning ont en effet besoin d’importants volumes de données pour être performantes. Mais le stockage de ces informations a un coût, souvent très élevé. Comment conserver ces informations dans les meilleures conditions et à moindre frais ? Focus sur le Data Lake, nouvelle technologie du cloud au service du Big Data.

Qu'est-ce que le Data Lake ? 

Avec l'essor du Big Data, le volume des données disponibles a explosé. Problème : pour des questions de coûts, il est aujourd'hui difficile d'extraire toutes les données des logiciels pour les exploiter comme les entreprises le faisaient auparavant. 

Pour conserver les données le plus finement possible et dans la durée, une nouvelle technologie était nécessaire. C’est ainsi qu’est né le Data Lake, une solution de stockage qui permet d'organiser et conserver des fichiers de données dans leur format d'origine, sans les transformer. 
 

Pourquoi y avoir recours ? 

Le stockage des données issues du Big Data est aujourd'hui une vraie gageure pour les entreprises. Le fonctionnement des algorithmes d'intelligence artificielle nécessite l'analyse d'un grand nombre d'informations pour étudier les comportements et établir des modèles de prévisions fiables. Il est donc nécessaire de permettre l'accès aux données dans le temps et d'en assurer la sécurité sans faire exploser les coûts de conservation.  

Grâce au Data Lake, conserver un maximum de données fines, qui seront utilisées pour nourrir les outils d'exploitation de données de l'IA, est un jeu d’enfant. But de l’opération : construire aisément des modèles prédictifs. Cette nouvelle technologie de stockage permet de répondre aux 3 principales exigences du Big Data :  

  1. assurer la sécurité des données ;  
  2. conserver leur intégrité ;  
  3. garantir leur disponibilité dans le temps à moindre coût.