French translation of a Cortex newsletter by Jason Bloomberg
Le concept de mégadonnées existe depuis plus d’une décennie maintenant, et aujourd’hui, les ensembles de données sont plus volumineux que jamais.
La production de contenus de tous types continue d’exploser. Divers types d’appareils produisant de la télémétrie, des capteurs IoT aux robots en passant par les microservices basés sur le cloud, génèrent d’énormes quantités de données, toutes potentiellement précieuses.
Du côté de la consommation, l’IA nous a donné de bonnes raisons de générer, de collecter et de traiter de vastes quantités de données – plus il y en a, mieux c’est. Aucun cas d’utilisation de l’IA, des véhicules autonomes à la prévention des pannes d’applications, ne peut être amélioré avec plus de données, tout le temps.
Où mettre toutes ces données continue d’être une préoccupation constante. L’explosion des données menace de submerger toute réduction des coûts de stockage que nous pourrions obtenir. La gravité des données continue de nous peser. Et peu importe le nombre de données dont nous disposons, nous voulons toutes les informations que nous pouvons en extraire à l’heure actuelle.
Le défi de savoir comment gérer toutes ces données, en fait, est plus compliqué que les gens ne le pensent. De multiples considérations ont un impact sur toute décision que nous pourrions prendre concernant la collecte, le traitement, le stockage et l’extraction de valeur à partir d’ensembles de données dynamiques de plus en plus volumineux.
Voici quelques-unes des bases.