Big data et intelligence artificielle : le défi des entreprises en 2020

0
106

On entend souvent parler de big data, un terme qu’on traduit littéralement par « grosse donnée » en français, et qui évoque une notion de quantité volumineuse de données et d’informations. On parle plus spécifiquement de big data pour toutes les activités analytiques et systématiques autour des données, ainsi que les technologies pour leur stockage. La spécificité du traitement de ces ensembles de données est l’utilisation d’outils non standard, forcés par la complexité des informations qu’ils génèrent.

Concrètement, comment peut-on définir le Big Data ?

Les spécialistes du Big Data utilisent le concept de trois attributs dans le modèle 3V – volume (volume), variété et vitesse (vitesse de traitement) pour une définition plus précise du phénomène – ce modèle a été décrit pour la première fois en 2001 dans le cadre du rapport du groupe META. Gartner l’a élargi en 2011 avec deux autres dimensions : la variabilité et la complexité. Des sociétés telles qu’IBM ou SAS définissent également le Big Data sur la base de variantes du modèle Gartner.

Quels sont les enjeux autour du Big Data pour les entreprises ?

La nécessité de gérer de gros volumes de données oblige les entreprises spécialisées dans les infrastructures informatiques à proposer de nouvelles solutions dans le domaine du stockage (serveurs et stockage), ainsi que des logiciels. Les technologies et outils clés à l’heure actuelle sont : le logiciel Apache Hadoop, le projet Stratosphere ainsi que le modèle de cloud computing, permettant le fonctionnement des ressources informatiques des entreprises dans le cloud.

Le phénomène des mégadonnées : une croissance mondiale de la quantité d’informations

Le développement de bases de données trouve une application dans presque tous les domaines de la vie – des télécommunications et des nouvelles technologies Internet au développement de la médecine et des drones. Selon les estimations, en 2020, le nombre de données générées par l’humanité atteindra 40 zétaoctets (où un zétaoctet correspond à un milliard de téraoctets d’informations). À l’heure actuelle, environ 90% des collections sont des données dites sombres – c’est-à-dire des données non structurées, auxquelles nous n’avons pas accès en tant que volumes structurés.

Parallèlement à l’augmentation des données collectées, une telle analyse était nécessaire pour permettre d’obtenir des avantages mesurables sous forme de connaissances sur les habitudes et le comportement des individus dans le contexte d’un ensemble plus large. En un mot – dans les années à venir, nous aurons une sorte de travail pour améliorer « l’expérience utilisateur » – sauf que « l’utilisateur » passera par des machines qui auront de plus en plus besoin d’accéder à des données structurées pour l’analyse.

L’avenir du Big data est lié à l’essor de l’intelligence artificielle

Le développement de l’analyse du Big Data est indissociablement lié à l’apprentissage automatique et, au sens large, au développement de l’intelligence artificielle, mais il est très important de faire la distinction entre ces domaines de connaissance en fonction des différences et des relations mutuelles. L’apprentissage automatique et les systèmes d’apprentissage visent à détecter des modèles inconnus dans les bases de données, à créer des analogies et à modifier des données, en d’autres termes, il est le résultat du raffinement d’algorithmes et de systèmes analytiques automatisés basés sur le Big Data et servant de base au développement de l’intelligence artificielle.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici