Big data et intelligence artificielle : le défi des entreprises en 2020

Big data et intelligence artificielle : le défi des entreprises en 2020

On entend souvent parler de l’emploi big data, un terme qu’on traduit littéralement par « grosse donnée » en français, et qui évoque une notion de quantité volumineuse de données et d’informations. On parle plus spécifiquement de big data pour toutes les activités analytiques et systématiques autour des données, ainsi que les technologies pour leur stockage. La spécificité du traitement de ces ensembles de données est l’utilisation d’outils non standard, forcés par la complexité des informations qu’ils génèrent.

Concrètement, comment peut-on définir le Big Data ?

Les spécialistes du Big Data utilisent le concept de trois attributs dans le modèle 3V – volume (volume), variété et vitesse (vitesse de traitement) pour une définition plus précise du phénomène – ce modèle a été décrit pour la première fois en 2001 dans le cadre du rapport du groupe META. Gartner l’a élargi en 2011 avec deux autres dimensions : la variabilité et la complexité. Des sociétés telles qu’IBM ou SAS définissent également le Big Data sur la base de variantes du modèle Gartner.

Quels sont les enjeux autour du Big Data pour les entreprises ?

La nécessité de gérer de gros volumes de données oblige les entreprises spécialisées dans les infrastructures informatiques à proposer de nouvelles solutions dans le domaine du stockage (serveurs et stockage), ainsi que des logiciels. Les technologies et outils clés à l’heure actuelle sont : le logiciel Apache Hadoop, le projet Stratosphere ainsi que le modèle de cloud computing, permettant le fonctionnement des ressources informatiques des entreprises dans le cloud.

Le phénomène des mégadonnées : une croissance mondiale de la quantité d’informations

Le développement de bases de données trouve une application dans presque tous les domaines de la vie – des télécommunications et des nouvelles technologies Internet au développement de la médecine et des drones. Selon les estimations, en 2020, le nombre de données générées par l’humanité atteindra 40 zétaoctets (où un zétaoctet correspond à un milliard de téraoctets d’informations). À l’heure actuelle, environ 90% des collections sont des données dites sombres – c’est-à-dire des données non structurées, auxquelles nous n’avons pas accès en tant que volumes structurés.

Parallèlement à l’augmentation des données collectées, une telle analyse était nécessaire pour permettre d’obtenir des avantages mesurables sous forme de connaissances sur les habitudes et le comportement des individus dans le contexte d’un ensemble plus large. En un mot – dans les années à venir, nous aurons une sorte de travail pour améliorer « l’expérience utilisateur » – sauf que « l’utilisateur » passera par des machines qui auront de plus en plus besoin d’accéder à des données structurées pour l’analyse.

L’avenir du Big data est lié à l’essor de l’intelligence artificielle

Le développement de l’analyse du Big Data est indissociablement lié à l’apprentissage automatique et, au sens large, au développement de l’intelligence artificielle, mais il est très important de faire la distinction entre ces domaines de connaissance en fonction des différences et des relations mutuelles. L’apprentissage automatique et les systèmes d’apprentissage visent à détecter des modèles inconnus dans les bases de données, à créer des analogies et à modifier des données, en d’autres termes, il est le résultat du raffinement d’algorithmes et de systèmes analytiques automatisés basés sur le Big Data et servant de base au développement de l’intelligence artificielle.

Les bonnes questions à se poser sur la Data Governance

On parle de plus en plus de Data Governance et la mode du cloud y est pour beaucoup. Le stockage et l’accessibilité des données où que l’on soit a de très nombreux avantages, mais attention à qui vous confiez vos données. Il faut donc vous poser 3 questions avant d’envoyer ou télécharger des données pour votre entreprise :

  • D’où proviennent les données ?
  • Ces données sont-elles conformes aux règles et à la politique de votre entreprise ?
  • Où sont stockées vos données ?

Tout ceci a un nom : la gouvernance des données. C’est aujourd’hui un élément essentiel de la stratégie d’une entreprise qui manipule et utilise des données, que celles-ci soient sensibles ou pas. Prenons un exemple simple : le lieu où sont stockées vos données. En fonction du pays où se trouve le serveur, la société peut être autorisée sans même votre accord à accéder à vos données. Il est donc important de bien lire les conditions générales de vente de votre hébergeur, ainsi que les conditions d’application dans le pays. L’exemple du Patriot-Act aux États-Unis en est le parfait exemple, mais le problème peut également survenir avec d’autres pays. Pour information, la Chine et l’Inde abritent de très nombreux serveurs cloud. Vous voilà donc prévenu.


Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *