5 Tendances Data pour 2022


Comment la data va continuer de révolutionner notre quotidien

 

Au cours de la dernière décennie, la science des données a été prise dans le sillage de l’innovation technologique. La collision entre une puissance de traitement massive, de vastes quantités de données ainsi que les progrès de l’IA et du Machine learning, a créé des progrès sans précédent dans l’analyse, la compréhension et la découverte des données.

 
De même, le développement rapide des technologies a permis de mieux gérer, stocker, organiser et exploiter les données ces dernières années. Et cela va encore continuer.
Les dépenses mondiales en matière de big data et d’analyses atteindront 274 milliards de dollars en 2022, soit une hausse de 27 % en un an, d’après Statista et IDC.
 
Une autre étude réalisée par Vanson Bourne pour Teradata, fait apparaître que les entreprises orienteront leurs investissements vers la modernisation de leur architecture cloud et le renforcement de leurs capacités de traitement et d’analyse de données en 2022.
 
La data va donc encore être au cœur des préoccupations et plusieurs grandes tendances vont guider cette évolution. 
 

L’IA Generative

pour aller plus loin dans l’exploitation des données

D’ici 2025, Gartner prévoit que 10% des données produites, contre moins de 1% aujourd’hui, seront issues de l’intelligence artificielle (IA) générative.
L’IA générative, technologie émergeante, permettra grâce à des méthodes d’apprentissage automatique, de générer de nouveaux artefacts « réalistes et originaux » en utilisant des contenus existants pour apprendre et en générer de nouveaux, que ce soit avec du texte, du son, des images, …
Il est possible aujourd’hui, tout en respectant la réglementation RGPD, d’utiliser plus facilement des données issues de différentes sources, qu’elles soient internes ou externes. Celles-ci permettant de générer des données dérivées, à partir de combinaisons, d’associations et de synthèses de données.

 

Cette tendance n’est pas nouvelle, mais elle est devenue plus abordable en termes de coût, de capacité de stockage, de maturité des usages et d’avancées technologiques qui permettent de repousser nos limites et de résoudre des problèmes qu’il était difficile de résoudre jusqu’à présent.

Les Data Fabric

pour disposer d’un environnement data unifié, agile et performant

La tendance Data Fabric, déjà émergeante en 2021, continue de monter en puissance. Présentée comme « une intégration flexible des données à travers les plateformes et les utilisateurs en entreprise », cette approche permet de réduire les efforts de gestion des données et d’accélérer la création de valeur.

 

Il s’agit de créer un environnement unique et unifié s’appuyant sur un ensemble de services et technologies pour mieux gérer et gouverner les données. Cela doit faciliter l’accès à des outils agiles, performants, interopérables et ergonomiques pour servir les besoins et attentes de chaque utilisateur (data scientist, data analyst, data engineer, directions métier…) qui souhaitent accéder, ingérer et partager les données, tout en leur garantissant la disponibilité d’une même donnée référente.

 

« Ces nouvelles Data Fabrics unifient les savoirs et technologies des data hubs, data lakes et data warehouses » selon Gartner.

La Data Ethic

pour répondre aux exigences des consommateurs tout en produisant des étant plus pertinent

La RGPD, principe de minimisation de la CNIL, suppression du système de traçage des cookies 3rd party et limitation de l’usage des cookies 1st party, projet de règlement ePrivacy, …
L’obligation d’appliquer les règles de protection des données à caractère personnel, jumelée avec la réticence et la défiance de la part des consommateurs a permis aux entreprises de prendre conscience de l’enjeu et de changer de posture quant à la gestion des données.

 

La réglementation n’est plus seulement qu’une affaire réglementaire, mais un projet d’entreprise. Au-delà d’être en conformité et de recréer un lien de confiance avec les consommateurs, l’application de ces règles permet également de recueillir des données pertinentes pour enrichir sa connaissance client.

 

L’IA doit donc être capable de fonctionner avec moins de données et en se concentrant sur les Zero et First party Data tout en faisant appel à des techniques de « small data » et de machine learning adaptatif.
Une IA toujours plus intelligente, plus responsable et évolutive permettra ainsi de valoriser l’exploitation de données « respectueuses » et finalement, ce qui est perçu comme une contrainte, peut devenir un levier business.

L’avènement des analyses et données composites

pour faciliter l’exploitation et l’interprétation des indicateurs

Les données composites permettent de créer un type de données unique comportant une ou plusieurs zones liées dynamiquement à des zones d’un autre type de données. Ce modèle de gestion des données permet de faire appel et référencer des composantes provenant de plusieurs sources de données ou plusieurs tables au sein d’une source de donnée unique.

 

Ainsi, il est possible de proposer une expérience plus intuitive, accessible à une plus large audience allant au-delà des experts de la donnée.

 

Cela permet de faciliter et d’encourager la collaboration, de faciliter l’accès aux analyses et de renforcer les capacités de l’entreprise.

Les technologies innovantes à maturité

pour aller plus loin dans l’industrialisation et la valorisation des projets data

La Data Science et l’IA permettent aujourd’hui de travailler avec des données variées et de tirer une réelle valeur de nouveaux formats : texte, voix, image, vidéo, …

 

Grâce aux méthodes avancées de Deep Learning et maintenant de NLP ou de Computer Vision, il est possible de traiter des sujets innovants comme la reconnaissance automatique d’objets, l’analyse de verbatims, l’analyse d’images, … Les dernières avancées de la recherche permettent aux algorithmes d’apprentissage automatique de comprendre, d’évaluer et même de synthétiser le texte et la voix de manière inédite par exemple.

 

D’autant que la maturité de ces technologies jumelée aux nouvelles méthodes projet de type DataOps et MLOps facilitent l’industrialisation et le déploiement des modèles en production.