Bien que les publications sur les plateformes en ligne, les contenus multimédias instantanés et les informations géolocalisées ne soient pas encore pleinement utilisés par les équipements de niche, ces sources de données gagnent en importance.
L’IA générative et la discipline de gestion du Cloud ouvrent de nouvelles perspectives dans l’exploitation des données. Tandis que l’Intelligence artificielle générative révolutionne de nombreux secteurs, elle accroît considérablement les besoins en données. Les entreprises sont confrontées à un défi de taille : collecter, stocker, traiter et analyser des volumes de données toujours plus importants et de natures de plus en plus diversifiées. Ces nouvelles exigences mettent en lumière les limites des approches traditionnelles de gestion des données et soulignent l’importance d’une stratégie DataOps robuste pour tirer pleinement parti de ces opportunités.
Les entreprises peuvent tirer parti de l’IA générative
La mise en œuvre d’une logique prédictive dans des domaines tels que l’entretien est conditionnée par l’accès à des ensembles d’informations volumineux. 62 % des personnes interrogées s’attendent à ce que la quantité de données utilisées pour les prévisions augmente fortement au cours des deux prochaines années. Pourtant, les enjeux majeurs auxquels fait face le secteur informatique sont principalement liés à la pénurie de talents (48 %), aux bévues de manipulation (43 %) et aux contraintes en rapport avec l’extensibilité (40 %). D’ailleurs, les acteurs du marché, à l’image de BMC, mettent en exergue le faible niveau d’automatisation des processus (43 %). Si les obstacles rencontrés par le Big Data ne sont pas correctement appréhendés, les objectifs fixés ne pourront être atteints.
Or, le succès d’une approche DataOps repose sur un socle solide de contrôle de données. Sur les entreprises qui pensent être matures pour gérer leurs données, presque un tiers (27 %) utilisent les méthodes DataOps à tous les niveaux, contre moins d’un cinquième (19 %) pour les autres.
L’Intelligence artificielle générative, qui utilise beaucoup d’informations, requiert également une gestion administrative rigoureuse de ces dernières. Ainsi, les organisations ont la possibilité de déployer des modèles d’IAGen issus de leur propre R&D ou de les sourcer auprès de fournisseurs externes. Selon l’analyse de BMC Software, 61 % des participants déclarent que leur gestion de données est principalement axée sur le soutien aux initiatives de l’Intelligence artificielle générative.
L’explosion des données et les défis qu’elle pose
Le traitement de grandes quantités de données est désormais indispensable pour satisfaire la soif inextinguible de l’Intelligence artificielle générative, du domaine de la finance, de la logique prédictive et des obligations légales. La gestion administrative de ces vastes ensembles d’informations, notamment en termes de conformité et de gouvernance, représente un enjeu majeur. Les challenges demeurent identiques, malgré l’apparition des nouvelles requêtes, à savoir le stockage, le traitement et l’analyse d’un volume des informations organisées, leur tri ainsi que leur sécurisation, restent au cœur des enjeux.
De plus, la complexité s’accroît avec la nécessité de gérer les nouveaux formats d’informations récentes, notamment celles générées par les plateformes sociales, la technologie Internet des Objets et les données liées à la localisation géographique.
Cependant, selon le rapport de BMC Software Corporation sur les DataOps, les nouvelles informations sont sous-exploitées dans les opérations de données actuellement. Jusqu’à présent, ces dernières ne constituent que 17 % du total des informations collectées. Seulement 9 % de ces renseignements sont soumis à un traitement ou à une analyse.
Par ailleurs, parmi les informations recueillies, 52 % sont des données historiques et 31 % sont des renseignements traditionnels. Les données anciennes représentent 91 % des informations utilisées pour l’analyse.
Cet article vous a-t-il été utile ?
Note moyenne 0 / 5. Nombre de votes 0