Penchons-nous de plus près sur cette vidéo de Laurent Bourgouin, PDG de Samp, qui ressemble à s'y méprendre à Sam Altman. Aujourd'hui, l'industrie lourde adopte massivement l'IA agentique, c'est-à-dire des systèmes autonomes intelligents capables d'observer, de raisonner et d'agir avec un minimum d'instructions humaines. Ces systèmes sont censés optimiser les opérations, réduire les temps d'arrêt et améliorer l'efficacité globale de toute installation industrielle.
Comme mentionné dans l’article de Vlad Larichev, le nouveau rapport Wharton/GBK montre que 72 % des entreprises suivent désormais le retour sur investissement de l’IA générique et que 75 % constatent des résultats positifs – pourtant, le MIT constate que seules environ 5 % d’entre elles parviennent réellement à obtenir un succès évolutif et reproductible. Malgré cette divergence dans les rapports d’adoption, nous pouvons reconnaître qu’il existe des facteurs organisationnels et opérationnels complexes qui freinent ou retardent les progrès.
Le principal défi auquel sont souvent confrontés les agents IA dans les environnements industriels réels : ils dépendent entièrement de la précision et de l'exhaustivité des données dont ils disposent. Sans données fiables, même l'IA la plus avancée prendra des décisions erronées, entraînant des inefficacités opérationnelles ou des défaillances du système.
Une grande partie des données opérationnelles dans les usines, les installations et les environnements d'infrastructure est incomplète, incohérente ou déconnectée de ce qui se passe réellement sur le terrain. L'historique des équipements est souvent partiel ou mal référencé, et les connaissances des opérateurs restent consignées dans des carnets et des conversations entre équipes plutôt que dans des systèmes.
Ainsi, par le passé, des initiatives telles que l'analyse de l'IoT, la maintenance prédictive et l'optimisation énergétique se sont heurtées au même problème : les projets pilotes fonctionnent, mais échouent à grande échelle… car les données sous-jacentes ne reflètent pas les conditions réelles sur le terrain.
C'est là que la réalité partagée devient essentielle. Avant de déployer des agents capables de prendre des décisions autonomes, les organisations ont besoin d'une vision vérifiée et continuellement alignée de l'environnement physique : une compréhension commune entre les personnes, les systèmes et l'IA concernant l'état des machines, des processus et des actifs. Cela garantit que les données sont corrigées et contextualisées à la lumière des observations sur le terrain. Ainsi, lorsque les données reflètent la réalité, les agents IA peuvent enfin raisonner et agir en toute confiance. Pour que l’IA agentique fonctionne dans le monde réel, nous devons continuellement corriger la couche de réalité des données tout en automatisant par-dessus, ce qui constitue la proposition de valeur fondamentale de la réalité partagée. C’est le fondement qui transforme l’IA de démonstrations impressionnantes en performances industrielles fiables. De plus, grâce aux workflows de mise à jour, elle peut garantir que les données 3D sont continuellement alignées sur les changements sur le terrain.
De plus, Shared Reality ne se contente pas d’aligner les données : elle se connecte directement aux systèmes existants de l’entreprise. Grâce à des API, elle relie les données ERP, MES, GMAO, SCADA et d'historique à la 3D validée sur le terrain. Et bientôt, elle prendra en charge des protocoles tels que MCP, ce qui lui permettra d'interagir avec les agents IA. Au lieu d'ajouter un nouveau silo de données, c'est la couche de contextualisation 3D validée sur le terrain sur laquelle tous les agents IA, les outils d'analyse et les logiciels peuvent s'appuyer.




