Industrie connectée, exploitez-vous au mieux vos données ?
Monitoring en temps réel, maintenance prédictive, détection des anomalies sur la chaîne de production : grâce aux infrastructures big data et à la puissance de calcul offerte par le cloud, ces fonctionnalités se répandent de plus en plus vite et créent une industrie connectée. Toutes reposent sur un élément clé : la data. C’est également la donnée qui vient alimenter les algorithmes d’intelligence artificielle qui permettent des usages toujours plus innovants – notamment grâce à l’aide des services cognitifs.
Bien sûr, de nouvelles compétences sont indispensables pour mettre ce type de chantier en place. On parle beaucoup des data scientists, mais ils ne sont pas les seuls à pouvoir vous aider à exploiter au mieux le potentiel de vos données. Tour d’horizon des grands sujets liés à la data dans l’industrie !
Industrie connectée : plus de qualité, plus de productivité
Pourquoi mettre en place un projet data ? Exploiter les données peut vous permettre de gagner en qualité. Les acteurs du discrete manufacturing (le luxe ou les industries de pointe qui travaillent avec des matériaux coûteux) peuvent s’appuyer sur la data pour garantir l’excellence de leur production, et éviter les défauts et les anomalies sur la chaîne.
Comment ? Par exemple avec des dispositifs fondés sur l’intelligence artificielle, capables de repérer une pièce défectueuse.
D’autres acteurs, ceux du process manufacturing, font face à des enjeux de productivité, et doivent éviter au maximum les arrêts de la chaîne de production, qui peuvent avoir un lourd impact financier.
Lire aussi Pourquoi l’industrie 4.0 n’est qu’une étape
Prenons l’exemple de Tetra Pak. Chaque jour, ce sont des litres et des litres de lait qui arrivent sur les sites industriels des clients du groupe pour être mis en pack grâce aux machines du géant du conditionnement. Un dysfonctionnement sur la chaîne de production peut entraîner un arrêt de plusieurs jours, avec, pour conséquence, des pertes énormes pour les industriels. « Quand vous avez 50 000 litres de lait et que votre machine de conditionnement ne fonctionne pas, vous devez la réparer rapidement », explique Johan Nilsson, Vice-Président pour Tetra Pak Services.
Or les opérations de maintenance effectuées sur les machines de conditionnement aseptisé de Tetra Pak sont très compliquées à programmer : elles ne doivent pas intervenir trop tôt (car cela a un coût), ni trop tard (car la réparation peut prendre des jours, d’autant que les pièces de rechange ne sont pas systématiquement disponibles dans tous les pays).
Ce contexte fait de Tetra Pak un candidat idéal pour la maintenance prédictive. Le groupe a équipé de capteurs plus de 5 000 de ses machines de conditionnement. Ainsi, chaque jour, Tetra Pak dispose de données en temps réel issues des machines installées chez ses clients.
« Aujourd’hui, nous monitorons plus de 600 capteurs sur une seule machine, explique Ilkka Dunder, Directeur de la digitalisation des services chez Tetra Pak. Cela nous permet d’obtenir des données régulières sur sa performance : nous analysons environ 600 à 700 millions data points en une année. »
Les capteurs sont connectés au cloud Microsoft et alimentent en temps réel les algos de monitoring et d’analyse. La maintenance peut donc être prévue en amont, de façon extrêmement précise. Tetra Pak peut alors proposer à ses clients une nouvelle forme de service, consistant à prévoir les dysfonctionnements avant même qu’ils ne se produisent. Ainsi, sur une période de six mois, Tetra Pak a prédit cinq dysfonctionnements sur onze chaînes de conditionnement, permettant à ses clients d’économiser plus de 30 000 dollars. Tout ça grâce à la donnée !
Lire aussi Maintenance prédictive et nouveaux business models
Démultipliez les potentiels grâce à l’intelligent edge
Avec l’intelligent edge, nous avons aujourd’hui la capacité de faire tourner des algorithmes d’IA en temps réel sur le site où elles sont générées (pour par exemple mobiliser des modèles de deep learning).
Dans le secteur de l’industrie, où la notion de temps réel est cruciale, disposer de cette intelligence en local permet notamment d’éviter les éventuels délais et interruptions. C’est aussi une réponse à l’une des premières préoccupations des entreprises, la sécurité, puisque les données de production n’ont pas besoin d’être systématiquement envoyées dans le cloud pour être traitées.
Ainsi, d’après les estimations du cabinet IDC, d’ici 2019, les dépenses dans des infrastructures « edge » pourraient atteindre 18% des investissements totaux dans les infrastructures IoT.
L’un des facteurs d’accélération est le déploiement de systèmes convergents IT et OT (« operational technology » ou technologies d’exploitation, que le cabinet Gartner désigne comme les « matériels et les logiciels qui détectent ou provoquent un changement par le biais de la surveillance et/ou du contrôle directs des périphériques physiques, des processus et des événements dans l’entreprise »). Concrètement, il peut par exemple s’agir de systèmes capables de contrôler des valves, des engins, des convoyeurs pour réguler la température, la pression, le débit pour prévenir les situations dangereuses.
L’entreprise suédoise Sandvik Coromant est spécialisée dans la fabrication de machines pour l’usinage des métaux. Comme Tetra Pak, elle a mis en place un dispositif de maintenance prédictive pour prévoir les anomalies sur ses machines avant même qu’elles n’apparaissent.
Si, à l’origine, les algorithmes de prédiction sur lesquels s’appuie Sandvik Coromant tournaient dans le cloud, aujourd’hui, avec Azure IoT Edge, l’entreprise a transféré cette application en périphérie (« edge »). Objectif : bénéficier des fonctionnalités du cloud sur ses appareils IoT en local dans les usines. L’entreprise profite ainsi d’une puissance de calcul et de raisonnement incroyable, à l’endroit même où se trouvent les données… Autrement dit, avec l’intelligent edge, elle tire profit localement de toute l’intelligence du cloud : analytique avancée, machine learning, IA…
Voice les trois avantages clés de l’intelligent edge :
- La possibilité d’opérer hors ligne ou avec une connectivité intermittente.
- La sécurité : pas besoin d’envoyer des données sensibles dans le cloud.
- La réduction des coûts liés aux solutions IoT : diminution des coûts de la bande passante et des coûts liés au stockage et à l’analyse des données dans d’autres applications métiers, tout en continuant à bénéficier d’insights exhaustifs.
Lire aussi Intelligent cloud, intelligent edge : vers une nouvelle ère
Boostez vos projets data avec les services cognitifs
Imaginons maintenant un projet consistant à reconnaître automatiquement un son anormal (soit un potentiel dysfonctionnement) dans un milieu industriel très bruyant. Le modèle de deep learning à mettre en place pour concrétiser ce projet requiert des volumes de données très importants pour pouvoir s’entraîner.
Or, les industriels ne disposent pas forcément d’échantillons de données suffisants. Dans ce cas, il est possible de s’appuyer sur des services cognitifs, fondés sur l’IA, qui peuvent être appelés directement pour mettre en place des projets beaucoup plus rapidement que s’il fallait partir de zéro.
Un exemple ? McDonalds souhaitait transcrire automatiquement les commandes passées par ses clients dans l’environnement très bruyant de ses drives. Pour cela, l’entreprise a mobilisé des services cognitifs pour entraîner des modèles de deep learning.
Elle s’est appuyée sur un algorithme de transcription déjà opérationnel, qu’elle a customisé en fonction du contexte (l’ambiance sonore de ses drives), pour obtenir son outil de transcription. Autrement dit, McDonalds, plutôt que d’entraîner un modèle à partir de ses propres données, a gagné du temps en utilisant un algorithme mobilisable immédiatement, ou presque. Un scénario qui peut tout à fait être transposé sur une chaîne de production.
Aujourd’hui, McDonalds s’appuie sur 22 API cognitives, profitant ainsi du fruit de « dizaines d’années de recherche sur la vision par ordinateur, sur la compréhension du langage naturel… », comme l’expliquait Satya Nadella lors d’une keynote.
Faut-il faire appel à un data scientist ?
Dans tous les secteurs d’activité, ce sont les nouvelles coqueluches des recruteurs. Les data scientists, avec leurs compétences situées à l’intersection de celles des mathématiciens, des informaticiens et des statisticiens, font partie des profils les plus recherchés sur LinkedIn.
De fait, la tentation est grande de recruter un data scientist dès que l’on se lance dans un projet lié à la data, dans l’espoir qu’il puisse sortir des informations inédites grâce à la magie des algorithmes. Fausse bonne idée ? Olivier Guipert, Digital Advisor chez Microsoft, recommande plutôt de faire appel à un consultant data, « quelqu’un qui sait ce qu’est un cube (au sens de l’informatique décisionnelle) ou une base de données SQL, et qui est capable de mettre en place un environnement data « propre » ». C’est seulement après que le data scientist peut intervenir, pour travailler sur le potentiel des données, mais il le fera alors plutôt d’un point de vue très mathématique, sans vraiment prendre en compte l’environnement métier.
L’alternative ? Avoir recours à un Chief Data Advisor, expert des métiers de l’industrie, qui connaît le business et ses contraintes, et travaillera dans un cadre plus concret. En résumé, le Graal se trouve à la croisée de l’IT et des métiers !