Passer à la section
- Apprentissage automatique et big data dans l'industrie manufacturière
- L'expérience : Détection d'anomalies dans les données de la CNC
- Graphique de la vitesse d'avance, de la vitesse de la broche et des pièces produites au fil du temps
- Vitesse d'alimentation par rapport aux pièces fabriquées
- Entrez dans l'apprentissage automatique : Utilisation d'algorithmes de détection de valeurs aberrantes pour trouver des anomalies
- Représenter graphiquement les valeurs aberrantes dans le temps pour révéler les causes fondamentales
- Conclusions
Apprentissage automatique et big data dans l'industrie manufacturière
Nous discutons souvent avec des fabricants qui souhaitent appliquer des algorithmes d'apprentissage automatique à leurs données de fabrication.
Comme nous l'avons déjà dit, la clé du succès avec le ML et l'IA réside dans des données solides, c'est pourquoi la plateforme de surveillance des machines de Tulipcollecte les données dont vous avez besoin pour comprendre réellement vos opérations.
Lorsqu'il s'agit d'analyse de big data, notre objectif est d'être un facilitateur. Tulip fournit aux fabricants les données dont ils ont besoin pour appliquer les techniques d'analyse les plus sophistiquées possibles. Nous voulons faire en sorte qu'il soit trivial pour les équipes et les ingénieurs en science des données de collecter dans leurs ateliers et d'extraire les données de Tulip afin qu'ils puissent débloquer de nouveaux niveaux de productivité et de qualité.
Dans ce billet, nous allons vous montrer comment vous pouvez appliquer des techniques de science des données simples et puissantes aux données que vous collectez avec Tulip.
L'expérience : Détection d'anomalies dans les données de la CNC
Afin de montrer comment Tulip peut renforcer les initiatives de science des données, nous avons mené une expérience rapide en utilisant les données générées par un client de Tulip (anonymisées ici).
Pour les besoins de cette expérience, nous avons sélectionné un ensemble de données collectées par un client utilisant Tulip pour la surveillance des machines. Nous avons choisi cet ensemble de données pour plusieurs raisons.
Tout d'abord, l'ensemble de données est suffisamment grand pour entraîner correctement les modèles d'apprentissage automatique. Nous avons extrait les données d'une fenêtre de 24 heures, et le jeu de données comptait des centaines de milliers de lignes. C'est suffisant pour que la plupart des algorithmes de classification, de regroupement et de détection des anomalies produisent des résultats fiables.
Deuxièmement, l'ensemble de données se concentrait sur les informations de surveillance des machines les plus importantes pour les fabricants. À partir de cet ensemble de données, nous avons pu représenter graphiquement des indicateurs clés de performance critiques tels que la vitesse d'avance, la vitesse de la broche et le débit - les éléments de base dont vous avez besoin pour optimiser les programmes et calculer l'OEE. Les données représentaient suffisamment de paramètres pour mener une analyse pertinente pour l'activité de l'atelier, et cohérente avec les types d'analyses de fabrication que nos clients utilisent tous les jours.
Pour effectuer l'analyse, nous avons utilisé des bibliothèques python populaires comme PANDAS et Sci Kit Learn dans Jupyter Notebook. Pour les équipes de science des données, cette même analyse est possible dans le langage que vous préférez et peut être réalisée dans Data Studio de Microsoft Azure, SageMaker d'AWS ou tout autre environnement d'analyse que vous utilisez dans vos activités.
Extraction des données
L'extraction des données de Tulip a été facile. Les données étaient stockées dans des tableaux sans code qui contenaient les paramètres exacts dont nous avions besoin.
Pour commencer, il a suffi de télécharger un CSV, de l'importer dans notre notebook et de créer un cadre de données. Cela a pris 5 minutes et deux lignes de code.
À quoi ressemble un contrôle de qualité basé sur l'IA avec Tulip?
Intégrez la détection des défauts alimentée par l'apprentissage automatique dans vos flux de travail d'opérateur avec des caméras prêtes à l'emploi et une configuration sans code.
Graphique de la vitesse d'avance, de la vitesse de la broche et des pièces produites au fil du temps
Après avoir organisé le fichier .csv en cadres de données, l'étape suivante consistait à créer des graphiques pour visualiser ce qui se passait dans l'atelier.
Pour commencer, nous avons créé un graphique mettant en correspondance trois éléments essentiels des données de production : la vitesse de la broche, la vitesse d'avance et les pièces produites au fil du temps.
Ces trois paramètres sont essentiels pour optimiser la production et garantir la santé des actifs à long terme. Étant donné que deux machines identiques exécutant le même programme dans la même usine peuvent avoir un taux d'utilisation des équipements très différent, il est important de mesurer exactement ce qui se passe au cours d'une production.
Ce graphique donne une bonne vue d'ensemble de la production pendant cette fenêtre de 24 heures (les lignes sont assez irrégulières car nous avons utilisé un taux d'échantillonnage relativement faible de 20 minutes ; des taux d'échantillonnage plus rapides produisent des graphiques bruités). Dans l'ensemble, il montre ce que l'on peut attendre des données de la machine. Dans presque tous les cas, il existe une forte corrélation entre la vitesse de la broche et la vitesse d'avance, entre la vitesse de la broche et la vitesse d'avance et les pièces produites.
Mais il y a aussi des points où la vitesse d'avance est inversement proportionnelle aux pièces produites alors que la vitesse de la broche reste la même. Il y a même deux cas où la vitesse de la broche et la vitesse d'avance sont nulles, mais il y a quand même des pièces produites.
En fin de compte, ce graphique soulève plus de questions qu'il n'apporte de réponses. Mais il fait son travail. Il indique les domaines à approfondir et permet de creuser davantage les données.
Vitesse d'alimentation par rapport aux pièces fabriquées
Le graphique précédent nous a alertés sur le fait que la vitesse d'avance n'était pas toujours corrélée aux pièces produites. L'étape suivante consistait donc à représenter graphiquement les pièces produites en fonction de la vitesse d'avance pour mieux comprendre cette relation.
Dans ce graphique, nous pouvons voir que le nombre de pièces produites commence à augmenter de façon précipitée lorsque la vitesse d'avance atteint 1400. Le nombre de pièces fabriquées continue d'augmenter lorsque la vitesse d'avance approche 1600.
Ce que ce graphique révèle visuellement (que le nombre de pièces fabriquées semble se situer entre 5 et 10 à une vitesse d'alimentation d'environ 1600) pourrait être confirmé par une analyse plus approfondie. (Ou, si vous utilisiez pour ce programme des données recueillies sur plusieurs jours, vous pourriez utiliser des régressions linéaires pour prédire les pièces produites à une vitesse d'avance donnée pour un meilleur équilibrage de la ligne).
Rien dans ce graphique n'est surprenant. Ce qui est bien. Cela signifie toutefois que nous devons approfondir notre analyse pour mieux comprendre ce qui se passe dans l'atelier.
Entrez dans l'apprentissage automatique : Utilisation d'algorithmes de détection de valeurs aberrantes pour trouver des anomalies
L'étape suivante a consisté à représenter graphiquement la vitesse de la broche en fonction de la vitesse d'avance. Cela nous a permis de comprendre exactement quels sont les paramètres qui sont corrélés avec le débit le plus élevé.
Sur l'ensemble de la journée de production, les vitesses de broche élevées sont fortement corrélées aux vitesses d'avance élevées. Là encore, c'est normal.
Mais nous avons remarqué plusieurs points qui ne se conformaient pas à ces modèles. La question que nous nous sommes posée à ce stade est la suivante : "dans quelle mesure ce graphique comporte-t-il des valeurs aberrantes ?".
La réponse à cette question est importante pour deux raisons. D'une part, ces aberrations peuvent révéler des comportements ou des processus dans l'atelier qui ont un impact direct sur la production. En d'autres termes, la localisation et la compréhension de ces points de données peuvent se traduire directement par une productivité accrue. Deuxièmement, les valeurs aberrantes peuvent nuire aux performances de nombreux algorithmes d'apprentissage automatique. Il est donc essentiel de déterminer si nous devons exclure ces points de notre analyse pour obtenir des informations précises.
Pour déterminer si notre ensemble de données comportait des valeurs aberrantes, nous avons utilisé une méthode appelée Isolation Forest(vous pouvez en savoir plus sur cette technique ici).

La forêt d'isolation a localisé 5 points de données qu'elle considérait comme des valeurs aberrantes.
Non seulement cela nous donne un ensemble de données plus propre, mais cela nous permet de poser une question essentielle : que se passait-il avec ces machines à ces moments-là ?
Représenter graphiquement les valeurs aberrantes dans le temps pour révéler les causes fondamentales
L'étape finale de cette expérience a consisté à reporter nos anomalies sur notre graphique initial de la journée de production.
Examinons d'abord les trois lignes qui apparaissent juste après 03:00. Si nous les comparons à notre graphique initial (vitesse d'avance, vitesse de la broche, pièces produites au fil du temps), nous constatons que ces trois valeurs aberrantes coïncident avec une chute précipitée des trois paramètres.
La question qui se pose est la suivante : que s'est-il passé ensuite ? Il est important de noter que le fait de représenter graphiquement ces événements de cette manière nous permet de poser des questions plus pertinentes. Qui était l'opérateur ? Quel programme était en cours d'exécution ? Quelles étaient les conditions dans l'usine ? Qui était le chef d'équipe ? Un changement a-t-il été effectué correctement ? Le bon outil était-il disponible ? Y a-t-il eu un problème mécanique ?
Ce sont là quelques-unes des nombreuses questions auxquelles les fabricants doivent répondre quotidiennement pour rentabiliser au mieux leurs opérations.
De plus, avec la surveillance des machines de Tulip, vous ne devez pas limiter votre analyse à ces trois variables. Avec Tulip, vous pouvez suivre d'autres paramètres qui ajouteront de la nuance et de la perspective à ces paramètres communs.
Conclusions
Cette analyse est simpliste. Il n'y a aucune raison de prétendre le contraire.
Mais en exécutant des analyses simples d'apprentissage automatique sur vos données de surveillance des machines, vous déterminez quelles sont les meilleures questions à poser à un moment donné.
C'est la véritable valeur de l'augmentation de la surveillance des machines par l'apprentissage automatique. Les algorithmes peuvent vous aider à trouver un ordre dans des ensembles de données massifs. Mais en fin de compte, ils donnent aux ingénieurs la possibilité d'isoler et de résoudre des problèmes de fabrication difficiles en moins de temps et avec plus de certitude que jamais auparavant.
Pour conclure, il y a un point sur lequel nous aimerions insister.
Nous avons pu réaliser cette analyse en quelques heures. Comme Tulip tables collecte et organise les données de manière accessible, il n'a pas été nécessaire de créer des tables avec SQL, et nous n'avons pas eu besoin de passer beaucoup de temps à faire le travail laborieux de l'ingénierie des fonctionnalités.
Ce type d'analyse ne nécessite pas de maîtrise en science des données ni de logiciel coûteux. L'un de nos ingénieurs l'a réalisée en quelques heures à l'aide de bibliothèques d'analyse standard et accessibles au public. Une équipe d'analystes commerciaux et de scientifiques des données travaillant avec des ensembles de données personnalisés collectés par Tulip pourrait aller beaucoup plus loin dans le même temps.
Notre intention ici n'était pas de produire une analyse définitive, mais plutôt de montrer à quel point il est facile de créer des insights qui font la différence.
Prenez contact avec nous pour commencer à utiliser la surveillance des machines dès aujourd'hui.