Rejoignez nos 155 000 followers (pour IMP)

www.eautomation.fr
Stemmer imaging News

DEEP LEARNING, ENVIRONNEMENTS DE DÉVELOPPEMENT RAPIDE ET INTÉGRATION EN USINE

L'intelligence artificielle, sous la forme du deep learning reste l'une des avancées les plus importantes de ces dernières années dans le domaine de la vision industrielle.

DEEP LEARNING, ENVIRONNEMENTS DE DÉVELOPPEMENT RAPIDE ET INTÉGRATION EN USINE

En utilisant des réseaux neuronaux artificiels pour imiter la façon dont le cerveau humain fonctionne lors de tâches de reconnaissance et de prises de décision, le deep learning peut améliorer le contrôle qualité sur les lignes de fabrication. En effet, il prend en charge des problèmes difficiles voire impossibles à résoudre avec des algorithmes conventionnels.

La technique est particulièrement efficace pour la classification d'objets ainsi que pour la détection et la segmentation de défauts. Elle est utilisée dans de nombreuses industries, notamment dans l'automobile, l'aérospatiale, la pharmacie, les semi-conducteurs, la logistique et le transport.

Les secteurs de l'alimentation et de l'agriculture peuvent également en profiter. La technique est en effet très efficace avec les produits organiques, car elle prend en compte les variations naturelles pour évaluer leurs défauts potentiels et les problèmes de classification.

Le deep learning est aujourd'hui plus convivial et plus pratique que jamais. En interaction avec d'autres technologies, il ouvre une multitude de nouvelles possibilités d'application, notamment en faisant de l'inspection par système de vision partie prenante de l'industrie 4.0.

Fonctionnalités du deep learning
Le développement d'un système de deep learning consiste à entraîner un réseau neuronal à l'aide d'une série d'images étiquetées. Celles-ci représentent différents objets ou défauts que le système doit apprendre à reconnaître. La capture d'écran montre une série d'images de brosses à dents étiquetées pour entraîner le système. Celui-ci est alors prêt à évaluer les images de l'application. Ces résultats peuvent être reliés à un système de surveillance des processus pour le contrôle qualité. Ils fournissent également des données statistiques qui servent à évaluer la cause d’un problème afin de rationnaliser le processus et de réduire les déchets.


DEEP LEARNING, ENVIRONNEMENTS DE DÉVELOPPEMENT RAPIDE ET INTÉGRATION EN USINE

Autre fonction importante du deep learning : la classification des pièces. Chaque pièce est affectée à une catégorie. Certains classificateurs prennent une décision simple oui/non, tandis que d'autres peuvent désigner la catégorie de l’objet.

Cette fonction est utile pour l'identification de défauts, la reconnaissance de caractères, la détection de présence, le tri des aliments, etc. L’image 2 montre une vis en métal sur laquelle un défaut a été identifié grâce à un classificateur.


DEEP LEARNING, ENVIRONNEMENTS DE DÉVELOPPEMENT RAPIDE ET INTÉGRATION EN USINE

La détection d'anomalies est une nouvelle fonctionnalité du deep learning et fonctionne comme un classificateur de type oui/non. Il a la particularité de ne s’entraîner qu'avec des images d’objets sans défauts. Toutes les images qui présentent des différences par rapport à celles-ci deviennent donc des images d’objets défectueux.

La fonction de détection d'anomalies peut s’utiliser dans toute application qui nécessite l'identification de défauts sur une surface ou dans un ensemble d’objets. Pour trouver une ou plusieurs caractéristiques intéressantes dans une image, il est possible d'utiliser des méthodes de reconnaissance d'objets qui combinent la localisation et la classification en une seule opération.

Cette technique permet de résoudre des problèmes de détection de présence, de suivi d'objets, de localisation d'erreurs, de tri, etc.

Une autre composante importante du deep learning est la segmentation d'image utilisée pour la qualification et le tri de défauts, le tri des aliments, l'analyse des formes, etc. Cette méthode simplifie l'analyse en divisant l'image d'entrée en groupes segmentés de pixels qui représentent des objets ou des parties d'objets plutôt que de considérer chaque pixel séparément.

Parmi les applications possibles, on trouve la détection de défauts sur des surfaces difficiles, comme des rayures et des bosses sur des pièces tournées, brossées ou brillantes par exemple. Il est également possible d'identifier des défauts dans des matériaux tissés, des médicaments ou sur la partie contact des semi-conducteurs.

Le deep learning peut également être utilisé pour des applications de reconnaissance optique de caractères (OCR) difficiles, même si l'impression est déformée, pour la lecture de plaques d'immatriculation par exemple. Cette technologie est particulièrement efficace pour reconnaître et classer les caractéristiques et les positions de coupe de fruits, légumes et plantes, tant pour leur transformation que pour la récolte automatisée. Dans le domaine de la logistique, elle aide par exemple à trouver des étagères de stockage vides.

Simplifier la mise en œuvre du deep learning
Les outils de deep learning sont désormais disponibles sur les plateformes logicielles tout-en-un pour l’acquisition, le traitement et l'analyse d'images pour un développement rapide. Cette approche « pointer-cliquer » permet de gagner du temps et de simplifier la mise en place de solutions de deep learning. Il n'est plus nécessaire de posséder des compétences spécialisées en programmation comme lorsque ces outils n'étaient accessibles qu'à partir de bibliothèques d'images.

Le déploiement a également été accéléré par l'introduction de réseaux neuronaux pré-entraînés. Ceux-ci peuvent en effet être ajustés avec précision pour l'application spécifique tout en utilisant un ensemble d'images beaucoup moins important qu'auparavant lors de la phase d'entraînement.

Comme nous l'avons vu plus haut, la possibilité de détecter des anomalies a accéléré le développement de systèmes de deep learning. En effet, un nouveau réseau peut souvent être entraîné en quelques secondes seulement, car il n’a besoin que d'un nombre relativement faible de « bonnes » images et qu'aucune donnée ne doit être étiquetée. Pour le test final, seules quelques images de « mauvais » exemples sont nécessaires.

Cette méthode est extrêmement utile dans les applications où les variations sont nombreuses, car elle distingue les variations naturelles des véritables défauts des produits naturels.Les résultats « réussite/échec » obtenus grâce à cette méthode permettent non seulement un bon contrôle de la qualité, mais les données issues des résultats « échec » peuvent servir à créer des classificateurs plus précis afin d'améliorer le processus de sélection et de réduire le nombre de faux rejets.

Deep learning et vision 3D
L'imagerie 3D est une autre avancée majeure qui s'utilise de plus en plus dans les applications de vision industrielle, notamment pour les systèmes robotisés guidés par la vision. L'interface directe entre robots et caméras 3D permet désormais de faire correspondre leurs systèmes de coordonnées sans avoir besoin d'un PC.

La mise en réseau de plusieurs caméras 3D en un système de coordonnées commun et la compilation des résultats de différents capteurs en un seul nuage de points 3D àhaute densité permettent désormais d’inspecter en 3D des objets de grande taille.


DEEP LEARNING, ENVIRONNEMENTS DE DÉVELOPPEMENT RAPIDE ET INTÉGRATION EN USINE

Il est même possible de combiner des profileurs laser 3D ayant des résolutions différentes dans un système de coordonnées commun pour permettre l'inspection simultanée de différentes zones d'un même composant avec différentes résolutions.

Les méthodes de deep learning s'utilisent désormais dans des applications de vision 3D selon une approche similaire à celle utilisée pour la vision 2D. Des réseaux de neurones standard sont entraînés avec des ensembles d'images 3D pour la classification d'objets ou la détection / segmentation de défauts, y compris la détection de défauts, avant d'être utilisées sur des images réelles.

L’image illustre la classification 3D de morceaux de viande se déplaçant sur un convoyeur à grande vitesse. Après avoir capturé leurs profils 3D, le modèle d'IA effectue une classification linéaire en distinguant les coupes latérales gauche et droite. Pour cela, il se base sur les données de hauteur, de surface minimale, d'écart entre les morceaux et de longueur maximale. La décision de tri correspondante est envoyée aux machines en aval.

Le domaine de la robotique commence également à s'intéresser de plus en plus au deep learning. Un réseau neuronal peut par exemple être entraîné avec les données 3D d’une scène pour évaluer les objets et leurs surfaces et sélectionner la bonne pièce à prélever.

Le deep learning est gourmand en puissance de calcul. Les réseaux de neurones peuvent travailler dans le cloud ou sur des CPU / GPU situés en périphérie du réseau (aussi près que possible de la source des images).

Même si les réseaux peuvent être configurés, entraînés et optimisés aussi bien à la périphérie que dans le cloud, utiliser des images en direct risque de poser des problèmes de temps. De ce fait, il est préférable de recourir à un traitement des données en périphérie.

L'edge computing a à la fois l'avantage de réduire le temps de réponse et la largeur de bande passante nécessaire, mais permet également d'être facilement modulable, de réduire la latence pour les applications qui ont besoin d'une réponse rapide et de renforcer la sécurité en limitant le transfert des données.

Il existe désormais des plateformes CPU/GPU compactes, durcies, de qualité industrielle et dotées d'une puissance de calcul importante. Le traitement des données issues de l'IA est ultra rapide, accéléré par GPU et s'effectue à la périphérie.

Les données peuvent être transférées vers des centres de données distants ou dans le cloud afin d'améliorer le modèle de deep learning si nécessaire, pour les stocker sur le long terme ou pour les distribuer sur plusieurs réseaux.

Meilleure connectivité pour l'industrie 4.0
Alors que de nombreux systèmes de vision pour l'automatisation des usines disposent d'une interface directe avec des systèmes de bus tels qu'Ethernet IP, Profibus et Modbus, le passage à l'industrie 4.0 nécessite une meilleure connectivité pour permettre la transmission et l'échange de données entre tous les composants au sein de l'usine.

La norme ouverte et indépendante de la plateforme OPC UA pour la communication de machine à machine répond à ces problèmes en offrant un protocole de communication commun.

Récemment, la VDMA (Verband Deutscher Maschinen- und Anlagenbau e.V.) a développé la plateforme OPC UA Companion Specification Vision (OPC Machine Vision), disponible via des logiciels de traitement d'images disponibles dans le commerce et des systèmes de vision complets, clés en main. Un modèle d'information générique est ainsi disponible pour tous les systèmes de vision, de simples capteurs de vision aux systèmes d'inspection complexes.

OPC Machine Vision ne se contente pas de compléter ou de remplacer les interfaces existantes entre un système de vision industrielle et son environnement de processus plus large par la norme OPC UA, mais permet également de créer de nouveaux chemins d'intégration horizontaux et verticaux pour la communication de données pertinentes avec d'autres parties du processus, jusqu'au niveau de l'entreprise informatique.

De cette manière, OPC Machine Vision permet au système de vision de communiquer avec l'usine et au-delà, avec la possibilité de charger des commandes pour les systèmes de vision à partir de systèmes ERP et de renvoyer des résultats et des statistiques par lots au système ERP.

L’image montre comment OPC Machine Vision peut être introduit progressivement, les lignes bleues indiquant les voies de communication conventionnelles et les lignes orange la communication avec OPC-UA.

www.stemmer-imaging.com

  Demander plus d’information…

LinkedIn
Pinterest

Rejoignez nos 155 000 followers (pour IMP)