Système de Tri Par Vision [PDF]

  • 0 0 0
  • Gefällt Ihnen dieses papier und der download? Sie können Ihre eigene PDF-Datei in wenigen Minuten kostenlos online veröffentlichen! Anmelden
Datei wird geladen, bitte warten...
Zitiervorschau

Système automatique de tri par vision

REPUBLIQUE DU CAMEROUN UNIVERSITE DE DOUALA

REPUBLIC OF CAMEROON UNIVERSITY OF DOUALA

******** FACULTE DE GENIE INDUSTRIEL www.fgi-ud.org

FACULTY OF INDUSTRIAL ENGINEERING

******* www.fgi-ud.org

MINISTERE DE L’ENSEIGNEMENT SUPERIEUR UNIVERSITE DE DOUALA UNIVERSITY OF DOUALA

-------------------------------------------FACULTE DE GENIE INDUSTRIEL FGI

-------------------------------------------BP 2701 Douala Tél : (237) 694187374/699325800/699325552 SITE Web : www.fgi-ud.org

**************************** DEPARTEMENT DE ROBOTIQUE INDUSTRIELLE (ROI)

Mémoire présenté en vue de l’obtention du Diplôme d ’Ingénieur de la Faculté de Génie Industriel

SPECIALITE : Robotique Industrielle $

OPTION : Système Intelligent, Vision Et Robotique

THEME : SYSTEME AUTOMATIQUE DE TRI PAR VISION Sous la supervision de Dr. YEREMOU TAMTSIA Aurélien

Mémoire Rédigé par : ESSIMAGEL AOUDOU Emmanuel MATRICULE : 13G15871

Chef du département de Robotique industriel à la Faculté de Génie Industriel de l’université de Douala Année académique :2017/2018

Système automatique de tri par vision

SOMMAIRE REMERCIEMENTS .................................................................................................................................... iv RESUME ....................................................................................................................................................v ABSTRACT ................................................................................................................................................ vi LISTE DES FIGURES :................................................................................................................................ vii LISTE DES TABLEAUX : ............................................................................................................................. ix NOTATION ................................................................................................................................................x LISTE DES SIGLES ET ABREVIATIONS ........................................................................................................ xi INTRODUCTION GENERALE ..................................................................................................................... 1 Chapitre I : GENERALITE ET HISTORIQUE SUR LES SYSTEME DE VISION ET ROBOTIQUE ........................ 3 INTRODUCTION ....................................................................................................................................... 3 I-DEFINITIONS ET GENERALITES .............................................................................................................. 3 I.1-SYSTEME DE VISION ....................................................................................................................... 3 I.2-SYSTEME ROBOTIQUE .................................................................................................................... 4 II-HISTORIQUES ET DOMAINES D’APPLICATION DES SYSTEMES DE ROBOTIQUE ET DE VISION ............. 5 II.1-HISTORIQUES ET DOMAINE D’APPLICATION DES SYSTEMES DE VISION ...................................... 5 II.2-HISTORIQUES ET DOMAINE D’APPLICATION DES SYSTEMES ROBOTIQUES ................................. 7 III-PROBLEMATIQUES ET CAHIER DE CHARGE ....................................................................................... 11 III.1-PROBLEMATIQUE ....................................................................................................................... 11 III.2-ANALYSE FONCTIONNELLE ET CAHIER DE CHARGE.................................................................... 12 CONCLUSION ......................................................................................................................................... 16 Chapitre II : ASPECT METHODOLOGIQUE.............................................................................................. 17 INTRODUCTION ..................................................................................................................................... 17 I-METHODOLOGIE DE MODELISATION DES SYTEME DE VISION ........................................................... 17 I.1-PRESENTATION DES TECHNOLOGIES DE VISION .......................................................................... 17 I.2-LES METHODES DE MODELISATION ............................................................................................. 29 I.3-LES METHODES DE TRAITEMENT D’IMAGE .................................................................................. 35 II-METHODOLOGIE DE MODELISATION DES ROBOTS (SYSTEMES MECANIQUES ARTICULES).............. 39 II.1-ELEMENTS CONSTITUTIFS ET TYPES DE ROBOT .......................................................................... 39 II.2-METHODOLOGIE DE MODELISATION DES ROBOTS MANIPULATEURS SERIES ........................... 45 II.3-LES METHODES DE COMMANDE ET LES CONTRAINTES AFFERANTES ........................................ 49 CONCLUSION ......................................................................................................................................... 55 Chapitre III : SOLUTION ; RESULTATS ET INTERPRETATIONS................................................................. 56 INTRODUCTION ..................................................................................................................................... 56 I-LES SOLUTIONS.................................................................................................................................... 56

i Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

I.1-SOLUTIONS DU SYSTEME DE VISION ............................................................................................ 56 I.2-SOLUTIONS DU SYTEME DE BRAS ROBOTISE ............................................................................... 58 II-RESULTATS ET INTERPRETATIONS ...................................................................................................... 63 II.1-RESULTATS ET INTERPRETATIONS DE LA SIMULATION DU SYSTEME DE VISION ....................... 63 II.2-RESULTATS ET INTERPRETATIONS DE LA SIMULATION DU SYSTEME ROBOTIQUE .................... 64 III-ESTIMATION DU COÛT TOTAL DU PROJET ........................................................................................ 67 CONCLUSION ......................................................................................................................................... 68 CONCLUSION GENERALE ET PERSPECTIVES .......................................................................................... 69 Glossaire ................................................................................................................................................ 70 Références ............................................................................................................................................. 71 ANNEXE : ............................................................................................................................................... 73 ANNEXE 1 : Dessin de la SAM du système et les caractéristiques .................................................... 73 ANNEXE 2 : caractéristiques du système FHA-17C PR et son variateur associé ............................... 75 ANNEXE 3 : Les étapes du cycle en V ................................................................................................ 77 ANNEXE 4 : Les sous-groupes de la simulation du SAM .................................................................... 78 ANNEXE 5 : Algorigramme et conception préliminaire détaillée du système................................... 80 ANNEXE 6 : caractéristiques du MicroHAWK ID-30 .......................................................................... 84 ANNEXE 7 : Diagramme FAST du système ......................................................................................... 86

ii Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

Je dédie ce mémoire à : Mon père M. NINGA Fernand, qui peut être fier et trouver ici le résultat de longues années de sacrifices et de privations pour m'aider à avancer dans la vie. Puisse Dieu faire en sorte que ce travail porte son fruit ; Merci pour les valeurs nobles, l'éducation et le soutient permanent venu de toi. Je le dédie également à toute la famille NARMA NINGA et à tous mes amis pour leurs patience et compréhension à mon égard.

iii Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

REMERCIEMENTS Notre gratitude va à l’endroit du DIEU tout puissant qui nous a accordé la faculté de mener à bien nos projets, d’arriver à notre souhait et d’atteindre notre objectif. Cette gratitude va également à l’endroit du doyen de la FACULTE DU GENIE INDUSTRIEL DE DOUALA Pr. Robert NZENGWA ; au chef du département de Robotique industrielle Dr. YEREMOU TAMTSIA Aurélien qui nous ont permis de poursuivre avec quiétude les études au sein de leur école et leur département bien que ce fut ardu. Elle va également à l’endroit des membres du jury, chargés d’examiner ce travail avec rigueur. Et enfin elle va à l’endroit de tous les êtres dont un jour nous avons fait la connaissance ; ici trop nombreux pour être cités mais qui tout de même ont contribué à faire de nous la personne que nous sommes et même celle que nous deviendrons demain. Merci encore !

iv Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

RESUME Le monde aujourd’hui est un village planétaire ; ce qui implique qu’un produit fait au Canada par exemple peut facilement être vendu en Afrique et ceux grâce aux progrès de l’industrie. Ce domaine est de nos jours fortement occupé par les systèmes robotisés actuellement dits de génération 4.0 ; mais les coûts d’acquisition de ces systèmes restent encore inaccessibles pour les industries Africaines en général et Camerounaises en particulier encore fortement embryonnaires. Le contrôle qualité de la plupart des produits issus de ces industries accentue le fait de la non-compétitivité de ces derniers ; car les produits ne sont très souvent pas uniformes à cause du contrôle qui est encore manuellement. Nous avons fait ce constat lors de nos multiples stages d’imprégnation et visites d’entreprise effectuées au cours de notre cursus scolaire et post-graduation. Pour remédier à ce problème, nous proposons la conception d’un SYSTEME AUTOMATIQUE DE TRI PAR VISION afin d’assurer le contrôle qualité des produits. Pour mener à bien ce travail, nous avons utilisé le cycle de conception en V dans lequel l’analyse du besoin nous a permis de segmenter notre système en trois parties : un dispositif d’acquisition d’image chargé de prélever les informations sur le processus ; un logiciel de traitement et de reconnaissance de forme hébergé dans un PC (Personal Computer) chargé d’assurer le contrôle qualité en fonction des critères imposés par l’utilisateur et enfin d’un système mécanique articulé chargé d’exécuter l’action préconisée par le sous-système de décision. Cette analyse s’est faite à l’aide du logiciel Visio 2013. Au niveau de la conception et de la modélisation nous avons utilisé le logiciel SolidWorks pour la conception du SAM. Pour la modélisation du système de vision nous avons utilisé le logiciel Matlab. Pour la commande du SAM, nous avons utilisé les logiciels Matlab, Stateflow, Simulink et Simscape. Des outils matériels parmi lesquels Un PC HP compaq core i3 ; une BOX WIFI Yoomee qui nous ont permis de faire des recherches et de simuler notre système. Les résultats de la simulation globale de notre système ont confirmé l’atteinte de nos objectifs à 90% de ceux fixés par le cahier de charges. Mots clés : système ; tri ; Automatique ; vision

v Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

ABSTRACT The world today is a global village; which implies that a product made for example in Canada may be sold easily in Africa because of the progress of the industry. This domain is nowadays greatly occupied by the robotics systems currently said to be generation 4.0; but the costs of acquirement of these systems remain in general even inaccessible for the African industriousness and Cameroonian in particular again greatly embryonic. The control quality of most products descended of these industries accentuates the fact of the non-competitiveness of these lasts; because their products are not very often uniform because of the control that is again handmade. We made this report of it at the time of our multiple practicums of impregnation and visits of enterprise done during our school degree course and post-graduating. To remedy this problem, we propose the conception of an (AUTOMATIC SYSTEM OF SORTING BY VISION) in order to assure the control quality of the products. To carry through this work, we used the cycle of conception in V in which the analysis of the need allowed us to segment our system in three parts: a device of picture acquirement assigned to appropriate the information on the process; a software of treatment and recognition of shape sheltered in a PC (Personal Computer) charged to assure the control quality according to the criterias imposed by the user and at the end of a articulate mechanical system assigned to execute the action recommended by the subsystem of decision. This analysis made itself with the help of the software Visio 2013. To the level of the conception and the modelling we used the software SolidWorks for the conception of the SAM. For the modelling of the vision system we used the software Matlab. For the order of the SAM we used the Matlab software, Stateflow, Simulink and Simscape. The material tools used are a PC HP compaq core i3; a BOX WIFI Yoomee that allowed us to make searches for them and to simulate our system. The output of the global simulation of our system confirmed the attack of our objective is promising to 90% of those desired by the notebook of load.

Key words: Automatic; System; Sorting; Vision

Discipline : Sciences de l’Ingénieur

vi Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

LISTE DES FIGURES : Figure 1.1: synoptique du système de vision ............................................................................. 4 Figure 1.2: synoptique du système robotique............................................................................. 5 Figure 1.3: soudage à l'arc [7] .................................................................................................... 8 Figure 1.4: L'ébavurage [7] ........................................................................................................ 9 Figure 1.5: La palettisation [7] ................................................................................................... 9 Figure 1.6: Le pick-and-place [7] ............................................................................................. 10 Figure 1.7: Laparoscopie [7] .................................................................................................... 10 Figure 1.8: Robot pour personne handicapé [7] ....................................................................... 11 Figure 1.9: bête à corne ............................................................................................................ 12 Figure 1.10: Diagramme pieuvre ............................................................................................. 13

Figure 2.1: Eclairage frontal directionnel [8] ........................................................................... 19 Figure 2.2: Eclairage frontal rasant [8] .................................................................................... 19 Figure 2.3: Eclairage frontal diffus [8]..................................................................................... 20 Figure 2.4: Eclairage diascopique [8] ...................................................................................... 20 Figure 2.5: Lumière structuré [8] ............................................................................................. 21 Figure 2.6: Lumière collimatée [8]........................................................................................... 21 Figure 2.9: Le diagramme de KRUITHOFF [9] ...................................................................... 23 Figure 2.10 : Objectif de vision [8] .......................................................................................... 25 Figure 2.11 : illustration du comportement de l'objectif [8] .................................................... 26 Figure 2.12 : Les nombres d'ouverture les plus utilisées [8] .................................................... 27 Figure 2.13 : Processus d'intégration chez les CMOS [8] ........................................................ 28 Figure 2.14 : Structure d'un capteur CMOS [10] ..................................................................... 29 Figure 2.15 : Modèle sténopé [11] ........................................................................................... 29 Figure 2.16 : Modèle extrinsèque de la caméra [11] ................................................................ 30 Figure 2.17: Modèle intrinsèque de la caméra [11]................................................................. 31 Figure 2.18: Enchaînement des temps de l'acquisition dans le cas d'une carte d'acquisition avec mémoire d'images [13] ............................................................................................................. 34 Figure 2.19: Système d'acquisition fonctionnant à 25 images par seconde [13]...................... 35 Figure 2.20: Méthode de gradient simple [15] ......................................................................... 35 Figure 2.21: Méthode du gradient de Robert [15] .................................................................... 36

vii Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

Figure 2.22: filtres de Prewitt [15] ........................................................................................... 36 Figure 2.23: Filtre de Sobel [15] .............................................................................................. 36 Figure 2.24:Processus chronologique du filtre de Canny [15] ................................................. 37 Figure 2.25: Principe du filtre de Canny [15] .......................................................................... 37 Figure 2.26: classification des points en fonction des valeurs propre de la matrice HarrisStephens [16] ............................................................................................................................ 38 Figure 2.27: Principaux constituants d’un SAM [19] .............................................................. 40 Figure 2.30: Exemple de moteur pour la robotique [19] .......................................................... 42 Figure 2.31: Exemple de robot mobil [19] ............................................................................... 43 Figure 2.32: Exemple de Robot humanoïde [20] ..................................................................... 43 Figure 2.33: Exemple d’un robot manipulateur à corde [19] ................................................... 44 Figure 2.34: exemple de robot manipulateur parallèle [19] ..................................................... 44 Figure 2.35: Exemple de robot manipulateur séries [19] ......................................................... 45 Figure 2.36: Schéma de commande classique de type PID [19] .............................................. 50 Figure 2.37: Illustration de la trajectoire d'un robot [19] ......................................................... 50 Figure 2.38: Architecture logiciel d’une application de contrôle-commande multitâche [21] 52 Figure 2.39: structure d’un état [26]......................................................................................... 54 Figure 2.40: Structure d’une transition [26] ............................................................................. 54

Figure 3.1: La caméra MicroHAWK ID-30 [29] ..................................................................... 56 Figure 3.2:Interface graphique du système .............................................................................. 57 Figure 3.3: Exemple de SAM proposé ..................................................................................... 59 Figure 3.4: Moteur FHA-17C-PR de Harminic Drive [31] ...................................................... 62 Figure 3.5: Différentes parties du processus de simulation ..................................................... 62 Figure 3.6: Résultat de simulation du système de vision…………….……………………..…63 Figure 3.7 : Paramètre de hough du model………………………….…………….……..……64 Figure 3.8 : Paramètre de hough de l’objet à inspecter……………….………….…………...64 Figure 3.9 : Visualisation de la consigne et de la position effectivement suivi par le bras En degré ………………………………………………………………………………………65 Figure 3.10: visualisation de la vitesse des articulations……………….……………………..65 Figure 3.11 : Evolution de la tension dans les moteurs du bras………………………………66 Figure 3.12: Evolution du courant dans les moteurs………………………………………….66

viii Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

LISTE DES TABLEAUX : Tableau 1.1: Caractérisation des fonctions de service ............................................................. 13

Tableau 2.1: Tableau des longueurs d'onde en fonction de la couleur perçue par l’homme …….………………………. 18 ......................................................................................................... Erreur ! Signet non défini. Tableau 2.2: Tableau de KRUTTHOFF des températures en fonction des couleurs ............... 23 …….………………………. 25 Tableau 2.3: les différentes résolutions standard ........................... .Erreur ! Signet non défini. Tableau 2.4:Tableau comparatif des différents actionneurs électriques les plus utilisés ......... 42

Tableau 3.1: Tableu des caractéristiques du MicroHAWK ID-30 ........................................... 57 Tableau 3.2: Tableau des caractéristiques du SAM ................................................................. 59 Tableau 3.3: tableau de DH du SAM ....................................................................................... 60 Tableau 3.4: Caractéristiques de la carte du SAM ................................................................... 61 Tableau 3.5: Caractéristique du moteur FHA-17C-PR ............................................................ 61 Tableau 3.6: Paramètre des correcteurs PID ............................................................................ 67 Tableau 3.7:Devis estimatif du projet ...................................................................................... 67

ix Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

NOTATION 𝑅𝑖 Repère N°I quelconque. 𝑖

𝑅𝑖 𝑗 Rotation du repère i vers j exprimé dans le repère 𝑅𝑖

𝑖

𝑀𝑖 𝑗 Matrice homogène de passage du repère i vers j exprimé dans le repère 𝑅𝑖

𝑖

𝑀𝑖 𝑗 . 𝑖 𝑀𝑖 𝑗 : Produit matriciel

x Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

LISTE DES SIGLES ET ABREVIATIONS

2

J

2D Deux Dimensions 2D 1/2.......................................... Mélange de la 2D et 3D

JPL ............................................Jet Propulsion Laboratory

3 3D Trois Dimensions

C CCD ............................................... Charge Coupled Device CID ............................................. Charge Injection Device CMOS ........ Complementary Metal Oxide Semiconductor

M Matlab ................................................. MATrix LABoratory MCI....................................le Model Cinématique Indirect MD ....................................................... Model Dynamique MGD ...................................... Model Géométrique Direct MGI .................................... Modèle Géométrique Inverse MSMC ..................Modélisation Simulation des machines Cybernétiques (Brenier, 2001)

N D

N&B.............................................................. Noir et Blanc

DART . Design Approach for Real-Time Systems (GOMAA, 1984) DH Denavit Hartenberg

P

F FAST ............................. Function Analysis System Technic

G GRAFCET.....................Graphe Fonctionnel de Commande Etape/Transition

I IFR ............................ International Federation of Robotic

PC Personal Computer, Personal Computer PID .............................. Proportionnelle Intégrale Dérivée

R RDF ....................................... Reconnaissance Des Formes

S SAM .... Système Mécanique Articulé, Système Mécanique Articulé SA-RT Structured Analysis Real Time (Ward-Mellor, 1984 ; Pirbhaï-Hatley, 1986) SDL Specification and Description Language (CCITT, 1988) STR dure..................................... Système temps réel dure STR mou ..................................... Système temps réel mou

xi Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

INTRODUCTION GENERALE Compte tenu des changements technologiques rapides et la présence accrue des économies émergentes sur le marché mondial de la fabrication, les entreprises sentent la pression sur plusieurs fronts. Pour cela, les entreprises à tous les niveaux de la chaîne de valeur ont la possibilité de bien se positionner pour stimuler la croissance grâce à leur expérience solide dans la fabrication, à un moteur d’innovation robuste, à une réputation pour la qualité et l’uniformité et à une main d’œuvre qualifiée. Afin d’améliorer la position concurrentielle de chaque pays et d’augmenter sa viabilité à long terme, il est indispensable d’envisager des changements des méthodes de fabrication. Cela nous emmène à réfléchir aux futures usines qui puissent tirer parti des progrès dans le secteur manufacturier et d’autres grandes tendances émergentes dans l’industrie. De nos jours, l’utilisation des machines dans l’industrie où la recherche est de plus en plus importante. En effet, l’automatisation des systèmes permet une conception plus rapide et plus sûre que certains ouvrages. Les chiffres parle d’eux même : En 2015 les ventes de robot ont augmenté de 15% dans le monde pour un volume record de 253750 unités pour une valeur marchande estimé à 11.1 milliards $ US plus 35milliard $ US si on considère tous les autres domaines autre que l’industrie. La chine est le marché le plus important avec 27% de ce volume mondial (68600 unités) et est talonné par l’Europe avec 19.74% soit un volume de (50100 unités). La chine produit 30% de tout le volume mondial des robots industriels. En Europe, L’Allemagne possède le plus grand nombre de robot à savoir 50000 unités suivit de l’Italie avec 6657 unités. La France quant à elle à un volume estimé à 3045 unités. Les densités de robot dans le monde (nombre de robot pour 10000 ouvriers) sont en moyenne de 92 en Europe ;86 en Amérique et 57 en Asie. Le japon leader mondial à une densité de 1272 et suivi par la Corée du sud (1218) qui sont au coude à coude avec les USA. Seul l’Afrique n’est pas dans cette mouvance [1]. C’est la raison pour laquelle la production est plus abondante et de qualité dans ces régions qu’en Afrique. Les plus importantes sociétés productrices de robot dans le monde sont les suivant : Au Etats unis nous avons : Adept technology ; ST.Robotics ; Intelitek ; …etc. En Suisse : Staübli ; ABB ; …etc. En Allemagne : Bosch ; Cloosgmbh ; Festo ; …etc. Au Japon : Yaskawomotoman ; … etc. En Afrique ; Rien à signaler. [2] 1

Système automatique de tri par vision

Au niveau des couts des systèmes robotique d’après le site de vente d’Alibaba.com, le Robot cartésien chine professionnel industriel 6 axes couteraient 50000$US (25000000Fcfa) ; le CNC manipulateur ou le HWASHI couterais 23000$US (11500000Fcfa) ; Le robot BOXLINE quant à lui couterais 300000$US (150000000Fcfa). De leurs côtés les solutions de vision ne sont pas en reste. Par exemple le model CV-A de la société KEYENCE France peut coûter dans les 20000 à 25000$US. Ces coûts étant très élevés pour les faibles industries Africaines en générale et camerounaise en particulier. C’est de ce constat que nous nous sommes lancés dans la conception d’un système robotique automatique de tri par vision. Pour mener à bien nos objectifs nous avons subdivisés notre travail en trois chapitres qui se présente comme suit : Dans le premier chapitre nous allons faire une présentation générale de la robotique et plus précisément des systèmes de vision et de la robotique industrielle ; de leurs architectures de leurs contributions dans l’industrie et les domaines dans lesquels ils sont utilisées puis nous finirons par un cahier de charge après avoir effectué l’analyse du besoin. Le deuxième chapitre sera dédié à la présentation des lois et méthodes de modélisation utilisé dans le domaine de la robotique ; depuis les lois de la physique des onde (la lumière) en passant par les filtres de Canny et bien d’autre jusqu’à la méthode DENAVIT-HARTENBERG. Et dans le troisième chapitre nous conclurons l’étude expérimentale de notre système, en définissant les solutions Hardware proposé ; de la simulation système à l’aide du logiciel MATLAB ; SIMULINK ; STATEFLOW et SOLIDWORKS. Pour parafer notre projet nous ferons une conclusion qui présente le bilan de ce travail, et les perspectives envisagées ainsi qu’une bibliographie et des annexes qui aiderons à comprendre ou vérifier les méthodes de modélisations.

2 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

Chapitre I : GENERALITE ET HISTORIQUE SUR LES SYSTEME DE VISION ET ROBOTIQUE

INTRODUCTION Ce chapitre se focalise sur la présentation du concept de Robotique et vision ; il réalise aussi nue étude détaillée de l’existant en s’appuyant sur l’historique ayant marqué la vie de cette discipline scientifique. Il présente aussi une Analyse fonctionnelle de notre système et le cahier de charge qui en découle en conformité avec la norme ISO 9946

I-DEFINITIONS ET GENERALITES I.1-SYSTEME DE VISION La vision est un processus de traitement de l’information qui utilise des stratégies bien définies afin d’atteindre ses buts. L’entrée d’un système de vision est constituée par une séquence d’images. Le système lui-même apporte un certain nombre de connaissances qui interviennent à tous les niveaux. La sortie est une description de l’entrée en termes d’objets et de relations entre ces objets. Deux types de stratégies sont mises en jeu : Les stratégies ascendantes qui tentent de construire à partir de l’information sensorielle une représentation la plus abstraite possible (par exemple un ensemble de primitives géométriques 3D). Les stratégies descendantes qui déduisent à partir de l’ensemble d’objets connus par le système une description compatible avec les primitives extraites de l’image [3] La figure (1.1) suivante permet de mettre en évidence les éléments rentrant dans la chaine d’un système de vision :

3 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

Figure 1.1: synoptique du système de vision Le capteur : caméra vidéo, CCD, plaque photosensible aux rayonnement (Gama, X, …) Prétraitement : amélioration de l’image (renforcement du contraste, réduction du bruit …) Extraction des caractéristiques : contours, régions, angles, segment de droite … Les caractéristiques ou primitives sont compatibles avec la représentation qui en est donnée dans la base de connaissances (mémoire) Système de décision : utilise des méthodes de reconnaissance des formes (RDF) communes à d’autres disciplines (reconnaissance de la parole, …) NB : la scène devra préalablement être éclairée convenablement. I.2-SYSTEME ROBOTIQUE La robotique est l'ensemble des techniques permettant la conception et la réalisation de machines automatiques ou de robots. L'ATILF définit le robot de la manière suivante : « Appareil effectuant, grâce à un système de commande automatique à base de micro-processeur, une tâche précise pour laquelle il a été conçu dans le domaine industriel, scientifique ou domestique » [4] En étymologie : « le mot tchèque robota (travail), un robot est un système mécanique polyarticulé mû par des actionneurs et commandé par un calculateur qui est destiné à effectuer une grande variété de tâches » [5]. La robotique industrielle est le contrôle de la fabrication, l’automatisation des chaines de production et la manipulation des objets. En plus, elle inspecte les produits, rapidement et d’une manière précise. On appelle robot industriel un système poly articulé permettant de déplacer et d'orienter un outil ou "organe effecteur" dans un espace de travail [6]. La figure (1.2) permet de mettre en évidence les éléments rentrant dans la chaine d’action d’un système robotique d’après [5] . 4 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

Figure 1.2: synoptique du système robotique

La carte de commande ou calculateur ou encore ordinateur : C’est le cerveau du SAM ; car il permet de planifier et réaliser les mouvements du système tout en veillant sur les contraintes imposées au système. Il réalise très souvent un traitement numérique. L’interfaceur1 (variateur) : C’est cette unité qui gère les étages de puissance ; c’est-à-dire quitter des faibles puissances (électronique) vers les fortes puissances(électricité). Les actionneurs : Il transforme l’énergie électrique ou hydraulique en mouvement Le système mécanique articulé (SAM) : C’est le corps même du robot qui a pour vocation de réaliser la tâche (porter les charges). Il doit impérativement alliée trois contraintes majeures à savoir : légèreté, résistance et être de faible coût. Les capteurs : Ils ont pour rôle d’informer en permanence le calculateur sur l’état du robot. On distingue deux types de capteur : Les capteurs proprioceptifs qui fournissent des informations sur l’état interne du robot (température des actionneurs, positions articulaires, vitesse articulaire, …etc.). Et les capteurs extéroceptifs qui informent le robot sur l’état de son environnement (capteur fin de course, détecteur d’obstacle, …etc.).

II-HISTORIQUES ET DOMAINES D’APPLICATION DES SYSTEMES DE ROBOTIQUE ET DE VISION II.1-HISTORIQUES ET DOMAINE D’APPLICATION DES SYSTEMES DE VISION Historique

1

Elément permettant de faire correspondre un signal électronique à une puissance électrique de plus grande amplitude dans le but d’effectuer une action.

5 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

1973 : SHIRAI et INOUE réalisent une Tâche de saisie d'un objet cubique. La caméra était fixe

et

observe

la

scène

avec

une

Période

d'asservissement

de

10s

 1979 : HILL et PARKS réalisent une Tâche de suivi, de saisie et de déplacement par rapport à une scène à l’aide d’une Projection d'un marqueur lumineux pour reconstruire la profondeur et l'orientation avec Étude des effets dynamiques. 1979 : PRAJOUX Utilise une caméra pour anticiper le mouvement d’une cible. La tâche de suivi de cible est à 2 degrés de liberté avec un Temps d'établissement de 1 s. 1984, Weiss réalise le premier asservissement visuel 2D. 1990 : VENKATESAN et ARCHIBALD réalisent un asservissement visuel grâce à la Projection de marqueurs lumineux à l'aide de 2 scanners LASER. La Commande se faisait suivant 5 degrés de liberté avec une bande passante de la boucle fermée de 4.5 Hz. 1991 : PAPANIKOLOPOULOS réalise un système d’estimation de ma mesure par flot optique et une tâche de suivi de cible 1992 : ESPIAU, CHAUMENE et RIVES formalise de la commande 2D par l'utilisation de la notion de fonction de tâche. Le système était stabilité et la validation expérimentale s’est faite grâce à la tâche de suivi de cible 1996 : WILSON réalise un asservissement 3D avec filtrage de Kalman de la mesure. Le test du système était une tâche de suivi de cible à 5 degrés de liberté et la fréquence de l'asservissement était de 60 Hz 1996 : PETER CORKE réalise un asservissement visuel en Prenant en compte le modèle dynamique du manipulateur pour la synthèse du correcteur. Le système fut testé sur une tâche de suivi de cible à 2 degrés de liberté avec une Fréquence d'asservissement égale à 60 Hz  1998 : JACQUE GANGLOFF et al. Ont réalisé le Modèle dynamique d'un asservissement visuel à 6 DDL à 120 Hz 1999 : MALIS ET CHAUMENE crée l’asservissement visuel 2D 1/2 pour une tâche de suivi de cible. 1999 : NAKABO utilise la vision chip pour la Première fois dans une Tâche de suivi de cible avec une caméra orientable (2 degrés de liberté) à une fréquence de 1000 Hz 2005 : GINHOUX ET AL. Réalisent un asservissements visuels dynamiques pour le médical avec une boucle de vision à 500Hz et Commande répétitive pour le suivi des mouvements du cœur. Domaine d’application Il y a Trois principaux domaines domaine : 6 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

Imagerie aérienne et spatiale (Image satellite ; analyse des ressources interne du globe ; cartographie automatique ; analyse météo…etc.). Technologies biomédicales (Image scanner échographie ; imagerie à résonnance magnétique « IRM » ; reconnaissance automatique de cellules ou de chromosomes ; comptage de cellule ; ostéodensitométrie2 « examen médical qui permet de mesurer la densité de l’os » … etc.). Robotique (Assemblage de pièces ; contrôle qualité ; robotique mobile ; stéréovision « pour la reconstruction 3D » …etc.). Les autres domaines non exhaustifs dans lesquelles on emplois la vision : l’astronomie, la physique nucléaire, l’armement, la télésurveillance …etc. II.2-HISTORIQUES ET DOMAINE D’APPLICATION DES SYSTEMES ROBOTIQUES

Historique Le mot Robot a été introduit par le tchèque Karel Capek en 1921 dans une scène de théâtre. A cette occasion, le terme robot est inspiré du mot slave rabota qui signifie main d'œuvre exécutive. En 1947 apparait le Premier manipulateur électrique téléopéré3. Mais ce n’est qu’entre 19501970 que la robotique industrielle connait un essor. Elle a vu le jour en 1954 lorsque Georges DEVOL a pu réaliser son brevet sur la robotique. Dans ce brevet Devol a conçu un robot qu’il a intitulé Unimate. En 1961, le premier Unimate fut utilisé dans les usines de GENERAL MOTORS. En 1966, l’entreprise Unimation continue de développer des robots et élaborent notamment des robots permettant de faire d’autres tâches, comme des robots de manipulation matérielle ou encore des robots conçus pour la soudure ou pour d’autres applications de ce genre. En 1978 un nouveau robot est conçu par Unimation Inc avec l’aide de General Motors. Ensemble ils conçurent le robot PUMA 500. Le robot PUMA (Programmable Universal Machine for Assembly) a été conçu par Vic Schienman et fut financé par General Motors et par The Massachussets Institute of Technology au milieu des années 70. Le système de ce robot est composé d’un bras manipulateur permettant d’assembler des composants industriels et de son ordinateur de commande. Ce robot est le robot d’assemblage le plus rependu dans l’industrie des années 70. 2 3

Examen médical qui permet de mesurer la densité osseuse Opération à distance

7 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

En 1985, Reymond Clavel a imaginé le Robot Delta qui possède un bras de manipulation formé de 3 parallélogrammes. Son brevet tombe dans le domaine public en 2007 et différents constructeurs devraient alors sortir leur propre robot delta. Le Jet Propulsion Laboratory (JPL) développe un robot industriel hexapode (à 6 pattes) du nom de Lemur. Lemur aura pour mission de monter, assembler et réparer des installations spatiales. Pesant moins de 5 kg, il offre la possibilité innovante d’adapter différents outils sur chacun de ses membres. Selon l’étude robotique de la Fédération Internationale de Robotique (IFR) en 2012, il y a au moins 1153000 robots industriels opérationnels fin 2011 dans le monde. Les robots étaient conçus pour remplacer les ouvriers dans les tâches pénibles, répétitives ou dangereuses (peinture, soudure… etc.). Aujourd’hui avec le développement de l’électronique, de l’informatique, de la mécanique et aussi de l’automatique, la technologie robotique a progressé. La recherche dans le domaine de la robotique est dirigée vers le développement de robots dévoués à des tâches bien différentes que celles demandées par l’industrie. Par exemple des robots travaillant en mode automatique ou semi-automatique et qui ont souvent pour objectif d’interagir avec des humains et de les aider dans leurs tâches (surveillance, manutention d’objets lourds…). Ils sont dotés d’une intelligence qui leur donne une certaine autonomie. Ainsi donc, le développement important de l’intelligence artificielle et de la robotique qui font que de nouveaux robots apparaissent constamment et l’utilisation de systèmes robotiques apparait aujourd’hui dans plusieurs domaines d’activité : la médecine, la défense, la recherche etc.… Domaine d’application Dans l’industrie de l’automobile : Le soudage à l’arc ; par point et la pose de peinture.

Figure 1.3: soudage à l'arc [7]

8 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

Le polissage et l’ébavurage

Figure 1.4: L'ébavurage [7] Dans l’industrie agroalimentaire : les robots de palettisation

Figure 1.5: La palettisation [7]

9 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

Le pick-and-place

Figure 1.6: Le pick-and-place [7]

Dans le domaine médical : Chirurgie robotisée (laparoscopie4)

Figure 1.7: Laparoscopie [7]

4

Chirurgie via les Robots médicaux

10 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

Assistance aux personnes handicapées

Figure 1.8: Robot pour personne handicapé [7] Et dans plusieurs autres domaines tel que : L’aéronautique, sculpture, découpage au laser, collage, pliage, scellement, …etc. [7].

III-PROBLEMATIQUES ET CAHIER DE CHARGE III.1-PROBLEMATIQUE Aux vues du contexte qui est le nôtre (Afrique en général et Cameroun en particulier) à savoir : 

Production des biens faible et ne respectant pas les critères de compétitive international



Les coûts d’investissement dans le domaine de la robotisation élevé



La difficulté à assurer la maintenance de ces systèmes car l’expertise proviendrai de l’étranger



La rentabilité très élevée du secteur de la robotique.

C’est donc fort de ce constat que nous Proposons nôtre systèmes Et la problématique qui s’en dégage d’une part est la suivante : Comment acquérir les informations visuelles d’un système de production industriel dynamique ; en extraire les caractéristiques et prendre une décision en fonction de la conformité désirée par l’utilisateur ? D’autre part comment extraire les pièces défectueuses sans compromettre le système de production et ceux à moindre coût ?

11 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

C’est dans cette optique que nous effectuons l’analyse fonctionnelle et rédigé le cahier de charge suivant. III.2-ANALYSE FONCTIONNELLE ET CAHIER DE CHARGE

Analyse fonctionnelle

C’est une approche scientifique qui raisonne en termes de fonctions devant être assuré par le produit. L’analyse fonctionnelle est de deux sorte : L’Analyse fonctionnelle interne et externe.

Analyse fonctionnelle externe Elle décrit l’aptitude du produit à satisfaire le besoin de l’utilisateur en lui rendant service. Elle se fait elle aussi en deux étapes : L’analyse du besoin et l’analyse fonctionnelle du besoin Analyse du besoin : Elle définit l’action du système en termes de finalité pour répondre aux besoins c’est-à-dire les fonctions devant être assuré par le produit. Elle recherche la formulation du besoin pour notre système Pour cela nous nous sommes posé les trois questions suivantes : A qui le système rend-t-il service ? ; Sur quoi agit-il ? Et dans quel but existe-t-il ? Nous avons donc obtenu le diagramme Bête à corne suivant :

Figure 1.9: bête à corne

12 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

L’analyse fonctionnelle du besoin : Il s’agit ici pour nous de procéder à la détermination des interactions que réalisent le système avec son environnement. Le graphe d’interaction cidessous nous donne les différents éléments du milieu extérieur qui agissent sur notre système. La figure (1.10) suivante nous présente le diagramme pieuvre de notre système.

Figure 1.10: Diagramme pieuvre

Caractérisation des fonctions de service

Tableau 1.1: Caractérisation des fonctions de service Fonctions de service

Critère

Niveau

Flexibilité

Coût $

FP : Soustraire les pièces

Charge maximale

Kg

±%

défectueuses du processus de

Précision

ɛ ≤ 5% pour

± 2.3%

fabrication de manière

(erreur « ɛ »)

une consigne ≥ 98%

satisfaisante La rapidité (temps de

Tm ≤ 1.5s à

monté « Tm »)

5% de la

± 0.01%

consigne Répétabilité

13 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

FC1 : Ne pas interrompre le

Force d’interaction

processus de fabrication ou

maximale avec le

de traitement de par son

convoyeur du

intervention

processus (Fcp)

FC2 :Dois faire une

Coefficient de

distinction entre pièces

conformité

conformes et non conforme

Force d’interaction

en fonction des critères et

avec le bac d’Object

coefficient de conformité

avarié (Fav)

Fcp ≤ 0.025N

± 0.005N

Réglable

Fav ≤ 0.025N

± 0.005N

Pv ≤ lux

± lux

Pem ≤ tesla

± tesla

Température de

Tfn є[ ,] degré

± degré

fonctionnement

Celsius

Celsius

peme ≤ tesla

± tesla

voulu par l’utilisateur FC3 :Doit satisfaire aux

Perturbation optique

contraintes d’exploitations

pour le système de

industrielles

vision (pv) Perturbations électromagnétiques (pem)

normal (Tfn) Perturbation électromagnétique émise (peme) FC4 : Veiller sur la sécurité

Interface homme

des utilisateurs et

machine (IHM)

maintenanciers ;interagir

Système de sécurité

avec l’utilisateur

FC5 : Doit être rigidement

Ergodique

Tout Ou Rien (TOR)

Jeux

0

± 0%

fixé au support (sol ;plafond ...)

14 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

FC6 : Le système doit être Tension de phase d’un V

±V

alimenté en continu par les système triphasé sources

d’alimentation Intensité de phase d’un A

±A

triphasé et monophasé des système triphasé industrie suivant les norme

Facteur de puissance

±

Tension monophasé

[100 ,240] V

± 5%

Intensité monophasé

[3.4,7] A

±5%

Fréquence

50 Ou 60 hz

±0

CAHIER DE CHARGE Du travail précédent et en accord avec la norme ISO 9946 il en ressort que le robot de notre système doit posséder les caractéristiques suivantes : • Espace de travail : (l’espace des situations que l’organe terminal peut atteindre. Il est défini par les limites imposées par le nombre de degré de liberté, les débattements articulaires, les longueurs des segments) Charge utile : 5kg (charge maximale transportable par le robot) Vitesses et accélérations maximales : ERII4, Robotique industrielle 15 Performances : Exactitude ±𝟎. 𝟎𝟕𝒎𝒎 (écart entre situation commandée et moyenne des situations atteintes), Répétabilité :±𝟎. 𝟎𝟔𝒎𝒎 (dispersion des situations lorsqu’on commande la même situation) Résolution : minimum de 2000𝑝𝑜𝑖𝑛𝑡𝑠/𝑡𝑜𝑢𝑟𝑠 (qui correspond à la petite modification de la configuration du robot à la fois observable et contrôlable par le système de commande) Et le système de vision : Débit maximum : Entre 10 et 13Mo/s (taille en termes de capacité mémoire pouvant être transmit par unité de temps) Frame rate > 4frame/s (nombre de frame pouvant être transmit par unité de temps) Cadence d'acquisition≥25 hz (nombre d’image par unité de temps) Temps d'intégration ≤ 20 ms (temps durant lequel le capteur de la caméra est soumis au stimuli) Résolution= 1280 × 960 (taille du capteur ou nombre de pixel se trouvant sur le capteur) Type d’encodage : Codé sur 8 bits 15 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

CONCLUSION Ce chapitre a été conçu pour nous familiariser avec les systèmes de robotique et de vision et aussi pour présenter les caractéristiques que nous désirons implémenter lors de la conception de notre système. Le chapitre suivant attaquera une étude approfondie des méthodes scientifiques de conception et modélisation des systèmes de vision et de robotique.

16 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

Chapitre II : ASPECT METHODOLOGIQUE

INTRODUCTION Dans ce présent chapitre, nous commençons par présenter les technologies qui structurent notre système puis nous présentons les méthodes de modélisation et les postulats de commande employé.

I-METHODOLOGIE DE MODELISATION DES SYTEME DE VISION Les systèmes de vision industrielle capturent et analysent des informations visuelles et sont utilisés pour automatiser des tâches pour lesquelles il faut « voir ». Comme cité ci haut il va depuis son processus d’éclairage jusqu’ au principe de décision Dans cette partie nous allons parler des méthodes de conception des systèmes de vision industrielle. Tout d’abord nous faisons une étude sur la technologie d’acquisition, puis sur les méthodes de traitement d’image et les techniques d’éclairages à utiliser dans les systèmes de vision en passant par les applications et des logicielles nécessaire pour réaliser nos études.

I.1-PRESENTATION DES TECHNOLOGIES DE VISION VUE GENERALE SUR LES DIFFERENTES TECHNOLOGIES DE VISION Un système de vision est caractérisé par les éléments suivants : Le système d’éclairage : il définit les caractéristiques de la lumière qui éclaire l’objet à contrôler et doit être parfaitement maîtrisé. Types de lumière La lumière est un ensemble d’ondes électromagnétiques (radiations) caractérisées par leur longueur d’onde (comme une onde radio) et produites par la propagation de particules lumineuses, les photons. La longueur d’onde λ se mesure en mètre (m) avec : 𝑪

𝛌=𝑭

(2.1)

où F est la fréquence exprimée en Hertz (Hz) et C, la vitesse de la lumière (C = 300000 Km/s).

17 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

Le nanomètre (nm) est souvent utilisé pour exprimer une longueur d’onde. A chaque longueur d’onde correspond une couleur perçue par l’œil humain et le tableau (2) suivante présente les principales longueurs d’onde de la lumière visible perçue par l’homme. Tableau 2.1 : Tableau des longueurs d'onde en fonction de la couleur perçue par l’homme [8]

Suivant sa composition, la lumière peur être : monochromatique (constitué d’une seule longueur d’onde) ou polychromatique (constitué d’une plusieurs longueurs d’onde). Suivant sa nature elle peut être : naturelle (soleil, flamme) ou artificielle (ampoules, lampes halogènes, tubes fluorescents, DEL « diode électroluminescente » … etc.). Suivant sa Densité spectrale d’énergie relative (ou spectre) qui représente la quantité d’énergie produite par une source lumineuse par intervalle de longueur d’onde et normalisée de telle sorte à obtenir 100% d’énergie pour la longueur d’onde 560 nm elle peut être : continu (ampoules à incandescence, bougies soleil), discontinu (lampes à décharge) ou mixte (tubes fluorescents) ou de raies (laser, DEL). Suivant la température de couleur on a des lumières chaudes et froides. Techniques d’éclairage En ce qui concerne les techniques d’éclairage on en distingue plusieurs dont les plus importent sont : Éclairage frontal ou épiscopique (front light)

18 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

Figure 11: Eclairage frontal directionnel [8]

Éclairage directionnel (bright field) Les avantages de cette technologie d’éclairage sont les suivant : Avec un bon contraste et une image nette, il permet de réaliser du contrôle de présence et de la mesure. En réflexion spéculaire, il permet de détecter des défauts de surface En réflexion diffuse, il permet de contrôler les surfaces brillantes de métaux polis ou en plastique Les inconvénients : Génère des contours, des ombres et des reflets (sauf AOL) Avec un AOL, l’épaisseur du miroir peut produire une image double mais il permet d’éclairer de petite cavité • Ne convient pas pour les pièces transparentes ou translucides • Effet de perspective possible

Figure 12: Eclairage frontal rasant [8] Éclairage rasant (dark field) Avantages : Permet une très bonne détection de défauts sur surfaces planes opaques ou translucides Inconvénient : 19 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

Nécessite une source lumineuse très puissante Éclairage diffus :

Figure 13: Eclairage frontal diffus [8] Avantages : Éclairage uniforme peu ou pas d’ombres et de reflets. Il existe aussi en DAOL (Diffuse On Axis Lighting)

Inconvénient : Contours flous ; faible contraste. Rétro-éclairage ou éclairage diascopique (backlight)

Figure 14: Eclairage diascopique [8] Avantages : Mise en évidence de la silhouette (contraste maximum entre le fond, blanc et la forme, noire). Permet le contrôle dimensionnel et l’absence ou la présence de trous. Permet de contrôler les matériaux transparent et translucide (verre, tissu, circuit imprimé).

Inconvénient : Les détails de la surface sont perdus.

Mise en forme 20 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

Lumière structurée : La lumière projetée sur l’objet à observer présente une structure parfaitement définie. Cette structure représente un motif connu qui se déforme si la surface de

Figure 15: Lumière structuré [8] L’objet observé présente un relief Avantages : Mesure de distances par rapport à une ligne de référence ; Analyse de forme des objets ; Mesure de hauteur par triangulation ; Différentes formes à projeter Inconvénient : N’éclaire pas l’objet ; Nécessite parfois une mécanique de déplacement du faisceau ; Les autres éléments permettant de réaliser un bon éclairage sont donnée de manière non exhaustive dans la liste suivante : Les filtres d’éclairage qui créent une lumière polarisée permettant de séparer réflexions spéculaire et diffuse (la réflexion directe est minimum lorsque les filtres sont croisés). Les filtres peuvent être couleur, UV et IR. NB : L’effet de filtrage demande une intensité d’éclairage accrue. La lumière des sources d’éclairage peut être : Collimatée (ou télécentrique ou à raies parallèles)

Figure 16: Lumière collimatée [8] Focalisée : les rayons lumineux incidents sont concentrés sur une surface de petite dimension

21 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

Figure2.7 : Lumière focalisée [8] Stroboscopique : Il consiste à émettre un flash de lumière de forte intensité pendant un temps très court afin de geler le mouvement d’une pièce en déplacement. Il convient pour les objets en mouvement très rapide.

Figure 2.8: Stroboscope [8] Choix de l’éclairage et couleur La caméra a une sensibilité qui varie en fonction de la longueur d’ondes donc Les grandeurs physiques sont utilisées pour évaluer certaines caractéristiques physiques de la lumière déterminante pour la sensation visuelle. Flux lumineux : Il caractérise la puissance lumineuse de la source rapportée à la sensibilité du camera, de façon à ne considérer qu’une puissance susceptible de provoquer la sensation visuelle. L’unité de mesure est le lumen (lm).

Intensité lumineuse : Elle caractérise l’importance du flux lumineux émis dans une direction donnée. L’unité de mesure est la candela (cd). Calcul de la luminance 𝑳=

𝑰 𝑺. 𝒄𝒐𝒔𝜽

(𝟐. 𝟐)

22 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

I : intensité lumineuse (cd), S : la surface (m²) et θ : angle d’inclinaison Relation entre la luminance et l’éclairement d’une surface. Lorsqu’une surface reçoit un certain éclairement, elle réfléchit de la lumière et présente ainsi une luminance. Il s’agit de la loi de Lambert : 𝑳=

𝜷.𝑬

(2.3)

𝝅

Avec β : facteur de diffusion de lumière, E : éclairement reçu en (lux) Flux lumineuse total : 𝑭=

𝑬. 𝑺. 𝒅 𝜼. 𝑼t

(𝟐. 𝟒)

Avec : d (facteur destiné à l’empoussièrement), η (Rendement), Ut (Indice de local) Choix de couleur : Le diagramme de KRUITHOFF permet de déterminer si la température utilise est dans la zone ambiance confortable ou pas. Elle met en relation la température de couleur en kelvin et l’éclairage en lux afin de déterminer la zone de confort. La figure (2.9) ci-dessous noue le présente.

Figure2.9: Le diagramme de KRUITHOFF [9]

Le tableau suivant donne la répartition des températures de couleur.

Tableau 2.2: Tableau de KRUTTHOFF des températures en fonction des couleurs [9] Température

de Tc ≤ 3 300 K

3 300 K < Tc ≤ 5 000 K Tc > 5 000 K

couleur Types de couleurs

Teintes chaudes

Teintes intermédiaires

Teintes froides

Le capteur d’images : Constitué d’une caméra et d’un objectif qui permet de faire 23 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

Converger la lumière sur le capteur. Ce dernier qui, sensible à la lumière la transforme en un signal électrique analogique. La caméra est l’élément qui permet de capturer l’image d’une scène réelle. Elle est composée : d’un capteur constitué d’éléments photosensibles (tube, CCD, CMOS, N&B, couleur) qui convertissent l’énergie lumineuse (photon) en une énergie électrique (électron) et qui sont disposés sous forme matricielle ou linéaire et de composants électroniques permettant la mise en forme du signal image. Les caractéristiques du capteur sont les suivant : Le temps d’intégration : Temps pendant lequel le capteur doit être exposé à la lumière. La sensibilité : Variation électrique pour un éclairement donné Intensité lumineuse minimale que la caméra peut détecter Gain : Facteur multiplicatif permettant d’amplifier le signal image avant qu’il ne soit numérisé. L’offset : C’est un facteur additif permettant d’obtenir une réponse du capteur pour des niveaux de luminosité inférieurs au niveau minimum. La fonction de transfert : C’est le lien entre le signal lumineux et le signal électrique. La sensibilité spectrale : C’est la région du spectre dans laquelle est sensible la caméra. Le rapport signal/bruit : C’est le rapport entre la puissance du signal de sortie et le niveau du bruit présent en absence de signal. La fréquence d’acquisition : C’est le nombre d’images par seconde que peut acquérir la caméra. Température de fonctionnement : Qui représente la température lumineuse à laquelle le fonctionnement du capteur est optimal. Résolution : C’est le nombre de pixels du capteur. Voici un tableau qui présente les différentes résolutions.

24 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

Tableau 2.3: les différentes résolutions standard [8]

L’OBJECTIF L’objectif est constitué d’un ensemble de lentilles permettant de projeter une scène réelle sur un même plan (capteur) en faisant converger (ou diverger) les rayons lumineux. Ses éléments de réglage sont : La focale : elle permet de voir les objets plus ou moins grands. Elle peut être fixe ou automatique (zoom ou varifocale5). La mise au point (focus) : elle permet d’obtenir une image nette en déplaçant les lentilles. Le diaphragme (ou ouverture ou iris) : Le réglage de son ouverture permet de jouer sur la quantité de lumière atteignant le capteur. La figure suivante présente un objectif de vision :

Figure 2.10 : Objectif de vision [8] En adoptant les conventions suivantes illustré par la figure suivante :

5

Objectif à focale variable

25 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

Figure 2.11 : illustration du comportement de l'objectif [8] Où D : la distance entre l’objet et l’objectif (distance de travail) d : la distance entre l’objectif et le capteur f : la distance focale (distance entre l’objectif et le point focal) H : la taille du champ visualisé (champ de vision) C : la taille du capteur (longueur ou largeur) α : l’angle de vue ou angle de champ En appliquant les lois de : 𝟏

Descartes

𝒅

𝟏

𝑪/𝟐

et Thalès

𝟏

+𝑫=𝒇

𝑯/𝟐

(2.5)

𝒅

=𝑫

(2.6)

On obtient le grandissement m (magnification) est le rapport entre la taille du champ de vision et celle du capteur dans une direction donnée 𝑪/𝟐

𝑪

𝒅

𝒎 = 𝑯/𝟐 = 𝑯 = 𝑫 Ce qui implique que 𝑫×𝒅

𝒇 = 𝑫+𝒅 =

𝑫×𝒅 𝒅 𝑫

(𝟏+ )×𝑫

𝒅

= 𝟏+𝒎

(2.7)

Dans le cas où l’objet en suffisamment éloigné du capteur on admet l’hypothèse suivant la quelle (𝐝 ≪ 𝑫) :

Alors : 𝐃 + 𝐝 ≈ 𝐃 ; 𝐟 ≈

𝑫×𝒅 𝑫

≈ 𝐝 et 𝐟 =

𝑪×𝑫 𝑯

(2.8)

Le nombre d’ouverture, NO ou (F-number) correspond à la quantité de lumière pouvant passer dans l’objectif. Il se calcule en divisant la focale f de l’objectif par le diamètre Φ du diaphragme 𝒇

𝐍𝐎 = Φ

(2.9)

26 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

Les valeurs du nombre d’ouverture les plus utilisées sont : 1, 1.4, 2.8, 4, 5.6, 8, 11, 16, 22 et se notent f/1, f/1.4, …, f/22.

Figure 1.12 : Les nombres d'ouverture les plus utilisées [8] Le nombre d’ouverture est un multiple de √2 Plus généralement, l’objectif agit comme un filtre passe-bas par rapport aux fréquences spatiales. Il atténue les hautes fréquences. Des lignes épaisses largement espacées (basse fréquences spatiales) donnent un meilleur contraste que des lignes fines très rapprochées (hautes fréquences spatiales), ce qui définit la MTF (modulate transfert function ou fonction de transfert de modulation en français) de l’objectif. Le choix de la MTF de l’objectif dépend donc de la taille des pixels du capteur utilisé. Et les distorsions de l’objectif sont corrigées en appliquant un modèle inverse afin de garantir la qualité des mesures. Les différents types de caméras sont les suivantes : Au niveau du capteur utilisé :CCD (charge-coupled device), CMOS (Complementary Metal Oxide Semiconductor), tubes ou encore les CID (Charge Injection Device) Au niveau du mode de transmission de l’image : Entrelacée ou progressive. Au niveau de la sensibilité spectrale : Monochrome ou couleur (multispectrale, infrarouge…) Analogique ou numérique Au niveau de la géométrie du capteur : Matricielle ou linéaire Au niveau de la qualité du capteur : Haute résolution ou basse résolution Au niveau de la fréquence de travail : Haute cadence ou faible cadence. Par la suite, nous nous intéresserons aux caméras intégrants la technologie CMOS car c’est elle que nous avons choisi pour l’implémentation notre système car elle offre plus de possibilité que les autres capteurs.

PRESENTATION DE LA TECHNOLOGIE CMOS 27 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

Le capteur CMOS (Complementary Metal Oxyde Semiconductor) est un composant basé sur une technologie de composants à semi-conducteur Constitué d’un ensemble de photosites6 (cellule photosensible de 5 à 30 µm) alimenté électriquement pour accumuler des charges. Son fonctionnement est le suivant : L'arrivée de photons sur le silicium va créer des charges électriques, qui vont s'accumuler dans le silicium durant un certain temps, appelé temps d'intégration ; puis ces charges vont être transformé en tension et ceux grâce aux amplificateurs qui sont de nos jours cachés sous les photosites du capteur permettant ainsi d’augmenter la sensibilité du capteur et le rendre plus compétitif que les CCD. La figure suivante met en exergue ce phénomène

Figure 2.13 : Processus d'intégration chez les CMOS [8] Une matrice CMOS est formée de Y lignes de X colonnes, chaque pixel mesure quelques microns, et est composé d'une partie photo réceptrice et de transistors jouant le rôle d'interrupteurs. Un maillage en X et Y permet en fermant les transistors voulus de lire la tension du pixel. Cette tension est proportionnelle à l'intensité reçue. On distingue deux familles de capteurs CMOS, ceux avec pixels passifs, et ceux avec pixels actifs. On peut voir notamment que le capteur CMOS a une sensibilité non négligeable dans l'infrarouge. Par conséquent, un filtre infrarouge est souvent utilisé pour éviter de saturer le capteur durant la prise d'image. Les avantages qu’il y a à utiliser les capteur CMOS sont les suivant : Dans la fabrication de circuit à base de technologie CMOS : réduction des coûts technologie CMOS à une consommation d’environ 100 fois moins que celle de la technologie CCD ;On a Accès et ceux de manière aléatoire aux pixels comme sur une mémoire RAM Pas d'effet smear (apparition d’une ligne verticale dans l’image du au déplacement des charges « généralement dans la technologie CCD».)Possibilité de réaliser des fonctions

6

Semi-conducteur sensible à la lumière

28 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

évoluées sur le même substrat : filtrage, générateur d'adresse, conversion analogiquenumérique, ...etc. Mais cette technologie présente aussi quelques inconvénients à savoir : Des bruits sur les pixels (qui tendent à diminuer) avec un facteur de remplissage moyen ; La figure (2.14) nous présente la structure d’un capteur CMOS.

Figure 2.14 : Structure d'un capteur CMOS [10]

I.2-LES METHODES DE MODELISATION

METHODE DE MODELISATION SPATIALE La modélisation spatiale de la caméra se fait grâce aux méthodes de calibrage qui se fera par la suite avec le modèle linéaire permettant la représentation d'une caméra. On l’appelle également le modèle sténopé ou encore modèle à projection centrale car il est basé sur ce principe de projection comme illustré par la Figure (2.15) suivante.

Figure 2.15 : Modèle sténopé [11] 29 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

Modèle extrinsèque : Cette transformation exprime le passage du repère objet (RO) au repère de la caméra (RC) par une translation du repère objet vers le centre du repère de la caméra suivie d'une rotation permettant de faire correspondre l'un des axes du repère translaté avec la direction de l'axe optique de l’objectif figure (2.16).

Figure 2.16 : Modèle extrinsèque de la caméra [11]

Ainsi, les coordonnées (xo ;yo ;zo)t d'un point dans le repère objet s'expriment dans le repère de la caméra (xc ;yc ;zc)t à l'aide du formalisme des matrices homogènes : 𝑥𝑐 𝑦 𝑅 (𝑧𝑐 ) = ( 𝑐𝑜 𝑐 0 1

𝑥0 𝑇𝑐𝑜 𝑦0 ) . (𝑧 ) 0 1 1

(2.10)

La matrice (Rco) est une matrice (3×3) qui représente la rotation de mise en correspondance du repère (Ro) avec le repère (Rc) définie soit par les angles d'Euler (θx ; θy ; θz) ; soit au moyen d'un vecteur de rotation dont direction est l'axe de rotation et dont la norme est l'angle de rotation. La matrice (Tco) est la translation entre le centre du repère objet (Ro) et celui du repère caméra (Rc) [12]. Modèle interne : Dans un premier temps, cette transformation exprime le passage du repère de la caméra au repère du plan image situé à la distance focale f du repère caméra. Puis il est complété en passant du plan image au repère du système de visualisation par un recalage et une mise à l'échelle figure (2.17).

30 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

Figure 2.17: Modèle intrinsèque de la caméra [11]

Les coordonnées du point dans le repère de la caméra s'expriment dans le plan image en tenant compte de la relation liant ces deux points et la focale de l'objectif employé. Les coordonnées dans le repère image s'expriment dans le repère de visualisation en effectuant une translation tenant compte de l'image du centre du plan image dans le repère de visualisation (u0 ;v0) et une mise à l'échelle qui permet d'exprimer ces coordonnées en pixels (u :v). Le modèle interne est alors défini par la relation : 𝑥𝑐 . 𝑓. 𝑒𝑢 + 𝑢0 𝑧𝑐 { 𝑦𝑐 𝑣 = . 𝑓. 𝑒𝑣 + 𝑣0 𝑧𝑐 𝑢=

(2.11)

Comme il est impossible de dissocier la focale f des facteurs de mise à l'échelle (eu ;ev)on effectue alors le changement de variables suivant : {

𝑘𝑢 = 𝑓. 𝑒𝑢 𝑘𝑣 = 𝑓. 𝑒𝑣

(2.12)

Ainsi, le vecteur des paramètres du modèle de la caméra est (tx , ty , tz , θx , θy , θz ,ku , kv, u0 ,v0). En effectuant le produit du modèle intrinsèque par le modèle extrinsèque on obtient le modèle global du capteur qui exprime le passage du repère objet (R0)(3D) au repère de visualisation (2D): 𝑢. 𝑠 𝑘𝑢 (𝑣. 𝑠 ) = ( 0 𝑠 0

0 𝑘𝑣 0

𝑢0 0 𝑅 𝑣0 0) ( 𝑐𝑜 0 1 0

𝑥0 𝑇𝑐𝑜 𝑦 ) . ( 𝑧0 ) 0 1 1

(2.13)

Qui se généralise de la façon suivante : 𝑥0 𝑢. 𝑠 𝑦 (𝑣. 𝑠 ) = (𝐻). ( 𝑧0 ) 0 𝑠 1

ℎ11 𝑢. 𝑠 =≫ (𝑣. 𝑠 ) = (ℎ21 𝑠 ℎ31

ℎ12 ℎ22 ℎ32

ℎ13 ℎ23 ℎ33

𝑥0 ℎ14 0 ℎ24 ) . (𝑦 𝑧0 ) ℎ34 1

(2.14)

31 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

En utilisant la Méthode des moindres carrés pour un point de calibrage, la donnée (2D) associée à son point (3D) conduit à deux équations linéaires indépendantes où les 12 inconnues sont les paramètres de la matrice (H) : {

(ℎ11− ℎ31 . 𝑢)𝑥0 + (ℎ12− ℎ32 . 𝑢)𝑦0 + (ℎ13− ℎ33 . 𝑢)𝑧0+ (ℎ14− ℎ34 . 𝑢) = 0 (ℎ21− ℎ31 . 𝑣)𝑥0 + (ℎ22− ℎ32 . 𝑣)𝑦0 + (ℎ23− ℎ33 . 𝑣)𝑧0+ (ℎ24− ℎ34 . 𝑣) = 0

(𝟐. 𝟏𝟓)

En normalisant h34 à une valeur de 1 (ou en divisant les deux équations par h34), le nombre de paramètres à déterminer pour le modèle global n'est plus que de 11. Le système peu alors s'exprimer sous la forme matricielle suivante : 𝐀. 𝐗 = 𝐁

(𝟐. 𝟏𝟔)

Avec le vecteur des 11 paramètres recherchés : 𝑋 = (ℎ11

ℎ12

ℎ13

ℎ14

ℎ21

ℎ22

ℎ23

ℎ24

ℎ31

ℎ32

ℎ33 )𝑡

(𝟐. 𝟏𝟕)

La matrice A indexée par apport aux n points de calibrage : 𝑥01 0 … … 𝑥0𝑖 0 …

𝐴=

… 𝑥0𝑛 ( 0

𝑦01 𝑧01 0 0 … … … … 𝑦0𝑖 𝑧0𝑖 0 0 … … … … 𝑦0𝑛 𝑧0𝑛 0 0

1 0 … … 1 0 … … 1 0

0 0 𝑥01 𝑦01 … … … … 0 0 𝑥0𝑖 𝑦0𝑖 … … … … 0 0 𝑥0𝑛 𝑦0𝑛

0 𝑧 …01 … 0 𝑧0𝑖 … … 0 𝑧0𝑛

0 −𝑢1 𝑥01 −𝑢1 𝑦01 −𝑢1 𝑧01 1 −𝑣1 𝑥01 −𝑣1 𝑦01 −𝑣1 𝑧01 … … … … … … … … 0 −𝑢𝑖 𝑥0𝑖 −𝑢𝑖 𝑦0𝑖 −𝑢𝑖 𝑧0𝑖 −𝑣𝑖 𝑦0𝑖 −𝑣𝑖 𝑧0𝑖 𝑖 𝑥0𝑖 1 −𝑣… … … … … … … … 0 −𝑢𝑛 𝑥0𝑛 −𝑢𝑛 𝑦0𝑛 −𝑢𝑛 𝑧0𝑛 1 −𝑣𝑛 𝑥0𝑛 −𝑣𝑛 𝑦0𝑛 −𝑣𝑛 𝑧0𝑛 )

(𝟐. 𝟏𝟖)

Donc 𝐀. 𝐗 = 𝐁 Et le vecteur B : 𝐵 = (𝑢1

𝑣1

… … 𝑢𝑖

𝑣𝑖

… … 𝑢𝑛

𝑣𝑛 )𝑡

(𝟐. 𝟏𝟗)

Il faut donc un minimum de 6 points de calibrage afin de pouvoir estimer les paramètres du modèle global. Pour des raisons de non dégénérescence du système, les points de calibrage ne doivent pas être tous définis dans le même plan ou se trouver sur le même rayon visuel. La résolution se fait par une technique minimisant un écart quadratique des distances de projection qui n'est autre qu'un calcul de pseudo inverse : 𝐗 = (𝑨𝒕 . 𝐀)−1 . 𝑨𝒕 . 𝑩

(𝟐. 𝟐𝟎)

Soit : 𝐗 = pseudoinverse(𝐀). 𝐁 Une fois les paramètres du modèle global déterminés, il est possible de dissocier les paramètres du modèle interne et ceux du modèle externe. Pour que cette méthode soit suffisamment fiable, le nombre de points de calibration doit être d'une douzaine au moins

32 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

(marge nécessaire par rapport aux six points minimum), et l'incertitude sur la position des points la plus faible possible. Voilà donc présenté la modélisation spatiale maintenant passons à la modélisation temporelle. [11]

METHODE DE MODELISATION TEMPORELLE Cette partie est destinée à étudier la chronologie des différents éléments intervenant dans le processus de vision destiné à effectuer une tâche de tri de pièces ou d'asservissement visuel durant les phases d'acquisition d'images ; de traitement informatique des images ; et l'action qui en résulte. Du point de vue temporel, les temps à prendre sont au nombre de cinq. Le temps d'intégration du capteur : Durant cette période, la scène est figée sur le plan image formé par le capteur. Le temps de transfert de l'image depuis la caméra vers la carte d'acquisition d'images. Dans le cas d'un système d'acquisition analogique, ce temps est fixe et est égal à 40 millisecondes. Le temps de transfert de la carte d'acquisition d'images vers la mémoire du processeur. Ce transfert est assuré par le circuit de DMA (Direct Memory Acces). Une carte de bonne qualité effectue des transfert DMA sur bus PCI à un débit de 100 méga octets par seconde. Dans ce cas, le transfert d'une image couleur au format CCIR (3x768x576=1.26 méga octets) prend environ 14 millisecondes. Le temps de transfert de la mémoire du processeur vers la mémoire applicative. Il s'agit ici de recopier l'espace mémoire image, rempli par le circuit de DMA, dans un espace mémoire image, propre au programme applicatif. Cette recopie permet au programme de travailler sur un espace mémoire image, sécurisé vis à vis du DMA et avec un accès plus rapide (par exemple en mémoire cache). Ce temps est assez court. Pour une image couleur au format CCIR, il est de l'ordre de 6 millisecondes.

33 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

Le temps de traitement correspond à l'analyse de l'image, ainsi qu'à l'action qui en résulte. C'est le temps le plus difficile à évaluer, puisqu'il dépend du programme applicatif et du la vitesse de traitement de la machine sur laquelle il va fonctionner [13]. La figure (2.18) suivante illustre la chronologie de ces différents temps

Figure 2.18: Enchaînement des temps de l'acquisition dans le cas d'une carte d'acquisition avec mémoire d'images [13]

Ces cinq temps et leur enchaînement sont maintenant définis et spécifient l'analyse d'une image. Il faut à présent étudier comment la machine de vision enchaîne ces tâches élémentaires, et réalise l'analyse du flux d'images. Du point de vue de l'automatique, on cherche à avoir la machine de vision la plus robuste possible. Pour cela, deux paramètres sont optimisés. La fréquence de travail est maximale. Un système d'acquisition analogique travaille à 25 images par seconde. Le délai entre la prise d'images (temps d'intégration) et l'action (temps de traitement) est minimum. La figure (2.19) illustre les contraintes temporelles imposées par le flux d'images dans le cas d'un système constitué d'une carte d'acquisition analogique sur un bus PCI. On

34 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

[14]

Figure 2.19: Système d'acquisition fonctionnant à 25 images par seconde [13]

I.3-LES METHODES DE TRAITEMENT D’IMAGE Cette partie est destinée à présenter les différentes méthodes de traitement qui peuvent affecter une image dans le d’appliquer une méthode de reconnaissance de forme. LES TYPES DE TRAITEMENT (LE TRAITEMENT PAR DETECTION DE CONTOUR) La détection des contours d'une image ou sa segmentation permettent de préparer le terrain pour des traitements de plus haut niveau tel que la reconnaissance de formes. La détection de contours s’appuie sur plusieurs méthodes parmi lesquelles : Le gradient Simple : Qui est une méthode utilisant deux filtres (ou masques de convolution) pour mettre en évidence les contours (primitives). La figure (2.20) suivante illustre son principe.

Figure 2.20: Méthode de gradient simple [15]

35 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

Le gradient de Roberts : Utilise deux filtres pour mettre en évidence les contours. La figure (2.21) permet d’illustrer son principe

Figure 2.21: Méthode du gradient de Robert [15]

Le filtres de Prewitt : qui lui aussi est composé de deux filtres illustrés par la figure (2.22).

Figure 2.22 : filtres de Prewitt [15] Le Filtre de Sobel : Son principe est illustré par la figure (2.23) suivant :

Figure 2.23: Filtre de Sobel [15] 36 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

Le filtre de Canny : Qui se basé sur les critères suivants : Un critère de bonne détection garantissant une réponse forte en sortie du filtre même en présence de faibles contours sur l'image d'entrée. Un critère de bonne localisation du contour. Un critère d'unicité de la réponse permettant d'assurer une seule détection pour un contour et ainsi d'éviter les effets de rebond. Les figures (2.24) et (2 .25) suivantes illustrent son principe :

Figure 2.24:Processus chronologique

Figure 2.25: Principe du filtre de Canny [15]

du filtre de Canny [15] Pour limiter le temps de traitement lié à la reconnaissance des formes nous avons extraire les points d’intérêt sur lesquelles nous appliquerons les outils de reconnaissance des formes. Plusieurs méthodes s’offrent à nous parmi lesquelles : La transformée de HOUGH qui consiste à faire correspondre à des points de contour du plan image des points d’un espace de paramètres. Elle peut s’étendre pour détecter des courbes de forme quelconque en conservant ses dimensions so principe est le suivant : Considérons un point de contour du plan image Ce point est caractérise par sa position dans l’image [xi yi] et par son orientation αi On peut donc définir une droite qui passe par ce point et qui a la direction du contour : 𝒙𝒊 𝐬𝐢𝐧 𝜶𝒊 + 𝒚𝒊 𝐜𝐨𝐬 𝜶𝒊 = 𝒅𝒊

(𝟐. 𝟐𝟏)

A chaque point-contour du plan image correspond donc un point dans le plan d Soient n points-contour colinéaires On aura α1=…=αn et d1=…= dn. A tous ces points colinéaires il correspond le même point dans le plan des paramètres Afin d’utiliser pratiquement cette technique nous devons discrétiser le plan des paramètres en N×M cellules A chaque pointcontour du plan image correspond donc une cellule du plan d De plus on associe un compteur

37 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

à chaque cellule Chaque fois qu’une cellule reçoit un "vote" de l’image on incrémente son compteur. Des points de contour colinéaires voterons pour la même cellule le compteur correspondant contiendra par conséquent une valeur élevée par rapport au compteur d’une cellule qui ne correspond pas à des points de contour colinéaires. [15]

Les points de Harris-Stephens (1988) qui Calculer le changement induit par une translation (u,v) sur une fenêtre décrite par le domaine x,y dans toute les directions non plus seulement dans deux comme dans celle de MORAVEC. L’équation (équation de HarrisStephens) présente son principe de calcul. 𝟐

𝑽(𝒙;𝒚) ≈ ∑𝒇𝒆𝒏ê𝒕𝒓𝒆(𝒖𝑰𝒙 + 𝒗𝑰𝒚 ) =≫ 𝑽(𝒙;𝒚)

𝑰𝟐𝒙 𝒖 ≈ (𝒖 𝒗)𝑴 ( ) 𝐚𝐯𝐞𝐜 𝐌 = [ 𝒗 𝑰𝒙 𝑰𝒚

𝑰 𝒙 𝑰𝒚 𝑰𝟐𝒚

] (𝟐. 𝟐𝟐)

λ1 et λ2 étant les propres de M.V égale une constante. , la Classification des points en utilisant les valeurs propres se fait comme le présente la figure (2.26)

Figure 2.26: classification des points en fonction des valeurs propre de la matrice Harris-Stephens [16] Une fois ces points extraits nous passons au processus de reconnaissance des formes. Les processus de reconnaissance de forme sont nombreux et sont reparti en deux grande familles à savoir l’apprentissage supervisé (La méthode des K plus proches voisins ; a méthode CART « Classification And Regression Tree » ; Matching by Correlation …etc.) et non supervisé (Algorithme simple et classique de clustering ; L’apprentissage non-supervisé à rétro propagation ; L’apprentissage Hebbien non-supervisée ; Les K-means …etc.). Nous nous attarderons un peu plus sur le Matching by Correlation (Mise en correspondance par corrélation) qui est une méthode de classification supervisé statique basé sur des notions statistique qui pour deux images f(x,y) et w(x,y) cherche à établir une corrélation 38 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

entre les places de qui se ressemblent fortement dans les deux images F(x,y) étant l’image à reconnaitre et w(étant le masque ou référence ou encore model) la valeur de cette corrélation est comprise entre [-1 1] une fois le coefficient de corrélation déterminé on peut le comparer à un seuil et prendre une décision par rapport à l’image à examiner. La formule de corrélation est donnée par l’équation (Calcul du coefficient de corrélation entre deux images) : 𝜸(𝒙, 𝒚) =

∑𝒖,𝒗[𝒘(𝒔, 𝒕) − 𝒘 ̅ ] [𝒇(𝒙 + 𝒖 , 𝒚 + 𝒗) − 𝒇̅𝒙,𝒚 ] √∑𝒖,𝒗[𝒘(𝒖 , 𝒗) − 𝒘 ̅ ]𝟐 ∑𝒖,𝒗[𝒇(𝒙 + 𝒖 , 𝒚 + 𝒗) − 𝒇̅𝒙,𝒚 ]

(𝟐. 𝟐𝟑) 𝟐

où 𝒇̅𝒙,𝒚 est la valeur moyenne des pixels dans l’image à examiner et 𝒘 ̅ est celui du model ;et le vecteur (u,v) représente le pas de calcul de la corrélation . Voilà donc ainsi fini la méthode de modélisation de notre système de vision. [17]

II-METHODOLOGIE DE MODELISATION DES ROBOTS (SYSTEMES MECANIQUES ARTICULES) II.1-ELEMENTS CONSTITUTIFS ET TYPES DE ROBOT

ELEMENTS CONSTITUTIFS DES ROBOTS Un robot manipulateur est constitué généralement par deux sous-ensembles distincts : un organe terminal qui est le dispositif destiné à manipuler des objets, et une structure mécanique articulée (SMA), constituée d’un ensemble de solides reliés entre eux (corps), généralement les uns à la suite des autres où chaque solide est mobile par rapport au précédent grâce à un actionneur (moteur). Cette mobilité s’exprime en termes de degrés de liberté (d.d.l) qui est par définition le nombre de mouvements indépendants possibles d’un solide par rapport au solide qui lui est directement relié. La mesure des mouvements et de l’état du robot est réalisée par des capteurs. Une structure mécanique articulée peut être représentée par une architecture composée de plusieurs chaînes de corps rigides assemblés par des liaisons appelées articulations. Les chaînes peuvent être dites soit ouvertes ou en série dans les quelles tous les corps ont au plus deux liaisons, ou bien arborescentes où au moins l’un des corps a plus de deux liaisons. Les chaînes peuvent aussi être fermées dans lesquelles l’organe terminal est relié à la base du mécanisme par l’intermédiaire de plusieurs chaînes. [18] 39 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

La figure (2.27) suivante met en évidence les différents constituants.

Figure 2.27: Principaux constituants d’un SAM [19] Articulation ou Axe lie deux corps successifs en limitant le nombre de degrés de liberté l’un par rapport à l’autre. On appelle mobilité de l’articulation le nombre de degré de liberté 0≤m≤ 6. Lorsque m=1, l’articulation est soit rotoïde7 soit prismatique8 Organe terminal : tout dispositif destiné à manipuler des objets (dispositifs de serrage, dispositifs magnétiques, à dépression, …), ou à les transformer (outils, torche de soudage, pistolet de peinture, …). En d'autres termes, il s'agit d'une interface permettant au robot d'interagir avec son environnement L’effecteur ou outil est l’élément directement en contact avec le processus à modifier. Les capteurs permettent de gérer les relations entre le robot et son environnement. Ils peuvent être proprioceptifs lorsqu'ils mesurent l'état interne du robot (positions et vitesses des articulations ; température interne des moteurs …) et extéroceptifs lorsqu'ils recueillent des

7 8

Désignation de mouvement de rotation en robotique Désignation du mouvement de translation en robotique

40 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

informations sur l'environnement (détection de présence, de contact, mesure de distance, vision artificielle …). Les figures (2.28) et (2.29) suivante présentent quelques capteurs

Figure 2.28: exemple de codeur absolu [19] Figure2.29 : exemple de codeur incrémental [19] Le corps ou segment est la partie solide du robot généralement fait en matériaux métallique, il a la responsabilité de supporter la charge que le robot doit déplacer et ceux sans rompre tout en étant le plus léger possible pour ne pas fatiguer les actionneurs et avoir une longueur bien définie. Les actionneurs : C’est un ensemble généralement constitué de moteurs le plus souvent avec des transmissions (les réducteurs à train d’engrenage, épicycloïdal, Harmonic drive ; les transmissions à courroies crantées). Les actionneurs utilisent fréquemment des moteurs électriques à aimant permanent, à courant continu, à commande par l'induit (la tension n'est continue qu'en moyenne car en général l'alimentation est un hacheur de tension à fréquence élevée ; bien souvent la vitesse de régime élevée du moteur fait qu'il est suivi d'un réducteur, ce qui permet d'amplifier le couple moteur). On trouve de plus en plus de moteurs à commutation électronique (sans balais), ou, pour de petits robots, des moteurs pas à pas. Pour les robots devant manipuler de très lourdes charges (par exemple, une pelle mécanique), les actionneurs sont le plus souvent hydrauliques, agissant en translation (vérin hydraulique) ou en rotation (moteur hydraulique). Les actionneurs pneumatiques sont d'un usage général pour les manipulateurs à cycles (robots tout ou rien). Un manipulateur à cycles est un S.M.A. avec un nombre limité de degrés de liberté permettant une succession de mouvements contrôlés uniquement par des capteurs de fin de course réglables manuellement à la course désirée (asservissement en position difficile dû à la compressibilité de l'air). Les moteurs fréquemment utilisé en robotique sont les suivant : Les moteurs à courant continu (MCC)

41 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

Les moteurs synchrones autopiloté (MS) exemple : DC brushless Les moteurs asynchrones à commande vectorielle (MA) Les caractéristiques propres des moteurs pour la robotique sont : Le bobinage statorique à faible constante de temps électrique (L/R) Le rotor à faible constante de temps mécanique (J/F) Où J est l’inertie rotorique ; L est l’inductance rotorique ; R est la résistance rotorique : F les frottements visqueux rotorique. Ce qui donne une forme particulière aux moteurs pour la robotique. La figure (2.30) présente quelques exemples de moteurs pour la robotique.

Figure 2.30: Exemple de moteur pour la robotique [19] Certain des différents actionneurs électriques utilisé pour la robotique ont des rendements mitigés en fonction du critère d’examinassions. Le tableau (2.4) suivant en donne un bref aperçu. Tableau 2.4: Tableau comparatif des différents actionneurs électriques les plus utilisés [19]

LES TYPES DE ROBOT On distingue trois grandes familles de robot de nos jours à savoir : 42 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

Robots mobiles : Ce sont des robots capables de se déplacer dans un environnement comme le montre la figure (2.31) ; Ils sont équipés ou non de manipulateurs suivant leur utilisation, (les robots explorateurs, les robots de services …).

Figure 2.31: Exemple de robot mobil [19] Les Robots humanoïdes : ce sont des robots dotés d’une apparence humaine. Ils sont eux aussi utilisé dans les mêmes domaines que ceux des robots mobiles. La figure (2.32) nous en montre un exemple.

Figure 2.32: Exemple de Robot humanoïde [20] ET les robots manipulateurs : Ce sont des robots ancrés physiquement à leur place de travail et généralement mis en place pour réaliser une tâche précise répétitive, (tels que les robots industriels, médicaux…etc.). Cette famille de robot est aussi divisée en trois sous-groupes en fonction de leurs structures. On distingue :

43 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

Le groupe des robots à corde : caractérisé par le fait que l’organe terminale est mu par des câble. Ces robots sont généralement utilisés dans l’audiovisuel pour la retransmission des évènements sportif, les grands concerts de music …etc. La figure (2.33) illustre parfaitement ce type de robot

Figure 2.33: Exemple d’un robot manipulateur à corde [19] Les robots parallèles : caractérisés par le fait que plus d'une chaîne cinématique assure la liaison entre la base fixe et l'organe terminal mobile. Ces robots sont très utilisés dans l’industrie de l’agro-alimentaire ; …. La figure (2.34) illustre à suffisance ce type de robot

Figure 2.34: exemple de robot manipulateur parallèle [19]

Et en fin les robot séries ; caractérisés par le fait qu'une seule chaîne cinématique relie la base fixe à l'organe terminal mobile. Ces robots sont très utilisés dans l’industrie de l’automobile ; l’agro-alimentaire ; …etc. La figure (2.35) illustre à suffisance ce type de robot

44 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

Figure 2.35: Exemple de robot manipulateur séries [19] Dans nos travaux nous nous sommes attardés sur ce dernier type de robot que nous avons choisi pour notre système et c’est lui que nous allons modéliser. [21]

II.2-METHODOLOGIE

DE

MODELISATION

DES

ROBOTS

MANIPULATEURS SERIES

PRESENTATION DES DIFFERENTES METHODES DE MODELISATION Les méthodes de modélisation des robot séries sont nombreuses ; parmi celles d’entre elle on peut citer : La méthode Khalil et Kleinfinger qui permet la description homogène, et avec un nombre minimum de paramètres, des robots manipulateurs séries. Elle consiste à réalise quatre mouvements alternés de rotation et translation suivant des axes précis. Sa matrice de transformation définissant le repère Rj dans le repère Rj-1 est donnée par 𝑻𝒋−𝟏 𝒋 = 𝐑𝐨𝐭(𝒙𝒋−𝟏 , 𝜶𝒋 )𝐓𝐫𝐚𝐧𝐬(𝒙𝒋−𝒊 , 𝒅𝒋 )𝐑𝐨𝐭(𝒛𝒋−𝟏 , 𝜽𝒋 )𝐓𝐫𝐚𝐧𝐬(𝒛𝒊−𝟏 , 𝒓𝒋 )

(𝟐. 𝟐𝟒)

Cette méthode est très efficace mais est encore faiblement rependus dans le domaine industriel [18] La méthode Denavit-Hartenberg qui permet la description homogène, et avec un nombre réduit de paramètres, des robots manipulateurs séries. Elle consiste à réalise quatre mouvements une rotation ; deux translations et une rotation. [22] Sa matrice de transformation définissant le repère Ri dans le repère Ri-1 est donnée par 45 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

𝑴𝒊−𝟏 𝒊 = 𝐑𝐨𝐭(𝒛𝒊−𝟏 , 𝜽𝒊 ) 𝐓𝐫𝐚𝐧𝐬(𝒛𝒊−𝟏 , 𝒅𝒊 )𝐓𝐫𝐚𝐧𝐬(𝒙𝒊 , 𝒂𝒊 )𝐑𝐨𝐭(𝒙𝒊 , 𝜶𝒊 )

(𝟐. 𝟐𝟓)

Cette méthode est très utilisée dans le domaine industriel car très satisfaisante. [23] LA METHODE DENAVIT-HARTENBERG La convention de Denavit et Hartenberg (DH 1955) est une méthode systématique. Elle permet le passage entre articulations adjacentes d’un système robotique. Elle concerne les chaînes cinématiques ouvertes où l’articulation possède uniquement un degré de liberté, et les surfaces adjacentes restent en contact. Le choix adéquat des repères dans les liaisons facilite le calcul des matrices homogènes de DH et permet d’arriver à exprimer rapidement des informations de l’organe terminal vers la base ou l’inverse. Les étapes à suivre pour cette technique sont les suivantes : 1. Numérotation des segments constitutifs du bras manipulateur de la base vers l’élément terminal. On associe le référentiel zéro à la base de celui-ci, et l’ordre n à l’organe terminal (effecteur) ;

2. Définition des axes principaux de chaque segment : Si zi et zi-1 sont colinéaires on choisit xi dans le plan perpendiculaire à zi+1.

3. Fixer les quatre paramètres géométriques : ai, αi, di et θi (voir la figure Systèmes de coordonnées et les paramètres de Denavit et Hartenberg) pour chaque articulation tel que :

di coordonnée de l’origine oi sur l’axe zi-1 . Pour une glissière di est une variable et pour une charnière di est une constante.

θi est l’angle que l’on obtient par vissage de xi-1 vers xi autour de l’axe zi-1. Pour une glissière θi est une constante et pour une charnière θi est une variable.

ai est la distance entre les axes zi et zi-1 mesurée sur l’axe xi négatif à partir de son origine jusqu’à l’intersection avec l’axe zi-1. αi est l’angle entre zi et zi-1 obtenu en vissant zi-1 vers zi autour de xi .

46 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

Si zi et zi-1 ne se coupent pas et on choisit xi de manière à être la parallèle avec l’axe perpendiculaire à zi et zi-1

On a enfin la matrice de transformation homogène de DH. La partie supérieure gauche (3x3) définit la matrice de rotation Rii-1, et le vecteur droit pour la translation dii-1.

𝑴𝒊−𝟏 𝒊

𝒄𝜽𝒊 = [𝒔𝜽𝒊 𝟎 𝟎

−𝒔𝜽𝒊 𝒄𝜶𝒊 𝒄𝜽𝒊 𝒄𝜶𝒊 𝒔𝜶𝒊 𝟎

𝒔𝜽𝒊 𝒔𝜶𝒊 𝒂𝒊 𝒄𝜽𝒊 −𝒄𝜽𝒊 𝒔𝜶𝒊 𝒂𝒊 𝒔𝜽𝒊 ] 𝒄𝜶𝒊 𝒅𝒊 𝟎 𝟏

(𝟐. 𝟐𝟔)

Comme la matrice précédente le passage d’un repère (i-1) à un repère (i) pour aller repère de base R0 au repère de l’effecteur Rn il suffit de multiplier la matrice dans l’ordre suivant 𝑴𝟎 𝒏 = 𝑴𝟎 𝟏 × 𝑴𝟏 𝟐 × … × 𝑴𝒊−𝟏 𝒊 × … × 𝑴𝒏−𝟏 𝒏

(𝟐. 𝟐𝟕)

Une fois cette multiplication faite ; Les trois premières lignes de la quatrième colonne de la matrice 𝑀0 𝑛 représentent le Model Géométrique Direct du robot (MGD) qui permet de déterminer la position de l’effecteur connaissant les positions des variables articulaires. En appliquant : [19] La méthode de Paul qui traite séparément chaque cas particulier et convient pour la plupart des robots industriels ; ou la méthode de Pieper qui permet de résoudre le problème pour les robots à six degrés de liberté possédant trois articulations rotoïdes d'axes concourants ou trois articulations prismatiques ; ou la méthode générale de Raghavan et Roth [Raghavan 90], donnant la solution générale des robots à six articulations à partir d'un polynôme de degré au plus égal à 16. [22] Ou encore par des relations évidentes de simplification géométrique sur le MGD On arrive donc à trouver le Modèle Géométrique Inverse (MGI) qui permet de donner si elles existent les valeurs des variables articulaires connaissant la position de l’effecteur. Mais il faut déterminer la condition de non singularités et les points singulier qui varient en fonction de la structure du robot Pour déterminer le Model Cinématique Direct (MCI) on peut passer par la méthode des dérivées ou par celle des systèmes récursifs Méthode des dérivées 𝟎 𝐴𝑺(𝜴𝟎 𝒏 ) = [ 𝝎𝒛 −𝝎𝒚

−𝝎𝒛 𝟎 𝝎𝒙

𝝎𝒚 𝒅𝑹𝟎 𝒏 −𝝎𝒙 ] = × 𝑹𝒏 𝟎 𝒅𝒕 𝟎

(𝟐. 𝟐𝟖)

47 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

Avec 𝜴𝟎 𝒏

𝝎𝒙 = (𝝎𝒚 ) = 𝑱. 𝒒̇ 𝝎𝒛

(𝟐. 𝟐𝟗)

Où Ω représente la vitesse linéaire de l’effecteur ; J la matrice du jacobien et 𝑞̇ les vitesses articulaires du robot [19]. L’autre est la méthode des systèmes récursifs 𝑱 = [𝑱𝟏 𝑱𝟐 … 𝑱𝒏 ] Où Ji = [0zi-1 x (R0 i-1.i-1On)

0z

(𝟐. 𝟑𝟎) t i-1]

(2.31)

Si l’axe est rotoïde et Ji = [0zi-1 03]t

(2.32)

Si l’axe est prismatique Une fois le MCD déterminé, on peut trouver aisément le Model Cinématique Inverse (MCI) qui donne la vitesse articulaire en fonction de la vitesse linéaire de l’effecteur Par le calcul de la pseudoinvers du jacobien qui se présente comme suit : 𝑱+ = (𝑱𝒕 . 𝐉)−1 . 𝑱𝒕 Et 𝒒̇ = 𝑱+ 𝜴𝟎 𝒏

(𝟐. 𝟑𝟑) (𝟐. 𝟑𝟒)

Une fois le MCI déterminé nous passons directement au Model Dynamique Direct MD qui est une modélisation de n équation différentielles d’ordre 2 ; reliant les dérivées première et seconde des n coordonnées articulaires par rapport au temps aux n efforts articulaires développé par les actionneurs. Avec n le nombre d’articulation. Pour cela nous prenons le modèle d’EULEUR LAGRANGE encore appelé méthode TOPDOW (haut vers le bas) car elle part de la modélisation de l’énergie du système afin de modéliser les actionneurs. Elle est caractérisée par la relation suivante. 𝒅 𝝏𝑳 𝝏𝑳 − = 𝝉𝒊 𝒅𝒕 𝝏𝒒̇𝒊 𝝏𝒒𝒊

(𝟐. 𝟑𝟓)

Avec L=K-V : Le lagrangien du système K : L’énergie cinétique du système V : L’énergie potentielle du système ; qi ièem coordonnée généralisé du système ; τi : force ou coule moteur appliqué à l’articulation i 𝒏

𝑲=∑

𝟏 𝟏 ( 𝒎𝒊 𝒗𝒊 𝒕 𝒗𝒊 + 𝝎𝒕𝒊 𝑰𝒊 𝝎𝒊 ) 𝟐 𝒊=𝟏 𝟐

(𝟐. 𝟑𝟖)

48 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

Avec Ii : Le tenseur d’inertie du corps i pris par rapport à son centre de gravité ; mi : masse du corps i ; vi vitesse linéaire du centre de gravité du corps i et ωi : vitesse angulaire de rotation du corps i Et 𝑽 = − 𝟎𝒈𝒕 ∑𝒏𝒊=𝟏 𝟎𝑶𝒈𝒊 𝒎𝒊

(𝟐. 𝟑𝟗)

Avec 0gt représente l’accélération de la pesanteur et oOgi le centre de gravité du corps i par rapport au référentiel R0. [22] [19] [24] Notre robot ainsi étant modélisé on peut passer à la commande

II.3-LES

METHODES

DE

COMMANDE

ET

LES

CONTRAINTES

AFFERANTES

LES TYPES DE COMMANDE La commande consiste à envoyer des impulsions au actionneurs pour qu’ils suivent le plus précisément possible la consigne. La commande des robots-manipulateurs a fait l'objet de nombreux

travaux.

Les

principales

approches

utilisées

sont

:

la commande classique de type PID (commande proportionnelle, intégrale et dérivée) ; la commande par découplage non linéaire ; La commande passive ; La commande fondée sur une fonction de Lyapunov ; La commande adaptative ; La commande robuste à structure variable (modes glissants). Dans la suite de nos travaux seule la commande classique de type PID fera l’Object de notre étude pour des raisons de facilité et coût d’implémentation. Les équations du modèle dynamique du robot -manipulateurs dont la forme générale, pour un robot à n degrés de liberté, est la suivante : ̇ ))𝑭𝒔 𝜞 = 𝑨(𝒒) + 𝑪(𝒒, 𝒒̇ )𝒒 + 𝑸(𝒒) + 𝒅𝒊𝒂𝒈(𝒒̇ )𝑭𝒗 + 𝒅𝒊𝒂𝒈(𝒔𝒊𝒏𝒈𝒏(𝒒̇

(𝟐. 𝟒𝟎)

Où : Γ est le vecteur (nx1) des couples/forces articulaires, A(q) est la matrice (nxn) d'inertie du robot, C (q, dq/dt) dq/dt est le vecteur (nx1) représentant les forces centrifuges et les forces de Coriolis, Q(q) est le vecteur des forces de gravité, Fv et Fs sont les vecteurs des paramètres de frottement respectivement visqueux et sec.

49 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

Le schéma de la commande classique de type PID est donné par la figure (2.36)

Figure 2.36: Schéma de commande classique de type PID [19]

La loi de commande est donnée par l’équation (équation de la loi de commande) 𝒅

𝜞 = 𝑲𝒑 (𝒒 − 𝒒) + 𝑲𝒅

(𝒒𝒅̇

𝒕

̇

− 𝒒̇ )+𝑲𝑰 ∫ (𝒒𝒅 − 𝒒) 𝒅𝝉

(𝟐. 𝟒𝟏)

𝒕𝟎

où 𝒒̇ 𝒅 (𝒕) et 𝒒𝒅 (𝒕)désignent les vitesse et position désirées dans l'espace articulaire et où Kp, Kd et KI sont des matrices diagonales définies positives, de dimension (n x n), dont les éléments génériques sont respectivement les gains proportionnels Kpj, dérivés Kdj et intégraux KIj . [22] Pour réaliser les tâches désirées, il est important que le mouvement du robot soit fluide pour cela nous avons besoin de planifier sa trajectoire. Et pour illustrer le comportement temporel du mouvement nous allons nos servir de la figure (2.37) :

Figure 2.37: Illustration de la trajectoire d'un robot [19] Avec : iAmax l’accélération maximale de l’axe i ; iV max

la vitesse maximale de l’axe i ;

iq

: la position initiale de l’axe i ;

iq

la position finale de l’axe i

A B

Il est donc facile de montrer que le temps de cycle pour chaque axe est :

50 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

𝒊

𝑽𝒎𝒂𝒙

𝒊

𝒕𝒄 =

𝒊

𝑨𝒎𝒂𝒙

𝒊

𝒒𝑩 − 𝒊𝒒𝑨

+

𝒊

𝑽𝒎𝒂𝒙

{

𝒕𝒄 = 𝟐√

𝒊

𝑨𝒎𝒂𝒙

𝑽𝒎𝒂𝒙

𝒊

𝒔𝒊 𝒒𝑩 − 𝒒𝑨 >

𝒔𝒊

𝒊

𝑨𝒎𝒂𝒙

𝑽𝒎𝒂𝒙

𝒊

𝒒𝑩 − 𝒒𝑨 ≤

𝟐

𝒊

𝒊

𝒊 𝒊

𝒒𝑩 − 𝒊𝒒𝑨

𝒊 𝒊

𝟐

(𝟐. 𝟒𝟐)

𝒊

𝑨𝒎𝒂𝒙

Et le temps de cycle pour tout le système est : 𝑻𝒄 = 𝒎𝒂𝒙{ 𝒊𝒕𝒄 } ; c’est-à-dire le temps de cycle le plus long des articulations. Et à partir de Tc on recalcule l’accélération maximale ou la vitesse maximale de tous les autres axes et ceux grâce aux formules suivantes :

𝒊 𝒊

𝑨= 𝟒

𝒒𝑩 − 𝒊𝒒𝑨

𝒊 𝒊

𝒊

𝒔𝒊 𝒒𝑩 − 𝒒𝑨 ≤

𝑻𝒄 𝟐

𝑽𝒎𝒂𝒙

𝟐

𝒊

𝑨𝒎𝒂𝒙

𝟏 𝟐 𝑽 = [ 𝒊𝑨𝒎𝒂𝒙 𝑻𝒄 − √( 𝒊𝑨𝒎𝒂𝒙 𝑻𝒄 ) − 𝟒( 𝒊𝒒𝑩 − 𝒊𝒒𝑨 ) 𝒊𝑨𝒎𝒂𝒙 ] 𝟐 {

(𝟐. 𝟒𝟑)

𝒊

Voilà donc ce qu’il en est de la modélisation de commande nous pouvons donc nous poser la question de savoir comment et quelles sont les contraintes liées à son implémentation.

LES

CARACTERISTIQUES

ET

CONTRAINTES

TEMPS

REEL

DE

COMMANDE DU ROBOT La commande d’un robot obéis à des contraintes rigoureuses tel que : Les trajectoires fluide (Mouvement simultané et synchrone) ; le contrôle permanant de ses paramètres interne et externes… etc. pour cela un système classique ne suffirait à assurer ces fonctions ; il nous faut un système temps-réel (STR). Un système temps-réel (STR) est une application qui doit répondre à des stimuli fournis par un environnement externe (via des capteurs) afin de contrôler un processus (actionneur). Il est caractérisé par la justesse des calculs et le temps nécessaire pour fournir le résultat. Il interagit avec un environnement extérieur en évolution et prend en compte les contraintes temporelles imposées à ceux-ci. Si dans un STR les fautes temporelles sont tolérables, on dit que on dit que les contraintes temporelles sont lâches, relative ou mou « STR mou » ; dans le cas contraire il est strict ou dure « STR dure ». Un STR peut avoir les qualificatifs suivants : embarqué9 (Le dispositif de commande est directement implanté dans le système à contrôler.) ; dédié (Les architectures matériel ou

9

Qui est intégré de féçon indissociable à un matériel

51 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

logiciel sont spécifique à une application) ou réparti/distribué (architecture à plusieurs processeurs reliés entre eux par un bus ou un réseau) Pour mener à bien ses objectifs il les divise le processus en tâches « système multitâche » pour émuler un parallélisme (programmation concurrentielle). La tâche est une entité d’exécution et de structuration de l’application. La figure (2.38) nous permet de visualiser l’architecture logiciel d’un système multitâche.

Figure 2.38: Architecture logiciel d’une application de contrôle-commande multitâche [21]

On distingue dans cette figure les tâches de communication qui gèrent des messages (recevoir, envois) à travers plusieurs réseaux et les tâches de sauvegarde qui stockent l’état du système à un instant fixe. Cette sauvegarde peut être utilisée à postériori pour analyser le fonctionnement de l’application ou d’une reprise d’exécution à une étape précédente. Les relations entre les tâches sont de type ; Synchronisation qui gère les relations de précédence d’exécution entre les tâches La communication qui est une relation de précédence et de transfert de données entre les tâches Les partage de ressource qui assure la mise en commun au niveau du système comme les zones mémoires ; carte entrée/sortie ; carte réseaux. Pour gérer ces différentes tâches qui peuvent avoir des relations complexe et multiples nous avons besoin d’un système informatique capable de gérer l’enchainement des concurrences des tâches en optimisant l’occupation du processus (ordonnancement qui es garante du respect des contraintes temporelles imposé à l’exécution de l’application). Ces systèmes sont de deux sorte synchrone (Une tâche ne commence que si la précédente est terminée ; les tâches doivent être non préemptible) ou asynchrone (L’occurrence de tous 52 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

évènement est immédiatement pris en compte par le système pour tenir compte de l’urgence ou e l’importance ; les tâches sont préemptible10). Une tâche préemtible est une tâche qui peut être interrompu à n’importe quel instant. Le système informatique doit donc posséder un noyau temps réel dont le rôle est de gérer l’enchainement et la concurrence des tâches en optimisant l’unité central (gestion des entrées/sorties ; ordonnancer les tâches ; gérer les relations entre les tâches.) Le cycle de développement d’une application temps réel après l’analyse du besoin et la rédaction du cahier de charge suit trois étapes à savoir : La spécification globale qui décrit ce qu’on a à faire ou le « quoi ? ». C’est une mise en forme plus ou moins formelle du cahier de charge. La conception préliminaire et détaillée qui réalise la description du « comment ? ». C’est une modélisation de l’architecture logicielle de l’application (Modules, Tâches, Object « MTO »). La programmation qui consiste à traduire dans un langage exécutable l’architecture logiciel de l’application. Cette partie doit tenir compte de la plateforme hôte (celle sur laquelle on réalise l’application temps réel) ; la plateforme cible (environnement d’exécution « noyau temps réel ») ; du temps de masquage des interruption (temps pendant lequel les interruptions sont masquées et ne peuvent donc pas être pris en compte.) et du temps de réponse (temps entre l’occurrence d’une interruption et l’exécution de la tâche réel). Les méthodes appliquées au développement des application STR sont de trois sorte pour le moment : La méthode fonctionnelles et structurée (flots de données) elle procède par découpage fonctionnelle et utilise peut les outils de conception suivant : JSD ; SA-RT ; DART ; SDL ; MSMC … etc. L’un des logiciels professionnels sur les quelle on peut implémenter cette méthode est LabVIEW La méthode machine à état qui repose sur des bases formelles. Elle peut utiliser les outils de conceptions suivant : LE SIGNAL ; LES REXEAUS DE PETRI ; LE GRAFCET ; LE STATECHARTS ; LE LANGAGES REACTIFS SYNCHRONE ; LE LUSTRE [caspi,19914] ; L’ETEREL … etc. L’un des logiciels professionnels sur les quelle on peut implémenter cette méthode est la bibliothèque stateflow de Matlab. Nous nous appesantirons sur cette méthode en utilisant l’outil state charts dans les prochains paragraphes.

10

Qui peut être interruptible en fonction des priorités

53 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

La méthode orienté Object qui met en avance les données et leurs structurations. Les outils de conception pouvant être utilisé sont : L’UML ; LE HOOD … etc. Lun des logiciels sur lesquels on peut implémenter cette méthode est Eclipse (java). [25] Le statecharts Il s’agit d’un diagramme servant à représenter automatiquement les systèmes d’état fini sous forme de graphe d’état. Il décrit le changement d’état d’un Object ou d’un composant en réponse aux interactions avec d’autre objets ; composantes ou acteurs. Il est régi par quatre grands concepts à savoir ; Les états : Qui est une condition ou interaction dans la vie d’un Objet pendant laquelle il satisfait certaine conditions (exécuter une action ; attendre un évènement). Un état peut être dans des conditions statique ou dynamique (une activité se déroule). D’après la norme OMG 2.0 un état est une situation dans laquelle quelques conditions sont invariant. Un état peut être simple (non décomposable) ; composite (comportant plusieurs régions) ou sous-système (encore appelé sous machine. La figure (2.39) nous présente la structure d’un état.

Figure 2.39: structure d’un état [26] Dans cette figure on peut voir qu’un état est représenté par un rectangle à trois compartiments à savoir : Nom qui est un compartiment facultatif mais très important afin de désigner un état de manière unique ; Activités qui permet de spécifier ce qui se déroule durant l’état et le sous-état on y distingue aussi deux états spéciaux (initial et final) qui figurent toujours dans cette modélisation et qui marquent le début et la fin du programme. Les transitions : C’est le passage d’un état vers un autre. Elle est déclenchée par un évènement et elle est automatique si on ne précise pas l’évènement qui la déclenche. La transition permet une hiérarchisation des états afin d’éviter une explosion combinatoire d’état. La figure (2.40) nous présente la structure d’une transition.

Figure 2.40: Structure d’une transition [26]

54 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

Comme on peut le constater une transition peut avoir trois parties : Le nom de l’événement qui permet de spécifier la transition ; la condition de garde qui est une condition devant être vérifié avant de réaliser la transition et l’action qui décrit ce qu’on doit faire pendant qu’on franchi la transition. Les actions qui s’exécute à l’intérieur des états en fait il en existe quatre : entry (qui s’exécute à l’entrée de l’état) ; exit (qui s’exécute à la sortie de l’état) ; on evenement (qui s’exécute à chaque fois que l’évènement cité survient) et do (qui es l’action récurrent ou significatif exécuté dans l’état.). Les évènements : C’est un fait remarquable. Les catégories d’évènement sont : Une condition devient vraie ; la réception d’un signal explicite venant d’un objet (asynchrone) ; réception d’un call pour une opération pour un objet (synchrone) ; la fin d’une période de temps après la production d’un évènement. [27]

CONCLUSION Ce chapitre non seulement permis de comprendre les différentes étapes nécessaires à la conception d’un système de vision et de robotique mais aussi de de nous familiariser avec les notions théoriques utile à la bonne conception ingénieuse de notre système. Dans le dernier chapitre qui suivra, Nous présenterons les différents résultats obtenus en fonction des différentes méthodes utilisé et que nous avons expliqués plus haut et nous les interpréterons.

55 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

Chapitre III : SOLUTION ; RESULTATS ET INTERPRETATIONS

INTRODUCTION Les chapitres précédents ont porté sur l’étude des parties de notre système et sur les théorie mathématiques et physique de celui-ci. Dans ce dernier chapitre nous présenterons tous les solutions proposées et ainsi que les résultats issus de la conception de notre système. Le cycle de conception que nous préconisons pour notre système est le cycle en V « Consulter l’annexe (Les étapes du cycle en V) pour comprendre ses étapes. » [28] .

I-LES SOLUTIONS Les solutions proposées proviennent de l’Analyse fonctionnelle interne qui détaille en plusieurs niveaux la réalisation de nos fonctions de services présenté au chapitre1. L’outil employé est le diagramme FAST (Function Analysis System Technic) qui ordonne les fonctions de service et les compose logiquement pour aboutir aux solutions techniques en partant d'une fonction de service choisit et le choix des composants résulte d’une analyse multicritère. I.1-SOLUTIONS DU SYSTEME DE VISION Nous avons choisi les technologies MICROSCAN (MicroHAWK ID-30) car ils proposent des solutions allant depuis le système d’éclairage à la carte de transfert d’image en passant par la caméra et les câbles de connexion. La figure (3.1) suivante nous le présente.

Figure 3.1: La caméra MicroHAWK ID-30 [29] Le tableau (6) suivant présente ses caractéristiques les plus important.

56 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

Tableau 3.1: Tableu des caractéristiques du MicroHAWK ID-30 [29]

considérations

Vitesse

Capteur

electri

CMOS

que

focus

Temps

couleur

d’exposition

MicroHAWK

10

SXGA

5V;

50-300

ID-30

frames/s

1.2MP

600m

mm

1280x960

A

2.5µs variable

QSXGA

Les résultats de la modélisation mathématiques sont les suivant Matrice de calibrage : déterminé lors de la procédure de réglage Luminance : variable en fonction de l’application Température : variable en fonction de l’application Flux lumineux total : variable. Pour plus d’information consultez l’annexe (Caractéristiques du MicroHAWK ID-30) Au niveau du PC qui hébergera le logiciel dédié nous avons choisi un Laptot 4 cœurs (acer ou HP). L’interface graphique du système :

Figure 3.2:Interface graphique du système La figure (3.2) présente l’interface graphique du système qui après avoir filtré les bruits grâce au filtre médian ; détecte les contours avec soit le filtre de canny ou prewitt ou encore celui de sobel ; puis extrais les point d’intérêt par la méthode d’Harri-stephens extrais les

57 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

paramètres de Hough puis une comparaison entre chacun des deux image est fait par la méthode Matching by Correlation et lorsque les résultat de chacune des comparaisons est inférieur au seuil de conformité fixé par l’utilisateur le pièce est rejeté. Les parties numérotées assurent les fonctions suivantes : 1 permet de choisir le type de filtre utilisé pour la détermination des contours. Il peut prendre trois valeurs (canny ; prewitt et sobel). 2 permet de déterminer la finesse du contour à détecter. Il prend des valeurs comprises entre 0 et inférieur à 1. 3 permet de lancer l’enregistrement du model de référence 4 permet de visualiser la finesse des contours à prendre en compte pour la détection automatique 5 permet de régler taux de conformité du produit au modèle de référence ses valeurs son fixe dans le programme à un intervalle de 50% à 100% pour éviter de mauvaises interprétations accidentelles. 6 permet de lancer le processus de détection automatique. 7 permet de visualiser le système en temps réel et de le superviser au besoin 8 permet de binariser afin d’améliorer la visualisation L’algorigramme de cette interface est donné en annexe (Algorigramme conception préliminaire détaillée du système).

I.2-SOLUTIONS DU SYTEME DE BRAS ROBOTISE

Au niveau du SAM :

58 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

La solution proposée est la conception d’un SAM dans SolidWorks et celui présenté dans la figure (3.3) en est un exemple.

Figure 3.3: Exemple de SAM proposé Le tableau suivant présente les caractéristique en prévisions de notre système : 0.91872L2= 0.752m et L3= 0.404m sous une envergure de base 𝜱= 0.6096m pour une épaisseur de corps e= 0.06m , une largeur l= 0.3m fait en aluminium AA380.0-F Matrice(2760kg/m3) pour sa légèreté et son faible coût(2.461$ US/ Kg) ce qui fait coût total de :1100$ (550000 Fcfa) US pour le matériau et la fabrication de la structure du robot pour plus d’information consulter l’annexe (1) [25].Le tableau (3.2) en donne les caractéristiques. Tableau 3.2: Tableau des caractéristiques du SAM corps

Longueu

Volume

Masse

Épaisseur

r (m)

(m3)

(kg)

ou diameter

Materiaux

Prix$ US

(m) 1

0.91872

≤ 0.3

≤ 78

𝜱= 0.6096

aluminium AA380.0-F Matrice

2

0.752

≤ 0.0134 ≤ 37

e= 0.06

aluminium AA380.0-F Matrice

3

0.404

≤ 7.25 𝑒 −3 ≤ 20

e= 0.06

aluminium AA380.0-F Matrice

59 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

≤ 135 𝐾𝑔

Total

1100 (550000 cfa)

Les résultats de la modélisation mathématiques de Denavit Hartenberg sont les suivant Le tableau de DH11 obtenu est le suivant : Tableau 3.3: tableau de DH du SAM Corps(i)

ai

αi

di

θi

1

0

π/2

L1

θ1

2

L2

0

0

θ2

3

L3

0

0

θ3

MGD (Model Géométrique Direct) :

𝟎

𝑴𝟎𝟑

𝒄𝟏 𝒄𝟐𝟑 𝒔 𝒄 = [ 𝟏 𝟐𝟑 𝒔𝟐𝟑 𝟎

−𝒔𝟏 𝒔𝟐𝟑 −𝒔𝟏 𝒔𝟐𝟑 𝒄𝟐𝟑 𝟎

𝒔𝟏 𝒄𝟏 (𝑳𝟑 𝒄𝟐𝟑 + 𝑳𝟐 𝒄𝟐 ) −𝒄𝟏 𝒄𝟏 (𝑳𝟑 𝒄𝟐𝟑 + 𝑳𝟐 𝒄𝟐 ) ] 𝟎 𝑳𝟑 𝒔𝟐𝟑 + 𝑳𝟐 𝒔𝟐 + 𝑳𝟏 𝟎 𝟏

(𝟑. 𝟏)

MGI (Model Géométrique Inverse) : 𝜽𝟏 = 𝒂𝒓𝒄𝒕𝒂𝒏𝟐(𝑷𝒚 , 𝑷𝒙 )

(𝟑. 𝟐)

𝜽𝟐 = 𝒂𝒓𝒄𝒕𝒂𝒏𝟐 [(𝑳𝟑 𝒔𝟑 √𝑷𝒙 𝟐 + 𝑷𝒚 𝟐 ) − (𝑷𝒛 − 𝑳𝟏 )(𝑳𝟑 𝒄𝟑 + 𝑳𝟐 ) , (𝑷𝒛 − 𝑳𝟏 )𝑳𝟑 𝒔𝟑 − (𝑳𝟑 𝒄𝟑 + 𝑳𝟐 )(√𝑷𝒙 𝟐 + 𝑷𝒚 𝟐 )]

𝜽𝟑 = ±𝒂𝒓𝒄𝒐𝒔 (

(𝑷𝒛 − 𝑳𝟏 )𝟐 + 𝑷𝒙 𝟐 + 𝑷𝒚 𝟐 − 𝑳𝟐 𝟐 − 𝑳𝟑 𝟐 𝟐𝑳𝟐 𝑳𝟑

(𝟑. 𝟑)

)

(𝟑. 𝟒)

Avec 𝑫=

(𝑷𝒛 − 𝑳𝟏 )𝟐 + 𝑷𝒙 𝟐 + 𝑷𝒚 𝟐 − 𝑳𝟐 𝟐 − 𝑳𝟑 𝟐 𝟐𝑳𝟐 𝑳𝟑

(𝟑. 𝟓)

Et |𝐷| ≤ 1 La condition de non singularité.

11

Tableau de Denavit Hartenberg

60 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

MCD (Model Cinématique Direct) : −𝒔𝟏 (𝑳𝟑 𝒄𝟐𝟑 + 𝑳𝟐 𝒄𝟐 ) 𝑱 = [ 𝒄𝟏 (𝑳𝟑 𝒄𝟐𝟑 + 𝑳𝟐 𝒄𝟐 ) 𝟎

−𝒄𝟏 (𝑳𝟑 𝒔𝟐𝟑 + 𝑳𝟐 𝒔𝟐 ) −𝑳𝟑 𝒄𝟏 𝒔𝟐𝟑 𝒔𝟏 (𝑳𝟑 𝒔𝟐𝟑 + 𝑳𝟐 𝒔) −𝑳𝟑 𝒔𝟏 𝒔𝟐𝟑 ] 𝑳𝟑 𝒄𝟐𝟑 + 𝑳𝟐 𝒄𝟐 𝑳𝟑 𝒄𝟐𝟑

(𝟑. 𝟔)

MCI (Model Cinématique Indirect). 𝑱+ = (𝑱𝒕 . 𝐉)−1 . 𝑱𝒕

(𝟑. 𝟔)

Au niveau de la carte de commande : Tableau3.4 : Caractéristiques de la carte du SAM [30] considérations

Intel core i7-7700K

Cadence du processeur

à 4.20GHz(4cores)

mémoire cache

L14x32KB/L24x256KB/L31x8MB

mémoire d’instruction

L14x32KB/L24x256KB/L31x8MB

température optimum de fonctionnement

+68 degré Celsius

puissance consommée

91w

Système d’exploitation

VxWorks

Au niveau des moteurs (Actuateurs) ; capteur et réducteur : Nous avons préféré les technologie HARMONIC DRIVE LLC au brushless Maxon car cette société combine en plus du moteur : le réducteur harmonic drive qui est faiblement brouillant ; les codeurs absolus ou incrémentaux qui permettent de détermine l’accélération, la vitesse et la position de l’articulation. Et il possède des variateurs spécialement conçus pour chaque modèle nous avons choisi le modèle FHA-17C-PR et le tableau (3.5) : Tableau3.5 : Caractéristique du moteur FHA-17C-PR [31] Considérations

FHA-17C-PR

Poids

2.8kg

Inertie

Moment max de

Couple

charge admissible

moteur

2.9KN

[42,67] Nm

0.83kg.m2

Vitesse

Prix

[30,90]

Pour d’information consulté l’annexe (2)

61 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

La figure (3.4) suivante présente le moteur FHA-17C-PR d’Harmonique Drive

Figure 3.4: Moteur FHA-17C-PR de Harminic Drive [31]

D’après leurs catalogue le variateur qui lui est attribué pour une alimentation de 200V est le : HA-800*3C-200 Au niveau de la simulation du SAM avec le logiciel Simulink ; Staflow et simscape nous avons : La figure (3.5) qui présente model des différentes parties de notre SAM à savoir la consigne en bleu ; la mesure en orange ; la partie carte de commande qui émule le comportement du SAM ; la partie Groupe moteur/réducteur qui émule le comportement du variateur, moteur et réducteur de vitesse et enfin la partie bras qui émule le mouvement du bras.

Figure 3.5 : Différentes parties du processus de simulation 62 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

Pour plus d’information sur les sous-systèmes consulter l’annexe (Les sous-groupe de la simulation du SAM). Pour la composition de chaque sous- système et la deuxième partie de l’annexe (Algorigramme et conception préliminaire détaillée) Le FAST qui résulte de ce système est donné à l’annexe (Diagramme FAST du système)

II-RESULTATS ET INTERPRETATIONS Pour un objet à inspecter situé à 0,7m suivant l’axe des abscisses ; 0,6m suivant celui des ordonnés et à 0,5 m de profondeur on obtient les résultats suivant :

II.1-RESULTATS ET INTERPRETATIONS DE LA SIMULATION DU SYSTEME DE VISION La figure (3.6) présente les résultats de détection de notre sous-système de vision.

Figure 3.6: Résultat de simulation du système de vision Où on arrive à distinguer les différentes étapes de traitement : 1 est l’image du model tel que vue par l’opérateur 2 est la forme extraite de l’image et les points verts sont les points d’intérêt de la forme 3 trois est l’image de l’objet à inspecter en temps réel Et 4 représente également sa forme et point d’intérêt

63 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

Les figures (3.7) et (3.8) permettent de visualiser les paramètres de chaque objet (du model ou de l’objet à inspecter)

Figure 3.7 : Paramètre de hough du model

Figure 3.8 : Paramètre de hough de l’objet à inspecter

En fonction de la corrélation entre chacun de ces trois critères nous décidons en comparant au taux de corrélation fixé par l’utilisateur avec un minimum de corrélation de 50% d’accepter ou de rejeter une pièce. II.2-RESULTATS ET INTERPRETATIONS DE LA SIMULATION DU SYSTEME ROBOTIQUE Le temps de cycle obtenu est 𝑇𝑐 = 5,5 𝑠 Au niveau de la position : Les positions désirées calculées par le système sont les suivant : 𝜃𝑑1 = 150°; 𝜃𝑑2 = −180° 𝑒𝑡 𝜃𝑑3 = 35° Et la figure (3.9) permet de visualiser visualise les positions des différentes articulations du bras au cours du temps de simulation. Entre 0 et 1,5s, le système est en phase d’initialisation comme présenté à l’annexe Diagramme état transition principal du robot. Et le reste du temps de simulation la loi de commande présenté dans l’annexe comportement de marche (i).

64 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

Figure 3.9 : Visualisation de la consigne et de la position effectivement suivi par le bras en degré On y constate que le système converge de manière satisfaisante. Au niveau de la vitesse : Les vitesses désirées calculées par le système sont les suivant : 𝜃̇𝑑1 = 35°⁄𝑠 ; 𝜃̇𝑑2 = 45°⁄𝑠 ; 𝜃̇𝑑3 = 8°⁄𝑠 Et la figure (3.10) permet de visualiser visualise les vitesses des différentes articulations du bras au cours du temps de simulation.

Figure 3.10: visualisation de la vitesse des articulations 65 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

Dans cette figure nous voyons que les vitesses de consigne son atteinte rapidement et ceux de manière satisfaisante. Et diminuer progressivement lors que les positions sont en train d’être atteinte. Au niveau de la tension des moteurs : La figure (3.11) nous présente l’évolution de la tension dans chaque moteur. Ce schéma suit parfaitement le comportement programmer et atteint rapidement les valeurs nominale fixé par le constructeur proposé dans l’annexe caractéristiques du systèmeFHA-17C PR

Figure 3.11 : Evolution de la tension dans les moteurs du bras Au niveau des courants : La figure (3.12) nous présente les courant qui circulent dans les bobinages de chaque moteur

Figure 3.12: Evolution du courant dans les moteurs 66 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

Ces courant sont supportable d’après le même constructeur Les paramètre Kp ; Ki et Kd des correcteurs PID utilisés pour la simulation sont donnée dans le tableau (3.6).

Tableau 3.6 : Paramètre des correcteurs PID Correcteur

Kp

Ki

Kd

1

10

0.2

0.1

2

10

0.2

0.1

3

10

0.2

0.1

Avec les résultats suivants ; Temps de réponse à 5% est de 0,3 s ; Temps de monté à 80% est de 0,25 s et une robustesse de 0.6 ; On constate que les mouvements sont stables avec une précision bonne.

III-ESTIMATION DU COÛT TOTAL DU PROJET Le tableau suivant présente une estimation des coûts de chaque élément de notre projet

Tableau 3.7: Devis estimatif du projet N

Désignation

Model

Caméra+

MICRO

éclairage +

HAWK ID-

carte

30

Moteurs

FHA-17C-

synchrones

PR

Variateurs

HA-

Prix unitaire Qnt

PT (F.cfa)

Sources

1 225 $US

www.barcodesinc.com

° 1

2

3

1225$US

1

(673 750)

1199,90$US

3

3 599,7 $US (1 979 835)

425 $US

3

800*3C-

1 275 $US (701 250)

www.eday.com/itm.HARMONICDRIV E www.eday.com/itm.HARMONICDRIV E

200 4

Carte de

Intel core

(303+647)

commande

i7.7700K

950 $US

3

2 850 $US

www.alibaba.com/products

(1 567 500)

67 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

5

Poste de

Laptop 4

commande

core HP ou

378 $US

1

378 $US

www.jumia.cm/ardinateurs-portable

(207 900)

acer 6

Cage de

445 $US

1

contôle

445 $US (244 750)

optique 7

SAM

constructeur

1 100 $US

1

1 100 $US

DASSAULT SYSTEMES

(605 000) 8

Cage de

560 $US

560 $US

sécurité

(308 000)

SAM 9

Câbles +

300$US

1

connectiques 10

300 $US (165 000)

transport

2000$US

1

2 000 $US (1 100 000)

11

Divers

1775$US

1

2 060 $US (1 133 000)

Main d’œuvre 30%

4 738 $US (2 369 000 F.cfa)

Prix total HT

20 530,51 $US (10 265 255 F.cfa)

TVA 19.25%

3 953 $US (1 976 500 F.cfa)

Prix total TTC

29 221,51$US (14 610 755 F.cfa)

CONCLUSION Dans ce chapitre nous avons modélisés conçu notre système de tri à l’aide des logicielles SOLIDWORK ainsi que MATLAB et ses bibliothèques. Les résultats sont concluants en fonction des objectifs que nous nous sommes fixés. Excepté l’asservissement des moteurs 2 et 3 qui nous ont posé quel problème de précision cela peut être due au logiciel utilisé. Nous y avons également effectué une estimation des coûts de réalisation de ce système grâce aux solutions technologiques proposée.

68 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

CONCLUSION GENERALE ET PERSPECTIVES Ce rapport rédigé dans le cadre de notre projet de fin d’étude à la Faculté de Génie Industriel de l’Université de Douala en vue de l’obtention du diplôme d’ingénieur manager, nous a donné l’occasion de concilier la théorie et la pratique de la modélisation. Ainsi, nous avons appliqués les connaissances acquises lors de notre formation. L’introduction génnérale de ce rapport a mis en exègue d’une part L’ apport des systèmes robotiques dans le domaine de la production industriel dans le monde et d’autre part les difficultés qu’éprouvent les industries Africaines en générales et Camerounaises en particulier à être compétitif sur le plan nationale et international ;car n’ayant pas les capacités financières de s’arrimer aux nouvelles technologies industrielles. Dans le premier chapitre Nous avons présenté les système de vision et de robotique et les domaines de ces dernier. Nous y avons aussi spécifier l’objectif principal de notre travail à savoir concevoir et la modélise un système automatique de tri par vision. Dans le deuxième chapitre, nous avons présenté les méthodes de modélisation des éléments qui constitu notre système où nous étudier les model de Houhg, Harris-Stephens et et d’autres encore au niveau du système de vision, et la modélisation de Denavit-Hartenberg pour la modélisation du robot. Et dans le troisième chapitre nous avons donc modéliser les systèmes de vision et de robotique et ceux grâce aux logiciels logiciels Matlab, Simulink, Simscap, stateflow et Solidworks. Les résultats de simulation on été satifaisant à 90% des charges que nous nous sommes fixées au premier chapitre puisque le système arrive efficacement à acquérir l’image, isole les formes qui se trouvent dans son champ d’action ; extrait les caractéristiques propres aux objets ; les compare. Puis le SAM acquière la position désirée à son entrée, suit parfaitement le comportement qui est décrit à l’annexe (5 - comportement marche ’i’) et met les moteurs ainsi que les segments du bras en mouvement en prenant en compte les contraintes temps-réel liées à la génération de trajectoire et la suit de manière satisfaisante. Ce système parait très utile car il peut être facilement associée aux chaines industrielles et booster ainsi la production comme industrielle. En perspective pour améliorer le fonctionnement de notre système nous proposons d’intégrer un système de contrôle intelligent basé sur les algorithmes du clustering (les cartes de Kohonen ou des K-means) pour le sous-système de vison. Et pour ce SAM nous proposons d’implémenter la commande adaptative

69 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

Glossaire Répétabilité : Selon la définition ISO9283, la répétabilité est définie comme étant l’étroitesse de l’accord entre les positions atteintes pour la même commande, répétée n fois suivant la même direction. n doit être suffisamment grand pour être significatif. La norme ISO préconise de choisir n 30 ; on parle communément du rayon maximal de la sphère contenant les points. La répétabilité de trajectoire est définie d’une manière simplifiée pour une trajectoire répétée " n " fois comme étant le diamètre maxi du " tube " contenant les trajectoires atteintes Exactitude : Selon la définition ISO 9283, l’exactitude représente l’écart entre une commande et la moyenne atteinte lorsque commande est atteinte suivant la même direction. En d’autres termes, elle correspond à la différence entre une commande et le barycentre du nuage des points atteints. L’exactitude de trajectoire représente l’écart entre une trajectoire commandée et la ligne moyenne des trajectoires atteintes.

Densités de robot : nombre de robot pour 10000 ouvriers

70 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

Références [1] «www.thedisruptory.com/fr/2017/04/tendances-robotiques-2016-lol-1-la-robotiqueindustrielle/,» 2017. (consulté le 6 Novembre 2018 à 15h04 mm),» [En ligne].. [2] www.fr.m.wikipedia.org/wiki./Robotique-industrielle. (consulté le 18 Juillet 2018 à 08h45 mm),» [En ligne].. [3] O. M. Radu Horaud, Vision par ordinateur : outils fondamentaux. [4] «www.atilf.fr., ressources-grand public,» (consulté le 11 Juin 2018 à 20h15 mm),» [En ligne].. [5] J.G.E.3.M.I.C..Robotique,« http://icubeavr.unistra.fr/fr/img_auth.php/a/a4/Cours_rob_intro.pdf .,» 2017. [En ligne]. [6] « http://www.gralon.net/index.htm/Articles > Matériel et Consommables > Matériels Industriels > Robots industrie,» (consulté le 12 Juiv 2018 à 16h45 mm),» [En ligne].. [7] ChapI Introduction àla Robotique. [8] «http://www.visionindustrielle.org/visionwhat (consulté le 10 Octobre 2018 à 08h45 mm),» [En ligne]. [9] D. Y. T. Aurelien, Cours d'asservissement visuel, 2018. [10] U. d. M. I. M. EEA/RA, Calibrage de caméra et stéréovision, Monpellier, 2008/2009. [11] J. GANGLOFF, COMMANDE PAR LA VISION, Strasbourg, 2017. [12] H. Mathieu, « ([email protected])». [13] M. E. (FGI), Cours de traitement des images, DOUALA, 2017. [14] R. C.Gonzalez et R. E. a. Eddins, Digital ImageProccessing. [15] C. Merouane, « Modélisation cinématique d’un robot manipulateur à chaine continue ouverte », UNIVERSITE KASDI MERBAH OUARGLA Option Maintenance Industrielle,,» 2013. [16] JACQUEGANGLOFF, «cours de robotique». [17] «http://coursenligne1s6.fr/si-terminale-moteur-pas-a-pas.html,» [22 octobre 2018]. [18] W. K. e. E. DOMBRE, Bases de la modélisation et de la commande des robotsmanipulateurs de type série, 2012. [19] R. MERZONKI, Robotique Industriel ROBOT KHEPERA II, Lille, 2010/2011. [20] D. Y. AURELIEN, «cours de robotique,» 2015. [21] F. C. E. Grolleau, SYSTÈMES TEMPS RÉELDE CONTRÔLE-COMMANDE Conception et implémentation. [22] Cour UML : Diagrammes d’état (statechart) Modéliser les vues dynamiques d'un système. [23] I. LIEBGOTT, Modélisation et simulation des systèmes multi-physiques, Nice. [24] catalogue MICROSCAN. [25] L. S. D. S. 2017.

71 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

[26] «www;VxWorks-Wikipedia?htm,» 20 08 2018. (consulté le 21 Octobre 2018 à 07h35 mm),» [En ligne].. [27] «w w w. H a r m o n i c D r i v e . n e t,» 20 08 2018. (consulté le 22 Octobre 2018 à 08h45 mm),» [En ligne].. [28] ChapI Introduction à la robotique FGI ,Douala 2015. [29] N. Vandenbroucke, Cours de vision Industrielle. [30] D. Y. T. Aurelien, Cours d'acquisition des images FGI, Douala, 2015. [31] M. NLEMBA, Cours de visio, 2017. [32] S. K. e. al., Introduction à commande des robots humanoïdes. [33] N. L.T., UML: Diagrammes d'états (Statechart), THIONVILLE.

72 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

ANNEXE : 4

ANNEXE 1 : Dessin de la SAM du système et les caractéristiques 3 2 1

F

F

E

E

D

D

C B A

C B A

NOM : ESSIMAGEL AOUDOU EMMANUEL

4

Langue : fr MATERIAU : AA380.0F Matrice E2A 1/12/2018 MASSE : 3

TITRE : 40-10_NF-61 No. DE PLAN 4

ECHELLE : 1/8 2

A4

FEUILLE 1/ 1 1

73 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

74 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

ANNEXE 2 : caractéristiques du système FHA-17C PR et son variateur associé

75 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

76 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

ANNEXE 3 : Les étapes du cycle en V

77 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

ANNEXE 4 : Les sous-groupes de la simulation du SAM La carte de commande dans stateflow :

Le groupe moteur/réducteur

78 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

Lle bras (SAM)

79 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

ANNEXE 5 : Algorigramme et conception préliminaire détaillée du système Algorigramme principal du sous-système de vision.

initialisation

paramètrage

Acquisition du masque

Filtrage et extraction des primitives

Non

Contours évalués satisfaisant

oui Démarrer processus de contrôle

80 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

Algorigramme de contrôle de processus

Acquérir signal

Filtrage

Extraction des contours

Extraction des points d intérêt et caractèristiques

Mise en corrélation

Rejetter

Non

Résultat de corrélation appartient [γ;1]

oui

Accepter

81 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

Diagramme état transition principal du robot ;

Etape1 Initialisation

Après 1.5s

Etape2 Marche

Sous étape Marche

Marche Etape1 Marche1

Etape2 Marche2

Etape3 Marche3

82 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

Comportement de marche (i)

Marche(i)

Si toute les températures des moteurs inférieures à T alerte/3 Si une des températures des moteurs supérieur ou égale à T alerte Si température de l un des Si différence entre moteurs 1 angle désiré et supérieur à effectif Etape2 2 1 alerte Etape1 Correction de Attente position 2 Si différence proche de 0

Si pas d alerte

Etape2 Sécurité

Si une des températures des moteurs supérieur ou égale à T alerte 2

1

83 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

ANNEXE 6 : caractéristiques du MicroHAWK ID-30

84 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

85 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

ANNEXE 7 : Diagramme FAST du système Fonctions de services

Fonctions techniques

FP1:

FP:

Assurant le déplacement

Soustraire les pièces défectueuse de la chaine de production en assurant la qualité de la production

FP2:

Observant la scène

Solutions techniques

FP12:

En ayant une SAM efficiente

FP11:

Gérant la température interne du SAM

FP13:

En acquérant les positions articulaires instantanément

FP14:

En transformant l énergie électrique en énergie mécanique

FP15:

En interfaçant le système de commande et de puissance du SAM

FP16:

En traitant les données et gérant les consignes et coordonnant le mouvement du SAM

FP21:

En traitant le flux vidéo provenant du dispositif d acquisition

FP22:

En favorisant l efficience de l acquisition

Carte d acquisition vidéo MICROSCAN (MicroHAWK ID-30)

FP23:

En ayant un dispositif d acquisition d image performant

Camera de vision MICROSCAN(MicroHAWK ID-30)

FP24:

En ayant un système d éclairage adapté

Dispositif d éclairage MICROSCAN

SAM conçu sur SOLIDWORKS

Groupe moteur réducteur + capteur « HD » FHA-17C-PR

Interfaceur hacheur « HD » : HA-800*3C-200 Carte de commande temps réel +correcteur PID intel core i7-7700K+système VxWorks Laptot 4 cœurs(acer ou HP) +Logiciel temps réel dédié(conçu)+Bureau de travail

86

Système automatique de tri par vision

FC1:

Ne pas interrompre le processus de production de l entreprise

FC4:

Veiller sur la sécurité des utilisateurs et maintenanciers

FC5:

Fixer au support

FC6:

Compatibilité d alimentation avec les installations suivant la norme: ISO...

FC11:

En y afférant un effecteur adapté aux activités de l entreprise

Ventouse() ou Pince()

FC41:

En privant le système d énergie électrique si un individu se retrouve dans l espace de travail

Cage de protection + Interrupteur de sécurité dans la chaine énergétique du système

FC51:

En réalisant nue liason d encastrement entre le système et le support

Kit de fixation suivant les normes ISO:

FC61:

En possédant des élément d interfaçage lui permettant de recevoir l énergie provenant de l installation industriel

Kit d installation électrique industriel + outil électricien

87 Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel

Système automatique de tri par vision

88