Intelligence Artificielle [PDF]

  • 0 0 0
  • Gefällt Ihnen dieses papier und der download? Sie können Ihre eigene PDF-Datei in wenigen Minuten kostenlos online veröffentlichen! Anmelden
Datei wird geladen, bitte warten...
Zitiervorschau

Projet : Intelligence Artificielle

Travail élaboré par: Ons AFFES, Farouk SAADELLAOUI, Safa MTAR, Seifeddine Borgi Groupe : 1ere année ingénierie 4

Fichier original sans reformulation

Année universitaire 2021/2022

Plan

E:Entrée ●

Introduction



○ Introduction ○ Définition ○ Contexte de IA ○ Importance Histoire IA

S: Situation ○ ○ ○ ○ ○ ○ ○

IA les lois de l'intelligence artificielle Comment la machine apprend-elle? Machine learning Deep learning IA et la programmation Atout et inconvénient

P: probléme relatifs ○ ○

Les dangers de IA Impact de IA sur le travail

R: ●

Projets de IA ○ Les domaines d'utilisation ○ Projet 1 ○ Projet 2 ○ Projet 3

I: Perspectives d'avenir de IA

T: ● ●

Conclusion Les limites de IA

E : Entrée Introduction Depuis plus d’une décennie, l’intelligence artificielle (IA) vit une accélération dans son développement et son adoption. En médecine, elle intervient dans la recherche fondamentale et clinique, la pratique hospitalière, les examens médicaux, les soins ou encore la logistique. Ce qui contribue à l’affinement des diagnostics et des pronostics, à une médecine encore plus personnalisée et ciblée, à des avancées dans les technologies d’observations et d’analyses ou encore dans les outils d’interventions chirurgicales et autres robots d’assistance. De nombreux enjeux propres à l’IA et à la médecine, tels que la dématérialisation des données, le respect de la vie privée, l’explicabilité des algorithmes, la conception de systèmes d’IA inclusifs ou leur reproductibilité, sont à surmonter pour construire une confiance du corps hospitalier dans ces outils. Cela passe par une maîtrise des concepts fondamentaux que nous présentons ici.

Définition: L’intelligence artificielle ou IA (AI pour Artificial Intelligence en anglais) est une discipline scientifique et technologique visant à l’exécution par des machines (ordinateurs et programmes informatiques) de processus cognitifs jusque-là réservés aux capacités du cerveau humain, dans les domaines de : la compréhension, la communication (dialogue entre machines et avec l’humain), la structuration de la mémoire, le raisonnement critique, l’adaptation, l’apprentissage en autonomie (Deep Learning)…

Dans la langue courante, l’IA désigne également les dispositifs informatiques ou robotiques mettant en œuvre ces fonctions. Deux écoles se distinguent dans l’approche des objectifs de l’intelligence artificielle : La première considère que l’IA doit fonctionner sur le même modèle que l’intelligence humaine. La seconde préconise un modèle idéal, dont la perfection rationnelle serait dissociée des critères et processus de l’intelligence biologique.

Cette image donne une définition courte du principe de l’IA , elle récapitule en effet le paragraphe précédent. Le cerveau dans l'image symbolise la capacité des humains et des machines à mémoriser et d'apprendre , de penser , de créer , de juger , de parler , de décider.

Contexte de l'IA: Pourquoi l’intelligence artificielle ? L’intelligence artificielle est dans toutes les conversations, tous les débats, tous les argumentaires commerciaux, toutes les prédictions… elle nous est présentée à la fois comme la principale cause du futur effondrement de notre civilisation, mais également comme la solution à tout. Nous sommes confrontés à une situation absurde dans la mesure où nous avons l’injonction d’en louer les mérites et de l’implémenter au plus vite, alors qu’il y a un déficit flagrant de compréhension de ce qu’est réellement l’intelligence artificielle, de ce qu’elle peut apporter au monde de l’entreprise ou à la société en générale, et de la façon dont elle peut le faire. Non, l’IA n’est ni magique, ni révolutionnaire, c’est l’évolution logique de l’outil informatique, ni plus, ni moins.

L’intelligence artificielle est et restera omniprésente, au même titre que l’outil informatique les IA ne vont pas détruire des emplois, ces derniers évoluent selon les cycles économiques, cela a été théorisé (La destruction créatrice est un phénomène contre lequel vous ne pouvez pas lutter). De plus, n’oublions pas que nous n’avons pas besoin d’IA pour détruire des centaines de milliers d’emplois, nous y arrivons très bien tout seuls : Potential International Employment Effects of a Hard Brexit. D’autre part : non, les intelligences artificielles ne vont pas sauver la planète, seuls nous (ses occupants) sommes capables de le faire. Mais vous le saviez déjà, non ?

Tout ça pour dire que l’intelligence artificielle n’est ni la cause de nos malheurs / espoirs, ni le remède, mais une partie des deux. Au même titre que l’on peut difficilement accuser l’outil informatique d’avoir détruit des emplois à la fin du siècle dernier, nous ne pouvons pas continuer à propager des scénarios catastrophes qui reposent sur des hypothèses et des projections bancales Sous le terme intelligence artificielle (IA) on regroupe l’ensemble des théories et des techniques mises en œuvre en vue de réaliser des machines capables de simuler l'intelligence.” Cette pratique permet à l’Homme de mettre un système informatique sur la résolution de problématiques complexes intégrant de la logique. D’une façon plus commune, lorsque l’on parle d’intelligence artificielle, on entend aussi par là des machines imitant certains traits de l’Homme.

L'importance de l'IA Pourquoi l'intelligence artificielle est-elle importante ? De nos jours, êtres humains et machines génèrent des données plus vite qu'il n'est humainement possible de les absorber et de les interpréter pour prendre des décisions complexes. L'intelligence artificielle est la base de tout apprentissage par un ordinateur et représente l'avenir des processus décisionnels complexes. Par exemple, la plupart des êtres humains peuvent apprendre à ne pas perdre à une simple partie de morpion, alors qu'il existe 255 168 actions possibles, dont 46 080 mènent à un match nul. En revanche, les champions du jeu de dames sont plus rares, étant donné qu'il existe plus de 500 x 1018 (500 trillions) de coups possibles. Les ordinateurs sont capables de calculer ces combinaisons et les meilleures permutations possibles très efficacement, afin de prendre la bonne décision. L'IA (avec son évolution logique, le machine learning) et le deep learning représentent l'avenir de la prise de décisions.

Histoire AI https://www.youtube.com/watch?v=qmwJx-r5vmw&t=2s&ab_channel=CEARecherche L'intelligence artificielle avant 2000 : Preuve que ce n’est pas une science d’aujourd’hui, les premières traces de l’IA remontent à **1950** dans un article d’Alan Turing intitulé “*Computing Machinery and Intelligence*” dans lequel le mathématicien explore le problème de définir si une machine est consciente ou non. De cet article découlera ce que l’on appelle aujourd’hui le Test de Turing qui permet d’évaluer la capacité d’une machine à tenir une conversation humaine. Une autre origine probable remonte quant à elle à **1949** dans une publication de Warren Weaver avec un mémo sur la traduction automatique des langues qui émet l’idée qu’une machine pourrait très bien effectuer une tâche qui relève de l’intelligence humaine. L’officialisation de l’intelligence artificielle comme véritable domaine scientifique date de **1956** lors d’une conférence aux États-Unis qui s’est tenue au Dartmouth College.

Par la suite, ce domaine atteindra de prestigieuses universités comme celles de Stanford, du MIT, ou encore d’Édimbourg. Dès le milieu des **années 60**, la recherche autour de l’IA sur le sol américain était principalement financée par le Département de la Défense. Dans le même temps, des laboratoires ouvrent çà et là à travers le monde. Certains experts prédisaient à l’époque que « *des machines seront capables, d’ici 20 ans, de faire le travail que toute personne peut faire* ». Si l’idée était visionnaire, même en 2018 l’intelligence artificielle n’a pas encore pris cette importance dans nos vies. En 1974 arrive une période appelée le « *AI Winter* ». Beaucoup d’experts ne réussissent pas à faire aboutir leurs projets et les gouvernements britannique et américain réduisent leurs financements pour les académies. Ils préfèrent soutenir des idées ayant plus de chances de déboucher sur quelque chose de concret. Dans les années 80,le succès des systèmes experts permet de relancer les projets de recherche sur l’intelligence artificielle. Un système expert était un ordinateur capable de se comporter comme un expert (humain), mais dans un domaine bien précis. Grâce à ce succès, le marché de l’IA atteint une valeur d’un milliard de dollars, ce qui motive les différents gouvernements à de nouveau soutenir financièrement plus de projets académiques. Le développement exponentiel des performances informatiques, notamment en suivant [la loi de Moore], permet entre 1990 et 2000 d’exploiter l’IA sur des terrains jusqu’alors peu communs. On retrouve à cette époque le data mining, ou encore les diagnostics médicaux. Il faudra attendre 1997 pour une véritable sortie médiatique lorsque le fameux Deep Blue créé par IBM a battu Garry Kasparov, alors champion du monde d'échecs. 2000 - 2010 : l’IA représente un enjeu de société

Au début des années 2000, l’intelligence artificielle s’intègre dans une grande quantité de films de science-fiction présentant des scénarios plus ou moins réalistes. Le plus marquant du nouveau millénaire étant certainement *Matrix*, premier volet de la saga sorti en salles le 23 juin 1999. S’en suivra *A.I.* de Steven Spielberg sorti en 2001, inspiré par Stanley Kubrick, puis *I, Robot* (2004). *Metropolis* (1927) *Blade Runner* (1982), *Tron* (1982), et *Terminator* (1984) avaient déjà pavé la voie, mais l’on ne connaissait pas encore assez bien l’IA et ses applications pour imaginer de réels scénarios. Entre 2000 et 2010, notre société vit un véritable boom informatique. Non seulement la loi de Moore poursuit son bonhomme de chemin, mais les Hommes s’équipent. Les ordinateurs personnels deviennent de plus en plus accessibles, Internet se déploie, les smartphones voient le jour … La connectivité et la mobilité lancent l’ère de l'Homo Numericus. Jusqu’à 2010, on s’interroge également sur l’éthique de l’intégration de l’IA dans de nombreux secteurs. Ainsi, en 2007 la Corée du Sud dévoile une charte de l’éthique des robots dans le but de poser des limites et des normes aux utilisateurs ainsi qu’aux constructeurs. En 2009, le MIT lance un projet réunissant de grands scientifiques de l’IA pour réfléchir aux grandes lignes de la recherche sur ce domaine.

À partir de 2010 : l’IA sans limites Dès le début de notre décennie, l’IA s’illustre grâce aux prouesses de Waston d’IBM. En 2011, ce super-cerveau a battu en direct les deux plus grands champions de *Jeopardy!*. Un exercice loin d’être simple pour un ordinateur. Néanmoins, après Deep Blue, les années 2010 marquent un tournant dans la médiatisation des recherches. La loi de Moore continue de guider les progrès de l’intelligence artificielle, mais le traitement de la donnée vient renforcer tout cela. Pour exécuter une tâche, un système n’a besoin que de règles. Lorsqu’il s’agit d’avoir une réflexion ou de livrer la réponse la plus juste possible, il faut que ce système apprenne. C’est ainsi que les chercheurs développent de nouveaux procédés pour [le machine learning puis le deep learning]. Rapidement, ces approches nourries par les données passent de nombreux records, poussant de nombreux autres projets à suivre cette voie. De plus, le développement des technologies pour l’intelligence artificielle permet de lancer des projets très divers et de ne plus penser calcul pur et dur, mais d’intégrer le traitement des images.C’est à partir de ce moment que certaines sociétés vont prendre les devants. En effet, la problématique de l’IA n’est plus d’avoir les cerveaux pour élaborer des systèmes, mais d’avoir de la donnée à traiter. C’est pour cela que Google devient rapidement un pionnier. En **2012**, la firme de Mountain View n’avait que quelques projets d’usages, contre 2 700 trois ans plus tard. En **2013**, Facebook ouvre le [Facebook Artificial Intelligence Research] (FAIR) dirigé par Yann Le Cun. Un tournant qui éloigne le géant de sa mission sociale pour se tourner vers les sciences. Amazon, Microsoft, Apple, Netflix, Tesla ne sont pas en reste non plus, de même de nombreuses sociétés chinoises. La gestion des données permettra de mettre l’IA en application pour [comprendre des radiographies mieux que les médecins], [conduire des voitures], [faire de la traduction], [jouer à des jeux vidéo complexes], [créer des musiques], [voir à travers un mur], [imaginer une partie manquante d’une photographie] … Les domaines où les intelligences artificielles performent sont plus que nombreux et cela soulève de nombreuses questions sur le rôle professionnel de l’Homme dans les années à venir. La place médiatique qu’occupe désormais l’intelligence artificielle ne laisse presque plus les questions qui concernent ce domaine entre les mains des chercheurs, mais dans le débat public. Cela crée logiquement autant de tensions que d’excitations. Malheureusement, nous ne sommes qu’aux prémisses de l’intégration massive de ces technologies. Les décennies à venir nous réservent encore bien des surprises. 2000 - 2010 : l’IA représente un enjeu de société Entre 2000 et 2010, notre société vit un véritable boom informatique. Non seulement la loi de Moore poursuit son bonhomme de chemin, mais les Hommes s’équipent. Les ordinateurs personnels deviennent de plus en plus accessibles, Internet se déploie, les smartphones voient le jour … La connectivité et la mobilité lancent l’ère de l'Homo Numericus. En 2007 la Corée du Sud dévoile une charte de l’éthique des robots dans le but de poser des limites et des normes aux utilisateurs ainsi qu’aux constructeurs. De plus en 2009, le MIT lance un projet réunissant de grands scientifiques de l’IA pour réfléchir aux grandes lignes de la recherche sur ce domaine.

À partir de 2010 : l’IA sans limites Depuis le début de nos dix ans, l'intelligence artificielle a brillé grâce à la force de Waston d'IBM. En 2011, ce super cerveau a vaincu les deux plus grands champions Jeopardy en direct ! . Pour les ordinateurs, ce n'est en aucun cas un exercice simple. Cependant, après Deep Blue, les années 2010 ont marqué un tournant dans la recherche et les reportages médiatiques. La loi de Moore continue de guider l'avancement de l'intelligence artificielle, mais le traitement des données renforce tout cela. Pour effectuer des tâches, le système n'a besoin que de règles. Quand il s'agit de penser ou de fournir la réponse la plus juste, ce système doit être appris. C'est ainsi que les chercheurs développent de nouveaux processus pour le machine learning et le deep learning. Bientôt, ces méthodes basées sur les données ont battu de nombreux records, incitant de nombreux autres projets à suivre cette voie. De plus, le développement de la technologie de l'intelligence artificielle a permis de réaliser divers projets, ne considérant plus le pur calcul dur, mais intégrant le traitement d'images. C'est à partir de ce moment que certaines entreprises prendront les devants pour passer à l'action. En fait, le problème avec l'intelligence artificielle n'est plus la nécessité pour le cerveau de construire un système, mais la nécessité de traiter des données. C'est pourquoi Google est rapidement devenu un pionnier. En 2012, Mountain View n'avait que quelques forfaits disponibles, et après trois ans, il y en avait 2 700. En 2013, Facebook a ouvert le Facebook Artificial Intelligence Research (FAIR) dirigé par Yann Le Cun. Un tournant, le géant est passé de sa mission sociale à la science. Amazon, Microsoft, Apple, Netflix et Tesla ne sont pas exclus, comme le sont de nombreuses entreprises chinoises. La gestion des données permettra d'utiliser l'intelligence artificielle pour mieux comprendre les rayons X que les médecins, conduire des voitures, traduire, jouer à des jeux vidéo complexes, créer de la musique, voir à travers les murs, imaginer des jeux sans photos... Le grand nombre, cela soulève de nombreuses questions sur le rôle professionnel de l'Homme dans les années à venir. Le statut médiatique désormais occupé par l'intelligence artificielle n'a guère laissé les questions sur ce domaine entre les mains des chercheurs, mais dans le débat public. Logiquement, cela crée autant de tension que d'excitation. Malheureusement, nous venons tout juste de commencer à intégrer ces technologies à grande échelle. De nombreuses surprises nous sont encore préparées dans les prochaines décennies.

S: Situation Les lois de l’intelligence artificielle Première Loi: Un robot ne doit jamais blesser un être humain ni, par son inaction, permettre qu'un humain soit blessé. Deuxième Loi : Un robot doit obéir aux ordres donnés par les êtres humains quoi qu'il arrive et en toutes circonstances, sauf si de tels ordres sont en contradiction avec la 1ère Loi. Troisième Loi : Un robot doit maintenir sa survie aussi longtemps que ça ne soit pas en contradiction avec la 1ère et/ou la 2éme Loi.

Comment la machine apprend Contrairement à ce que l’on essaye (trop) régulièrement de vous faire croire, aucune machine n’est capable d’apprendre par elle-même, c’est un abus de langage. Dans la vraie vie, on identifie un processus que l’on souhaite automatiser (ex : trier des photos de chats et de chiens), on dote un ordinateur de capacités analytiques (ex : reconnaissance visuelle) lui permettant de simuler des fonctions cognitives (un raisonnement), afin de développer un modèle de traitement de l’information (ex : en entrée, des photos en vrac ; en sortie, des photos triées). Dans les premiers temps, ce modèle est très imparfait, aussi, différentes familles / variantes d’algorithmes sont testées pour pouvoir optimiser ce modèle. Donc dans l’absolu, ce n’est pas l’algorithme qui évolue, c’est le modèle de traitement. Un modèle qui est spécifique au processus cognitif qu’on lui demande de simuler, ainsi qu’aux données ayant servi à son entraînement. Une fois qu’un premier niveau de capacités cognitives a été atteint, on procède à un enrichissement du modèle pour lui demander de faire des choses plus complexes.

Cette intelligence artificielle (en réalité un modèle de traitement) passe donc par différentes phases d’entraînement, de contrôle, de pondération et d’optimisation qui exigent énormément de ressources humaines et de données de qualité (De l’importance des experts métiers pour entrainer les intelligences artificielles). Si vous avez l’occasion de discuter avec des data scientists, ceux qui conçoivent et entraînent les IA, ils vous confirmeront qu’il y a un côté très expérimental, à la limite du tâtonnement, dans l’optimisation d’un modèle : il faut tester différentes combinaisons d’algorithmes et de paramétrage afin de faire progresser le taux de fiabilité. Pour pouvoir obtenir des résultats significatifs, il faut du temps, des ressources pointues et surtout des jeux de données de très bonne qualité, donc un gros travail préalable de labelisation des données brutes et de discrimination de données non pertinentes (réduction de dimensionnalité). Tout ça pour dire que si l’on peut sans trop de difficultés évaluer les gains de performance d’une intelligence artificielle à raisonnement automatique (ex : les outils de programmatic buying ou de marketing automation), les gains de performance incrémentaux que l’on peut potentiellement obtenir avec du machine learning ou du deep learning sont très aléatoires, et exigent surtout beaucoup de ressources (This Is Why A.I. Has Yet to Reshape Most Businesses). À tel point, que la question de la rentabilité économique revient fréquemment : ne serait-il pas plus simple de se contenter d’une GOFAI (Good Old-Fashion AI) plutôt que de pratiquer la fuite en avant avec le deep learning ? Impossible de le dire, car chaque cas est particulier. Finalement, toute cette histoire de big data et de machine learning n’est-elle pas une vaste fumisterie ? Non pas du tout, car toutes les conditions sont enfin réunies pour pour que cela produise les résultats escomptés : faire plus avec moins.

Machine learning Deep learning Machine Learning vs Deep Learning : quelle différence ? L’intelligence artificielle et la programmation La programmation joue un rôle primordial dans la conception et la mise en place de tout projet de systèmes informatiques. Certaines personnes peuvent même définir l’intelligence artificielle comme étant le fruit de la programmation. Elle représente en effet la base de tout type de développement informatique et de systèmes intelligents. Elle englobe toutes les actions réalisées en vue de mettre ces systèmes en place pour qu’ils fonctionnent correctement. Ainsi, pour concevoir un nouveau logiciel, un site internet ou encore une application mobile basée sur l’IA, un data analyst ou data scientist doit forcément utiliser la programmation. D’un point de vue scientifique, elle se considère comme étant l’écriture des codes sources d’un système informatique intelligent. La data science préfère plutôt utiliser le terme « développement intelligent » pour l’identifier. Dans sa mise en place, plusieurs

paramètres doivent être pris en compte tels que les spécificités du système, les tests de performance, le monitoring et la maintenance. Il existe des centaines de langages de programmation en informatique que la machine learning peut exploiter librement. Néanmoins, certains langages se distinguent du lot par leur simplicité d’utilisation, leurs spécificités, ainsi que les différentes possibilités d’options qu’ils offrent. Chez l’IA School, nous nous intéressons plus précisément au langage Python, R, C++ ,JAVA, et LISP.

1- Python : le leader inconstesté de l’Intelligence Artificielle : Python est le langage préféré des développeurs de l’intelligence artificielle grâce à la simplicité de sa syntaxe. Les syntaxes développées par Python sont simples et peuvent être apprises facilement. Le langage de programmation est moins compliqué que Java ou C++ en ce qui concerne le machine learning par exemple. De plus, ce code s’adapte à de nombreuses plateformes de développements comme Windows, Linux, Mac OS et Unix. Enfin, Python supporte le développement fonctionnel, le développement orienté objet et le développement procédural. Avantages du Python ● ●

Python bénéficie d’un temps de développement généralement plus court que d’autres langages comme Java ou C++. De nombreuses librairies Python existent, ce qui rend son développement plus simple. Citons ici Pybrain qui est utilisé dans le cadre du machine learning.

Inconvénients du Python ● ●

Contrairement à Java ou C++, Python fonctionne à l’aide d’un interpréteur ce qui rend la compilation et l’exécution plus lentes. Python ne convient pas pour l’IA liée aux applications mobiles.

2- JAVA : le challenger sans compilation : Java est un autre langage de programmation qui permet de coder l’intelligence artificielle. Cet outil est avec Python l’un des codes les plus utilisés pour l’IA. De fait, cette technologie est assez demandée dans les recrutements du secteur. Comme Python, Java est un langage multi-paradigme. Sa syntaxe provient principalement du langage C et C++. Java convient bien au traitement automatique du langage naturel (NLP, Natural Language Processing) et aux recherches algorithmiques mais aussi au Neural Network (des séries d’algorithmes qui reproduisent une intelligence humaine). Avantages du Java ● ● ● ●

Contrairement à C++, Java est relativement simple à utiliser et à débuger Java fonctionne sur de nombreuses plateformes, grâce à la technologie de la machine virtuelle. Représentation graphique des données propre Pas besoin de compilation

Points faibles du Java ●

Java est plus lent que C++ et Python. Il souffre d’un temps de réponse plus long et d’une exécution moins rapide.

3- C++ : la valeur sûre de l’Intelligence artificielle : C++ est le langage le plus rapide, sa rapidité est très appréciée pour les projets d’intelligence artificielle qui sont limités dans le temps. Ce langage de programmation permet une exécution rapide et un temps de réponse assez court, ce qui est utile pour des moteurs de recherche ou les jeux vidéos. C++ est approprié notamment pour le machine learning et le Neural Network. Avantages du C++ ● ● ●

Outil bien adapté pour résoudre des problèmes complexes d’intelligence artificielle. On peut trouver des librairies de fonctions assez fournies C++ est un outil de développement multi-paradigmes qui supporte les principes de l’orienté objet.

Points faibles du C++ ●

Compliqué pour des développeurs néophytes

4– LISP : Le vieil outsider : LISP est un vieux langage de programmation et des améliorations ont été apportées pour en faire un langage puissant et dynamique. Cependant il reste nettement moins utilisé et recherché que les 3 précédents, notamment en termes d’intelligence artificielle. Certains considèrent que LISP est le meilleur langage de programmation d’IA en raison de la grande liberté donnée aux développeurs. En effet, LISP est utilisé en IA pour sa grande flexibilité, pour sa rapidité à sortir des prototypes. Enfin, Lisp, contrairement à la plupart des langages est plus efficace pour résoudre certains problèmes spécifiques car il s’adapte aux besoins de la solution que l’informaticien développe. Cela fonctionne très bien dans les projets de logique inductive et pour le machine learning. Avantages de Lisp ●

Rapide et efficace dans la phase de développement, comme le langage est supporté par des compilateurs à la place des interpréteurs

Points faibles de Lisp ● ●

Communauté trop petite à notre sens pour trouver des informations facilement, surtout si vous débutez Ne marche pas dans tous les environnements, en raison de son ancienneté

5– R : le langage de la statistique : R est l’un des langages de programmation les plus efficaces pour analyser et manipuler des données dans un but statistique. En utilisant R, on peut facilement produire de belles publications grâce à la data visualisation, avec des formules si besoin. R bénéficie de nombreux packages comme RODBC, Gmodels, Claass et Tm qui sont utilisés pour le machine learning. Ainsi, ces packages rendent l’implémentation du machine learning assez facile. https://www.youtube.com/watch?v=esiKN7k2IBI&t=9s&ab_channel=LeMachineLearningavec Damien.

Atouts AI ●

La réduction des erreurs

(L’intelligence artificielle nous aide à réduire l’erreur humaine et les chances d’atteindre la précision avec un degré de précision supérieur. Il est appliqué dans divers domaines tels que l’exploration de l’espace). ●

L’exploration difficile

(Grâce à la programmation des robots, ils peuvent effectuer un travail plus laborieux et difficile avec une plus grande responsabilité. De plus, ils ne s’usent pas facilement). ●

LES TRAVAUX RÉPÉTITIFS

Les tâches répétitives de nature monotone peuvent être effectuées à l’aide de l’intelligence artificielle. Les machines pensent plus vite que les humains et peuvent être soumises à plusieurs tâches. ●

AUCUNE PAUSE

Les machines sont programmées pour de longues heures et peuvent fonctionner en continu sans s’ennuyer, se laisser distraire ni même se fatiguer. ●

LES ASSISTANTS NUMÉRIQUES

Les organisations les plus avancées utilisent des « avatars », qui sont des répliques ou des assistants numériques, capables d’interagir avec les utilisateurs, ce qui évite des ressources humaines. ●

LES APPLICATIONS MÉDICALES

La robotique est souvent utilisée pour aider les patients en santé mentale à sortir de la dépression et à rester actifs.

Inconvénient ●

UN COÛT ÉLEVÉ

La création d’une intelligence artificielle nécessite des coûts énormes car ce sont des machines très complexes. Leur réparation et leur entretien impliquent des coûts importants également. ●

AUCUNE INITIATIVE

Les machines n’ont pas d’émotions et de valeurs morales. Ils exécutent ce qui est programmé et ne peuvent pas juger ce qui est juste ou faux. Même ne peuvent pas prendre de décisions s’ils rencontrent une situation qui leur est inconnue. Ils ne fonctionnent pas correctement ou tombent en panne dans de telles situations. ●

AUCUNE AMÉLIORATION AVEC L’EXPÉRIENCE

Contrairement aux humains, l’intelligence artificielle ne peut être améliorée avec l’expérience. Avec le temps, cela peut conduire à l’usure. Il stocke beaucoup de données, mais la manière dont on peut y accéder et les utiliser est très différente de l’intelligence humaine. ●

PAS DE CRÉATIVITÉ

Les êtres humains sont des intellectuels extrêmement sensibles et émotionnels. Ils voient, entendent, pensent et ressentent. Leurs pensées sont guidées par les sentiments qui manquent complètement dans les machines. Les capacités intuitives inhérentes au cerveau humain ne peuvent pas être reproduites. ●

LE CHÔMAGE

Le remplacement d’êtres humains par des machines peut entraîner un chômage important.

P: Les problèmes relatifs: Les dangers de L’IA Piratage de voitures autonomes ou de drones militaires, attaques phishing ciblées, infox fabriquées de toutes pièces ou manipulation de marchés financiers...«L'expansion des capacités des technologies basées sur l'IA s'accompagne d'une augmentation de leur potentiel d'exploitation criminelle», avertit Lewis Griffin, chercheur en informatique à l'University College London (UCL). Avec ses collègues, il a compilé une liste de 20 activités illégales perpétrées par IA, et les a classées par ordre de dommages potentiels, de gains ou profits engrangés, de facilité à mettre en œuvre et de difficulté à détecter et à stopper. Les crimes les plus effrayants, comme les «robots cambrioleurs» s'introduisant dans votre appartement ne sont pas forcément les plus dangereuses, car ils peuvent facilement être déjoués et touchent peu de monde à la fois. À l'inverse, les fausses informations générées par des «bots» ont la capacité à ruiner la réputation d'une personne connue ou à exercer un chantage. Difficiles à combattre, ces «deepfakes» peuvent causer un tort économique et social considérable.

Intelligence artificielle : les menaces graves 1. Fausses vidéos : usurper l'identité d'une personne en lui faisant dire ou faire des choses qu'elle n'a jamais dite ou faites, dans le but de demander un accès à des données sécurisées, de manipuler l'opinion onde nuire à réputation de quelqu'un...Ces vidéos truquées sont quasi indétectables. 2. Piratage de voitures autonomes : s’emparer des commandes d’un véhicule autonome pour s'en servir comme arme (par exemple perpétrer une attaque terroriste, provoquer un accident, etc). 3. Hameçonnage sur mesure : générer des massages personnalisés et automatisés afin d'augmenter l'efficacité du phishing visant à collecter des informations sécurisées ou installer des logiciels malveillants. 4. Piratage des systèmes contrôlés par l'IA : perturber les infrastructures en causant par exemple une panne d'électricité généralisée, un engorgement du trafic ou la rupture de la logistique alimentaire. 5. Chantage à grande échelle : recueillir des données personnelles afin d'envoyer des messages de menace automatisés. L'IA pourrait également être utilisée pour générer de fausses preuves (par exemple de la «sextrosion»). 6. Fausses informations rédigées par IA : écrire des articles de propagande semblant être émises par une source fiable. L'IA pourrait également être utilisée pour générer de nombreuses versions d'un contenu particulier afin d'accroître sa visibilité et sa crédibilité.

Intelligence artificielle : les menaces de moyenne gravité

1. Robots militaires : prendre le contrôle de robots ou armes à des fins criminelles. Une menace potentiellement très dangereuses mais difficile à mettre en œuvre, le matériel militaire étant généralement très protégé. 2. Escroquerie : vendre des services frauduleux en utilisant l'IA. Il existe de nombreux exemples historiques notoires d'escrocs qui ont réussi à vendre de coûteuses fausses technologiques à de grandes organisations, y compris des gouvernements nationaux et l'armée. 3. Corruption de données : modifier ou introduire délibérément de fausses données pour induire des biais spécifiques. Par exemple, rendre un détecteur insensible aux armes ou encourager un algorithme à investir dans tel ou tel marché. 4. Cyberattaque basée sur l'apprentissage : perpétrer des attaques à la fois spécifiques et massives, par exemple en utilisant l'IA pour sonder les faiblesses des systèmes avant de lancer plusieurs attaques simultanées. 5. Drones d'attaque autonomes : détourner des drones autonomes ou s'en servir pour s'attaquer à une cible. Ces drones pourraient être particulièrement menaçants s'ils agissent en masse dans des essaims auto-organisés. 6. Refus d'accès : endommager ou priver des utilisateurs d'un accès à un service financier, à l'emploi, à un service public ou une activité sociale. Non rentable en soi, cette technique peut être utilisée comme chantage. 7. Reconnaissance faciale : détourner les systèmes de reconnaissance faciale, par exemple en fabriquant de fausses photos d'identité (accès à un smartphone, caméras de surveillance, contrôle de passagers...) 8. Manipulation de marchés financiers : corrompre des algorithmes de trading afin de nuire à des concurrents, de faire baisser ou monter une valeur artificiellement, de provoquer un crash financier...

Intelligence artificielle : les menaces de faible intensité 1. Exploitation de préjugés : tirer profit des biais existants des algorithmes, par exemple les recommandations de YouTube pour canaliser les spectateurs ou les classements de Google pour améliorer le profil des produits ou dénigrer les concurrents. 2. Robots cambrioleurs : utiliser des petits robots autonomes se glissant dans les boîtes aux lettres ou les fenêtres pour récupérer des clés ou ouvrir des portes. Les dommages sont faibles potentiellement, car très localisés à petite échelle. 3. Blocage de détection par IA : déjouer le tri et la collecte de données par IA afin d'effacer des preuves ou de dissimuler des informations criminelles (pornographie par exemple) 4. Fausses critiques rédigées par IA : générer des faux avis sur des sites tels que Amazon ou Tripadvisor pour nuire ou favoriser un produit. 5. Traque assistée par IA : utiliser les systèmes d'apprentissage pour pister l'emplacement et l'activité d'un individu. 6. Contrefaçon : fabriquer de faux contenus, comme des tableaux ou de la musique, pouvant être vendus sous une fausse paternité. Le potentiel de nuisance demeure assez faible dans la mesure où les tableaux ou musiques connues sont peu nombreux.

Impact de l’IA sur le travail L’IA DANS LE FUTUR : QUELLES PERSPECTIVES ? L’intelligence artificielle, marché prolifique, va sans l’ombre d’un doute continuer sa croissance exponentielle dans les décennies à venir. À tel point que certains grands industriels et scientifiques dont l’IA est le cœur de métier, comme Elon Musk, Bill Gates et le regretté Stephen Hawking, s’inquiètent déjà des conséquences que pourraient avoir un potentiel manque de contrôle humain sur les intelligences artificielles développées. Les répercussions que cela pourrait engendrer seraient alors particulièrement inquiétantes : piratage en masse, cyberguerre, explosion du chômage avec un remplacement croissant de métiers… Des perspectives sombres qui ne doivent pas faire oublier le potentiel extraordinaire de l’IA, dont l’évolution peut également, selon l’usage que les sociétés décident d’en faire, être source de progrès pour l’Homme et la planète. Dans le domaine médical par exemple, l’impact de l’IA est considérable puisqu’elle permet déjà de réaliser des diagnostics fiables et auparavant compliqués et douloureux pour le patient. L'Intelligence Artificielle, perspectives d'avenir et avenir du travail Les prédictions sur un avenir modelé par l'intelligence artificielle (IA) sont légion. Mais Antoine Blondeau, qui a contribué au développement de la technologie ayant débouché sur la saisie intuitive et Siri, l'assistant vocal d'Apple, sait plus que d'autres de quoi il parle. «Dans 30 ans, le monde sera très différent», dit ce Français de 48 ans qui a quitté la France il y a longtemps et partage aujourd'hui sa vie entre la Californie et Hong Kong. «Tout sera conçu pour satisfaire vos besoins personnels.» Le travail tel que nous le connaissons sera obsolète, d'après le cofondateur de Sentient Technologies, plateforme spécialisée dans l'IA. Les progrès de la robotique sensorielle et visuelle auront permis la création d'usines intelligentes qui prendront des décisions en temps réel. Elles n'auront pas besoin d'ouvriers, que de superviseurs. Les professions juridiques, le journalisme, la comptabilité et la vente au détail seront rationalisés, l'IA abattant le travail ingrat. La santé sera aussi bouleversée, juge-t-il. Les particuliers disposeront de toutes leurs données sanitaires et l'IA pourra émettre des diagnostics. «Si on a rendez-vous chez le médecin, ça sera plus pour le réconfort de parler avec un être humain ou parce qu'il faudra qu'un humain dispense les médicaments. Mais on n'aura pas forcément besoin d'un médecin pour dire ce qui ne va pas.»

Comment l’IA risque-t-elle de perturber le marché du travail? Ce qu’on dit souvent des tâches qu’on prévoit automatiser est que l’IA est utile pour effectuer des tâches de nature répétitive, qui impliquent de percevoir de l’information, de repérer des tendances ou de réagir par une action particulière En pratique, il est rare que toutes les fonctions d’une personne soient ainsi automatisées; seulement une partie de

celles-ci le sont. Même si l’automatisation peut rendre cette personne plus productive, puisqu’elle pourra passer plus de temps à faire un travail sans doute plus utile, elle réduit le nombre de coéquipiers nécessaires pour accomplir une charge de travail précise, ce qui signifie que le nombre d’employés peut être moindre. Nombre

Augmentation de la demande

Diminution de la demande

1

Analystes et scientifiques de données

Commis à la saisie de données

2

Spécialistes de l’intelligence artificielle et de l’apprentissage machine

Secrétaires d’administration et de direction

3

Spécialistes des données massives

Comptables et teneurs de livres

4

Agents de marketing et de stratégies numériques

Comptables et vérificateurs

5

Spécialistes de l’automatisation des processus

Travailleurs à la chaîne et ouvriers d’usine

6

Professionnels de l’expansion des affaires

Gestionnaires de l’administration des activités

7

Spécialistes de la transformation numérique

Agents de service à la clientèle

8

Analystes de la sécurité de l’information

Directeurs des opérations

9

Développeurs de logiciels et d’applications

Mécaniciens et réparateurs de machines

10

Spécialistes de l’Internet des objets

Commis à la tenue des stocks

Part du travail fait par la machine plutôt que par l’homme, 2020 et 2025 (prévision)

R: Réalisation 6- les domaines d’utilisation: Pourriez-vous nous donner 5 exemples d’application de l’intelligence artificielle ? Qu’est-ce que l’IA apporte à chacun de ces secteurs et quelles sont leurs perspectives ? L’IA dans l’industrie Dans l’industrie, l’exemple qui nous vient directement en tête est le système de préparation de commande basé sur des flottes de robots de la startup française Exotec. Mais les cas d’usages dans l’industrie sont beaucoup plus vastes : optimisation de la supply chain, gestion et prévision des stocks, prédiction des manutentions, automatisation du contrôle qualité, etc… L’IA dans la cybersécurité Côté sécurité, pendant le confinement les cyberattaques enregistrées ont été quatre fois plus intenses, c’est un secteur stratégique dans lequel il faut continuer à investir. L’IA est depuis quelques années incontournable pour identifier les relations entre les différentes menaces : fichiers malveillants, adresses IP suspectes, menaces internes, etc. Cette analyse ne prend que quelques secondes, et permet aux analystes de la sécurité de répondre jusqu’à 60 fois plus rapidement aux menaces. La startup CybelAngel propose des solutions pour aider les entreprises à détecter les fuites de données ainsi que les différentes menaces du dark web grâce à l’intelligence artificielle. Vade Secure se concentre quant à elle sur la protection contre les attaques avancées et sophistiquées déployées par email. L’IA dans la santé Dans un monde où médecine et data sont de plus en plus liées, les innovations dans le secteur de la santé ne connaissent pas la crise. De l’aide au diagnostic à partir de l’imagerie médicale au parcours patient, suivi de l’efficacité du traitement, de nombreuses startups de l’IA œuvrent pour une amélioration du système de santé. Certaines startups comme Owkin, qui utilise une architecture de Federated Learning (ou apprentissage fédéré) non centralisée et plus sûre pour protéger les données personnelles des patients, Withings (objets connectés), Implicity (télésurveillance des prothèses cardiaques connectées), Incepto Medical (imagerie médicale) ou Cardiologs (l’interprétation des électrocardiogrammes) se distinguent. L’IA dans le commerce L’IA dans le secteur du commerce regorge de startups B2B moins connues du grand public. Les deux dernières méga-levées réalisées en France concernent notamment l’amélioration de l’expérience client. Contentsquare édite un logiciel en SaaS d’optimisation de l’expérience client et d’augmentation du taux de conversion pour les sites d’e-commerce. Elle a obtenu le statut de licorne en mai dernier, suite à l’annonce de sa Série D de 175 millions d’euros. AB Tasty**,** spécialisée dans l’optimisation de l’expérience client, a réussi

à lever 37 millions d’euros en Série C en juillet 2020. Les cas d’usage sont nombreux par ailleurs, il suffit de consulter notre mapping des 453 startups de l’IA en France pour le comprendre : marketing prédictif, optimisation de la performance web, agents conversationnels (bots), etc. Les entrepreneurs français ne manquent pas de créativité ! L’IA dans la recherche Bien sûr, on ne peut avoir d’innovations en IA sans recherche. Beaucoup de startups, qui cartonnent aujourd’hui en France, sont des spin off issues de centres de recherche. Par exemple, la startup Prophesee, spécialiste de la vision artificielle, trouve ses racines dans l’Institut de la Vision (CNRS, Université Pierre et Marie Curie, INSERM). Avant de pouvoir se servir d’une telle technologie et obtenir une valeur ajoutée, de nombreuses étapes liées à la collecte, la gestion ou encore l’uniformisation des données des consommateurs doivent être mises en place. Quelles sont ces différentes étapes et comment les experts de l’IA peuvent-ils parvenir à surmonter ces barrières selon vous ? C’est certain, la data est un des facteurs-clé de succès pour tout projet en IA. Il convient avant tout de bien connaître son patrimoine de données, de bien maîtriser sa qualité, et d’avoir la capacité d’activer ces données au service de l’IA. Heureusement, il existe de belles pépites françaises capables d’accompagner les entreprises sur tous ces chantiers : Saagie**,** par exemple, fournit une plateforme qui permet de déployer rapidement des projets Big data en production et d’embarquer de l’IA dans vos applications. Cosmian développe et édite une plateforme logicielle de chiffrement de données. Cette solution permet d’analyser les données encryptées et les exploiter sans les compromettre, mais aussi de chiffrer la donnée lorsqu’elle est en cours d’utilisation, pour qu’elle puisse rester chiffrée de bout en bout. Par ailleurs, la valorisation de la donnée est un vrai enjeu de transformation digitale : les entreprises sont de plus en plus amenées à partager des données en interne et externe, notamment pour alimenter des projets d’IA. Dawex et Opendatasoft proposent ainsi des plateformes de datasharing.

7- les projets : Les Etats-Unis :

PROJET CARRETA : véhicule automatisé dédié à la logistique urbaine.

Les enjeux et objectifs du projet Face à l’essor croissant des flux de transport de marchandises, les centres urbains sont confrontés à des problèmes majeurs de congestion de l’espace public et de nuisances sonores. L’optimisation de l’espace public et l’accessibilité au centre-ville constituent ainsi des enjeux prégnants. Le projet Carreta vise à tester une solution innovante et durable pour la livraison de marchandises en ville et à évaluer sa maturité et sa pertinence d’un point de vue technologique, environnemental, usuel, économique, social et sociétal. Ces véhicules automatisés, complémentaires de l’action humaine, sont conçus pour assister les livreurs et les libérer des tâches les plus pénibles ou répétitives (charges lourdes, aller-retours…), afin de leur permettre de se dédier au contact humain. Vu la croissance des flux de transport de marchandises, les centres urbains sont confrontés à des problèmes majeurs de congestion de l’espace public et de nuisances sonores. L’optimisation de l’espace public et l’accessibilité au centre-ville constituent ainsi des enjeux prégnants. Le projet Carreta vise à tester une solution durable et innovante pour la livraison de marchandises en ville et à évaluer sa maturité et sa compétence d’un point de vue technologique, environnemental, usuel, économique, sociétal et social . Ces véhicules

automatisés, complémentaires de l’action humaine, sont conçus pour assister les livreurs et les libérer des tâches les plus affreuses ou répétitives (charges lourdes, aller-retours…), afin de leur permettre de se dédier au contact humain.

L’expérimentation en trois phases Durant 36 mois, des petits véhicules électriques autonomes de logistique seront expérimentés sur des missions de livraison. Les cas d’usages portent sur la livraison de

colis pour La Poste et la livraison de produits alimentaires frais pour STEF. Les droïdes, à savoir des petits véhicules, vont rouler, dans un premier temps, systématiquement accompagnés d’une personne, dans le quartier d’Antigone, puis dans le cœur historique de Montpellier. Le projet se déroule en 3 phases : 1. La première phase, qui commence dès le 17 septembre, vise à valider l’ensemble des briques technologiques du véhicule logistique autonome pour valider sa sûreté de fonctionnement ainsi que sa fonctionnalité, notamment sa capacité à cartographier, reconnaître les parcours définis et détecter les possibles obstacles. 2. La seconde phase, qui débutera en 2022, a pour objet de valider le comportement du véhicule autonome vis-à-vis de son environnement de circulation et sa capacité à répondre aux contraintes opérationnelles relatives aux horaires, routes et autres spécificités des cas d’usages STEF et LA POSTE. Durant ces 2 premières phases, le véhicule roulera à vide dans les rues de Montpellier afin de collecter un maximum de données et d’adapter le comportement du véhicule en fonction du retour d’expérience. 3. La troisième et dernière phase consistera en une expérimentation en conditions réelles d’utilisation, le véhicule autonome de logistique transportant les marchandises pour valider sa pertinence pour les cas d’usages identifiés par STEF et LA POSTE.

Projet 2 : Tesla Pourquoi Elon Musk fait diversion avec l'annonce d'un robot humanoïde ? Toujours obsédé par une conception de l'intelligence artificielle héritée de la science-fiction, Elon Musk annonce un projet de robot à forme humaine, baptisé "Tesla Bot". Un prototype serait prévu pour l'année prochaine. Basé sur les technologies d'aide à la conduite de ses voitures, qui est actuellement visée par une enquête aux Etats-Unis pour une série d'accidents, le robot aurait pour but de remplacer les travailleurs humains effectuant certaines tâches dangereuses ou ingrates. Un projet difficilement réalisable en l'état.

Lors d'une conférence baptisée Tesla AI Day, qui s'est en ligne tenue ce 20 août, Elon Musk a annoncé son projet de fabriquer un prototype de robot humanoïde dès 2022. Surnommé Tesla Bot et conçu pour ressembler à un être humain, l'appareil est supposé tirer parti des compétences de Tesla en matière de construction automobile et de technologies de conduite autonome. Une réplique a été présentée sur scène pour montrer le design qu'aura le prototype. Il fera 172 cm de haut, pèsera environ 56 kg, et sera doté d'un écran en guise de visage. Sa perception sera assurée par les capteurs d'Autopilot, et le traitement des informations sera également géré par le système que Tesla utilise dans ses véhicules. Tesla fait état de 40 actuateurs électromécaniques pour les mouvements et de mains "similaires à celles d'un humain".

La question qui se pose est évidemment de savoir si cette annonce est sérieuse et si le projet est réalisable en l'état. La réponse semble assez clairement être "non". Elon Musk a beau être un entrepreneur au succès incontestable (avec Tesla mais aussi et surtout SpaceX), l'annonce de Tesla est en fait farfelue à plus d'un titre.

Déjà parce que la technologie n'est pas encore au point. En matière de robotique, l'équipe à la pointe de l'innovation est celle de Boston Dynamics . Ses robots sont désormais capables de se mouvoir rapidement et de franchir des obstacles dans des environnements relativement complexes. Ils sont pourtant bien loin de pouvoir remplacer le travail d'un être humain, et leur vitesse de course n'est pas tant un problème que leur autonomie sur batterie, très limitée. De plus, l'idée d'un robot dont il faudrait s'enfuir ou contre lequel il faudrait lutter physiquement évoque les récits de science-fiction mais ne correspond pas à la réalité scientifique actuelle, qui est que les machines ne sont pas douées d'une conscience et ne sont pas capables de l'être. Les accidents impliquant des robots, qui sont en revanche une vraie problématique, sont liés soit à une négligence, soit des erreurs de conception. En usine, c'est le champ de recherche dit de la cobotique qui s'intéresse à cette question. LE SYSTÈME D'AIDE À LA CONDUITE DE TESLA SOUS LE COUP D'UNE ENQUÊTE Tesla en sait d'ailleurs quelque chose, puisque ses véhicules sont sous le coup d'une enquête de l'agence américaine de la sécurité routière (NHTSA) pour une série d'accidents causés par son système avancé d'aide à la conduite , que le marketing de l'entreprise a régulièrement présenté comme étant capable (ou très prochainement) de conduire seul alors qu'il n'est pas plus performant que ce que propose la concurrence. Cet écart entre le marketing et la réalité a d'ailleurs été au cœur de plusieurs conflits en interne , l'équipe en charge de ces développements ayant connu de nombreuses démissions. On en viendrait presque à se demander si cette annonce d'un robot n'est pas une tentative de diversion médiatique.

Affaire risquée La technologie Full Self-Driving de Tesla , qui comprend le pilote automatique au nom douteux , est un point de départ pour les développeurs du Tesla Bot. Aussi impressionnante que soit cette technologie, elle s'avère moins que totalement fiable. Les accidents et les décès associés au mode pilote automatique de Tesla – le dernier en date ayant à voir avec les algorithmes qui luttent pour reconnaître les véhicules d'urgence garés – remettent en question la sagesse de relâcher la technologie dans la nature si tôt.

Ce bilan n'augure rien de bon pour les robots humanoïdes qui reposent sur la même technologie. Pourtant, il ne s'agit pas seulement d'obtenir la bonne technologie. Les problèmes du pilote automatique de Tesla sont exacerbés par le comportement humain . Par exemple, certains conducteurs de Tesla ont traité leurs voitures à technologie améliorée comme s'il s'agissait de véhicules entièrement autonomes et n'ont pas prêté suffisamment d'attention à la conduite. Quelque chose de similaire pourrait-il se produire avec le Tesla Bot

Le Tesla Bot est livré avec tout un portefeuille de risques orphelins, y compris des menaces possibles pour la vie privée et l'autonomie". Dans mes travaux sur l'innovation technologique socialement bénéfique, je m'intéresse particulièrement aux risques orphelins. Ce sont des risques difficiles à quantifier et faciles à ignorer et qui finissent inévitablement par faire trébucher les innovateurs. Mes collègues et moi travaillons avec des entrepreneurs et d'autres pour surmonter ces types de défis grâce au Risk Innovation Nexus , une initiative de l' Institut d'entrepreneuriat et d'innovation Orin Edson de l'Arizona State University et du Global Futures Laboratory . Le Tesla Bot est livré avec tout un portefeuille de risques orphelins. Ceux-ci incluent des menaces possibles à la vie privée et à l'autonomie, car le bot collecte, partage et agit sur des informations potentiellement sensibles ; les défis associés à la façon dont les gens sont susceptibles de penser et de réagir aux robots humanoïdes ; les décalages potentiels entre les perspectives éthiques ou idéologiques (par exemple, dans le contrôle de la criminalité ou le maintien de l'ordre dans les manifestations civiles) et plus encore. Ce sont des défis qui sont rarement abordés dans la formation que reçoivent les ingénieurs, et pourtant, les ignorer peut mener au désastre . Alors que le Tesla Bot peut sembler bénin - ou même un peu une blague - s'il doit être bénéfique ainsi qu'un succès commercial, ses développeurs, investisseurs, futurs consommateurs et autres doivent se poser des questions difficiles sur la façon dont il pourrait menacer ce qui est important pour eux et comment gérer ces menaces. Ces menaces peuvent être aussi spécifiques que des personnes effectuant des modifications non autorisées qui augmentent les performances du robot – le faisant se déplacer plus rapidement que prévu par ses concepteurs, par exemple – sans penser aux risques. Ou ils peuvent être aussi généraux que la technologie militarisée de manière innovante. Ils sont également aussi subtils que la façon dont un robot humanoïde pourrait menacer la sécurité de l'emploi, ou comment un robot qui comprend des systèmes de surveillance avancés pourrait porter atteinte à la vie privée. Ensuite, il y a les défis du biais technologique qui affligent l'IA depuis un certain temps, en particulier lorsqu'il conduit à un comportement appris qui s'avère hautement discriminatoire. Par exemple, les algorithmes d'IA ont produit des résultats sexistes et racistes .

I: Perspectives

L’IA DANS LE FUTUR : QUELLES PERSPECTIVES ?

L’intelligence artificielle, marché prolifique, va sans l’ombre d’un doute continuer sa croissance exponentielle dans les décennies à venir. À tel point que certains grands industriels et scientifiques dont l’IA est le cœur de métier, comme Elon Musk, Bill Gates et le regretté Stephen Hawking, s’inquiètent déjà des conséquences que pourraient avoir un potentiel manque de contrôle humain sur les intelligences artificielles développées. Les répercussions que cela pourrait engendrer seraient alors particulièrement inquiétantes : piratage en masse, cyberguerre, explosion du chômage avec un remplacement croissant de métiers… Des perspectives sombres qui ne doivent pas faire oublier **le potentiel extraordinaire de l’IA**, dont l’évolution peut également, selon l’usage que les sociétés décident d’en faire, être source de progrès pour l’Homme et la planète. Dans le domaine médical par exemple, l’impact de l’IA est considérable puisqu’elle permet déjà de **réaliser des diagnostics fiables** et auparavant compliqués et douloureux pour le patient.

T: Terminaison Conclusion L’IA est avant tout une transposition de l’esprit humain au niveau technologique, un outil qui prend forme dans toute sortes d’applications très puissantes mais aussi très complexes. Aujourd’hui encore l’IA est limitée : Contrainte de puissance. Contrainte d’optimisation des calculs. Contrainte d’apprentissage. Contrainte du langage. Elle reste pour l’instant humaine au sens stricte du terme.

les limites d'IA: Les limites de l’intelligence artificielle