Q & R: L’avenir de l’intelligence artificielle

Qu’est-ce que l’intelligence artificielle?
C’est l’étude des méthodes permettant aux ordinateurs de se comporter de manière intelligente. Grosso modo, un ordinateur est intelligent dans la mesure où il fait la bonne chose plutôt que la mauvaise. La bonne chose est l’action qui est le plus susceptible d’atteindre l’objectif ou, en termes plus techniques, l’action qui maximise l’utilité attendue. L’intelligence artificielle comprend des tâches telles que l’apprentissage, le raisonnement, la planification, la perception, la compréhension du langage et la robotique.
Erreur commune
C’est une technologie spécifique. Par exemple, dans les années 1980 et 1990, on voyait souvent des articles confondre l’IA avec des systèmes experts fondés sur des règles; dans les années 2010, on assiste à une confusion entre l’intelligence artificielle et les réseaux de neurones à convolution à couches multiples. C’est un peu comme confondre la physique avec les moteurs à vapeur. Le domaine de l’IA étudie le problème général de la création d’une intelligence dans des machines; ce n’est pas un produit technique spécifique issu de la recherche sur ce problème.
C’est une classe spécifique d’approches techniques. Par exemple, il est courant de voir des auteurs identifier l’IA avec des approches symboliques ou logiques et la confronter avec « d’autres approches » telles que les réseaux de neurones ou la programmation génétique. L’IA n’est pas une approche, c’est un problème. Toute approche du problème compte comme une contribution à l’IA.
C’est une communauté de chercheurs particulière. Ceci se rapporte à la fausse idée précédente. Certains auteurs utilisent le terme « intelligence informatique » pour désigner une communauté de chercheurs supposément distincte utilisant des approches telles que les réseaux de neurones, la logique floue et les algorithmes génétiques. C’est très regrettable car cela incite les chercheurs à ne considérer que des approches acceptées dans leur communauté plutôt que des approches sensées.
L’intelligence artificielle n’est « que des algorithmes ». Ce n’est pas à proprement parler une idée fausse, car les algorithmes (définis de manière approximative en tant que programmes) sont bien entendu les composants des systèmes d’intelligence artificielle, ainsi que de toutes les autres applications des ordinateurs. Cependant, les types de tâches traitées par les systèmes d’intelligence artificielle ont tendance à être très différents des tâches algorithmiques traditionnelles telles que le tri des listes de nombres ou le calcul des racines carrées.
Comment l’IA profitera-t-elle à la société humaine?
Tout ce que la civilisation offre est un produit de notre intelligence. L’intelligence artificielle fournit un moyen d’étendre cette intelligence sur diverses dimensions, de la même manière que les grues nous permettent de transporter des centaines de tonnes, que les avions nous permettent de nous déplacer à des centaines de kilomètres à l’heure et que les télescopes nous permettent de voir des trillions de kilomètres. . Les systèmes d’IA peuvent, s’ils sont correctement conçus, favoriser une plus grande réalisation des valeurs humaines.
Erreur commune
L’intelligence artificielle est nécessairement déshumanisante. Dans de nombreux scénarios dystopiques, certains utilisent mal l’IA pour en contrôler d’autres, que ce soit par la surveillance, des opérations de police robotisées, une « justice » automatisée ou une économie de commandement et de contrôle soutenue par l’IA. Ce sont certes des avenirs possibles, mais pas ceux que la grande majorité des gens appuierait. Par ailleurs, l’intelligence artificielle offre un meilleur accès des êtres humains au savoir humain et à l’apprentissage individuel. l’élimination des barrières linguistiques entre les peuples; et l’élimination de la corvée inutile et répétitive qui ramène les gens au statut de, eh bien, de robots.
L’IA augmentera nécessairement les inégalités. Il est certainement possible qu’une automatisation accrue du travail concentre les revenus et la richesse entre les mains de moins en moins de personnes. Nous avons toutefois le choix quant à la manière dont l’IA est utilisée. En facilitant la collaboration et en reliant les producteurs aux clients, par exemple, cela pourrait permettre à un plus grand nombre de particuliers et de petits groupes de fonctionner de manière indépendante au sein de l’économie plutôt que de dépendre d’emplois de grandes entreprises.
Qu’est-ce que l’apprentissage machine?

C’est la branche de l’IA qui explore les moyens d’amener les ordinateurs à améliorer leurs performances en fonction de l’expérience.
Erreur commune
L’apprentissage automatique est un nouveau domaine qui a largement remplacé l’IA. Cette idée fausse semble être un effet secondaire accidentel de la montée récente de l’intérêt pour l’apprentissage automatique et du grand nombre d’étudiants qui suivent des cours d’apprentissage automatique sans avoir été exposés auparavant à l’IA. L’apprentissage automatique a toujours été au cœur des préoccupations d’Amnesty International: dans son article de 1950, Turing considère l’apprentissage comme la voie la plus plausible vers l’intelligence artificielle.
Les machines ne peuvent pas apprendre, elles ne peuvent faire que ce que leurs programmeurs leur disent de faire. Clairement, le programmeur peut dire à la machine d’apprendre! Samuel était un mauvais joueur de dames, mais son programme a vite appris à être bien meilleur que lui. De nos jours, de nombreuses applications significatives de l’IA sont construites en appliquant l’apprentissage automatique à de grandes quantités de données d’apprentissage.

Qu’est-ce qu’un réseau de neurones?

Un réseau de neurones est une sorte de système informatique inspiré des propriétés fondamentales des neurones biologiques. Un réseau de neurones est composé de nombreuses unités individuelles. Chacune d’elles reçoit l’entrée de certaines unités et envoie la sortie à d’autres. (Les unités ne doivent pas nécessairement avoir une existence physique distincte; elles peuvent être considérées comme des composants d’un programme informatique.) La sortie d’une unité est généralement calculée en prenant une somme pondérée des entrées et en la passant à travers une sorte de simple non linéaire transformation. Une propriété clé est que les poids associés aux liens entre les unités peuvent être modifiés en fonction de l’expérience.
Erreur commune
Les réseaux de neurones sont un nouveau type d’ordinateur. En pratique, presque tous les réseaux de neurones sont mis en œuvre sur des ordinateurs ordinaires à usage général. Il est possible de concevoir des machines spéciales, parfois appelées ordinateurs neuromorphes, pour gérer efficacement les réseaux de neurones, mais jusqu’à présent, elles ne fournissaient pas suffisamment d’avantages pour en valoir le coût et les retards de construction.
Les réseaux de neurones fonctionnent comme des cerveaux. En réalité, les vrais neurones sont beaucoup plus complexes que les unités simples utilisées dans les réseaux de neurones artificiels; il existe de nombreux types de neurones; la connectivité neuronale réelle peut évoluer avec le temps; le cerveau comprend d’autres mécanismes, outre la communication entre neurones, qui affectent le comportement; etc.

Qu’est-ce que l’apprentissage en profondeur?

L’apprentissage en profondeur est une forme particulière d’apprentissage automatique impliquant la formation de réseaux de neurones comportant plusieurs couches d’unités. Il est devenu très populaire ces dernières années et a conduit à une amélioration significative de tâches telles que la reconnaissance d’objets visuels et la reconnaissance de la parole.
Erreur commune
L’apprentissage en profondeur est un nouveau domaine qui a largement remplacé l’apprentissage par la machine. En fait, l’apprentissage en profondeur existe dans la communauté des réseaux de neurones depuis plus de 20 ans. Les progrès récents découlent d’améliorations relativement mineures des algorithmes et des modèles, de la disponibilité de grands ensembles de données et de collections d’ordinateurs beaucoup plus puissantes.

Que sont l’IA forte et l’IA faible?

Les termes « IA forte » et « AI faible » ont été introduits à l’origine par le philosophe John Searle pour faire référence à deux hypothèses distinctes qu’il a attribuées à des chercheurs en IA. Une IA faible était l’hypothèse selon laquelle les machines pourraient être programmées de manière à présenter un comportement intelligent au niveau humain. L’IA forte était l’hypothèse qu’il serait valide d’attribuer une expérience consciente à de telles machines, ou de les décrire comme pensant et comprenant réellement dans le même sens que ces mots sont utilisés pour décrire les humains.
Erreur commune
On entend par « IA forte » la recherche sur l’IA destinée à l’IA polyvalente au niveau humain. C’est certes une interprétation sensée de la phrase, mais ce n’est pas ce qu’elle voulait dire lorsqu’elle a été inventée en 1980. De même, on entend par «IA faible» la recherche en IA visant des tâches spécifiques et étroites telles que la reconnaissance de la parole ou les systèmes de recommandation. (Également appelé «outil IA».) Bien sûr, personne n’a de droits d’auteur sur ces termes, mais réutiliser les termes techniques existants pour signifier quelque chose de tout à fait différent risque de semer la confusion.

Que sont AGI, ASI et la superintelligence?

AGI signifie intelligence générale artificielle, un terme destiné à souligner l’objectif ambitieux de la construction de systèmes intelligents polyvalents, dont l’étendue des possibilités d’application est au moins comparable à l’éventail de tâches pouvant être traitées par l’homme. ASI est synonyme de surintelligence artificielle: une intelligence artificielle qui dépasse largement l’intelligence humaine. Plus précisément, un système superintelligent est plus capable qu’un humain de prendre des décisions de haute qualité qui tiennent compte de plus d’informations et se projettent plus loin dans le futur.
Erreur commune
Les chercheurs en intelligence artificielle traditionnels ne se soucient pas de l’AGI. Bien que certains chercheurs dans des sous-domaines tels que la reconnaissance vocale s’intéressent principalement aux objectifs spécifiques de leur sous-domaine et d’autres essentiellement à trouver des applications commerciales à la technologie existante, j’ai l’impression que la plupart des chercheurs en intelligence artificielle dans des sous-domaines tels que l’apprentissage, le raisonnement, et la planification considère que ce qu’ils font contribue à la solution d’un sous-problème de réalisation de l’IA à usage général.
Les humains sont généralement intelligents. Cette affirmation est souvent considérée comme tellement évidente qu’il ne vaut guère la peine de la mentionner explicitement; mais cela sous-tend presque toutes les discussions sur AGI. Il s’appuie généralement sur le très large éventail de tâches et de tâches que les humains peuvent accomplir. Mais bien sûr, il n’y a pas d’occupation humaine que l’homme ne puisse faire, il n’est donc pas surprenant que l’homme puisse exercer une large gamme d’occupations humaines existantes. Il est difficile d’arriver à une définition de la largeur totalement indépendante de nos préoccupations et de nos préjugés centrés sur l’être humain. Nous restons donc avec l’affirmation que les humains sont généralement intelligents en ce sens qu’ils peuvent faire tout ce qu’ils peuvent faire. Nous pouvons encore trouver un moyen de dire de manière significative qu’ils peuvent faire beaucoup, mais jusqu’à présent, la question reste ouverte.

Quelle est la loi de Moore?

La « loi de Moore » fait référence à un certain nombre d’observations et de prévisions relatives à la croissance exponentielle de la densité et / ou des performances des circuits électroniques. Un résumé moderne utile, qui ne correspond pas aux déclarations originales de Moore, est que le nombre d’opérations par seconde, par dollar dépensé, double tous les N mois, où N est d’environ 18.
Erreur commune
La loi de Moore est une loi de la physique. En fait, il s’agit d’une observation empirique sur les progrès de la technologie; rien n’oblige à continuer, et bien sûr, il ne peut pas continuer indéfiniment. Déjà, les augmentations de la vitesse d’horloge ont atteint un plateau, et les améliorations actuelles du rapport prix / performances proviennent de l’augmentation du nombre de cœurs (unités de traitement) sur une seule puce.
Les machines sont de plus en plus rapides et la création de meilleurs algorithmes est une perte de temps. En fait, les améliorations simples apportées aux algorithmes sont souvent beaucoup plus importantes que les améliorations apportées au matériel.

La loi de Moore nous permet-elle de prévoir l’arrivée de la surintelligence?

Non. Il y a beaucoup de choses que les systèmes d’IA ne peuvent pas faire, telles que la compréhension de textes complexes en langage naturel; ajouter de la vitesse signifie, dans de nombreux cas, obtenir les mauvaises réponses plus rapidement. La surintelligence nécessite des avancées conceptuelles majeures. Celles-ci ne peuvent pas être prédites facilement et ont peu à voir avec la disponibilité de machines plus rapides.
Erreur commune
Rendre les machines plus puissantes signifie accroître leur intelligence. C’est un thème très courant dans les discussions sur l’avenir de l’IA, mais il semble reposer sur une confusion entre la façon dont nous utilisons le mot «puissant» pour décrire l’intellect humain et le sens beaucoup plus simple du mot «puissant» dans la description des ordinateurs, c.-à-d. nombre d’opérations par seconde.

Quel est le QI de la machine?

Le QI de la machine n’existe pas. Dans la mesure où les capacités intellectuelles d’un individu sont fortement corrélées entre de nombreuses tâches, on peut dire que les humains ont un QI, bien que de nombreux chercheurs contestent l’utilité de toute échelle unidimensionnelle. D’autre part, les capacités d’une machine donnée peuvent être complètement décorrélées: une machine peut battre le champion du monde aux échecs et pourtant être totalement incapable de jouer aux dames ou à tout autre jeu de plateau. Une machine peut gagner des concours de quiz sans être capable de répondre à une question simple telle que « Quel est ton nom? »
Erreur commune
Machine IQ augmente selon la loi de Moore. Comme le quotient intellectuel de la machine n’existe pas, il ne peut pas être en augmentation; et la loi de Moore ne traite que du débit de traitement brut et n’a aucun lien avec l’existence d’algorithmes capables de réaliser une tâche donnée.

Qu’est-ce qu’une explosion de renseignement?

Le terme « explosion de l’intelligence » a été inventé par I.J. Good en 1965, dans l’essai « Spéculations concernant la première machine ultra-intelligente ». Il fait référence à la possibilité qu’une machine suffisamment intelligente puisse redéfinir ses propres matériels et logiciels pour créer une machine encore plus intelligente, capable de répéter le processus jusqu’à ce que « l’intelligence de l’homme soit laissée loin derrière ».
Erreur commune
Une explosion de l’intelligence est inévitable lorsque les machines atteignent une intelligence humaine. Au contraire: il est logiquement possible que le problème de conception de la génération N + 1 soit trop difficile pour une machine de génération N. Il est également probable que les machines que nous construirons seront surhumaines sous certains aspects importants, mais soushumaines sous d’autres; en particulier, il est possible que les machines soient plus capables que les humains de résoudre des problèmes importants tels que la réduction de la pauvreté, la guérison du cancer, etc., sans être capables de mener une recherche révolutionnaire sur l’IA.

Quand les systèmes d’IA deviendront-ils plus intelligents que les gens?

Il est difficile de répondre à cette question pour plusieurs raisons. Premièrement, le mot « volonté » suppose qu’il s’agit d’une question de prévision, tout comme de prévision du temps, alors qu’en réalité, elle inclut un élément de choix: il est peu probable que cela se produise si nous, les humains, décidons de ne pas le poursuivre, par exemple. Deuxièmement, l’expression « plus intelligent » suppose une seule échelle linéaire d’intelligence, qui n’existe pas vraiment. Déjà, les machines sont bien meilleures à certaines tâches que les humains et, bien sûr, bien pires à d’autres. Troisièmement, si nous admettons qu’il existe une notion utile d’intelligence «polyvalente» pouvant être développée dans des machines, la question commence à prendre un sens; mais il est toujours très difficile de répondre. La réalisation de ce type de renseignement nécessiterait des avancées significatives dans la recherche sur l’IA et il est très difficile de prédire. La plupart des chercheurs en IA pensent que cela pourrait se produire au cours de ce siècle.
Erreur commune
Cela n’arrivera jamais. Faire des prédictions sur les percées scientifiques est notoirement difficile. Le 11 septembre 1933, Lord Rutherford, peut-être le plus célèbre physicien nucléaire de son temps, a déclaré devant un public nombreux lors de la réunion annuelle de l’Association britannique pour le progrès de la science: « Quiconque cherche une source de pouvoir pour transformer les atomes parlent moonshine.  » (Il a dit la même chose à maintes reprises en utilisant de nombreuses formulations, toutes indiquant essentiellement qu’il était impossible de libérer de l’énergie nucléaire.) Le lendemain matin, Leo Szilard a inventé la réaction en chaîne nucléaire induite par neutrons et a rapidement fait breveter le réacteur nucléaire.

Que peuvent faire les systèmes d’intelligence artificielle maintenant?

L’éventail des tâches exécutées par des machines à un niveau acceptable est beaucoup plus large qu’il ne l’était il y a quelques années. Cela inclut jouer à des jeux de société et à des jeux de cartes, répondre à des questions simples et extraire des faits à partir d’articles de journaux, assembler des objets complexes, traduire du texte d’une langue à une autre, reconnaître la parole, reconnaître de nombreux types d’objets dans les images et conduire une voiture dans des conditions « normales ». « conditions de conduite. Les systèmes d’IA exécutent de nombreux types de tâches moins évidents, notamment la détection des transactions frauduleuses par carte de crédit, l’évaluation des demandes de crédit et les enchères dans le cadre d’enchères complexes de commerce électronique. La plupart des fonctions d’un moteur de recherche sont en fait des formes simples d’IA.
Erreur commune
Une tâche telle que « jouer aux échecs » est la même tâche pour les machines que pour les humains. Ceci est une hypothèse trompeuse; le niveau de « prise en main » est généralement beaucoup plus élevé pour les machines. Les humains apprennent les échecs en écoutant ou en lisant les règles, en regardant et en jouant. Un programme d’échecs typique n’a pas une telle capacité; les règles sont directement programmées dans la machine sous la forme d’un algorithme qui génère tous les mouvements légaux pour une position donnée. La machine ne « connaît » pas les règles dans le même sens que l’homme. Certains travaux récents sur l’apprentissage par renforcement constituent une exception: par exemple, le système de DeepMind pour jouer à des jeux vidéo apprend chaque jeu complètement à partir de zéro. Nous ne savons pas vraiment ce qu’il apprend, mais il semble peu probable que ce soit l’apprentissage des règles de chaque jeu.
Les machines effectuent les tâches de la même manière que les humains. Souvent, nous ne savons pas comment les humains font les choses, mais il est très peu probable que cela corresponde aux opérations d’un programme d’IA typique. Par exemple, les programmes d’échecs considèrent les futures séquences possibles de mouvements à partir de l’état actuel du conseil et comparent les résultats, tandis que les humains découvrent souvent un avantage potentiel, puis travaillent en arrière pour trouver une séquence de mouvements permettant de l’obtenir.
Si une machine peut effectuer une tâche X donnée, elle peut effectuer toutes les tâches qu’un utilisateur peut probablement effectuer si elle le peut. Voir la question sur le QI de la machine; À l’heure actuelle, les machines n’ont pas une intelligence polyvalente au même titre que les humains. Leurs capacités sont donc souvent très étroites.

Quel sera l’impact d’Amnesty International sur la société humaine dans un avenir proche?

Il est fort probable que certaines innovations majeures émergeront dans un avenir proche. La voiture autonome est déjà en cours de développement et de test, et certaines entreprises promettent de faire leurs premières livraisons dans un avenir proche. (D’autres entreprises sont plus prudentes, reconnaissant les difficultés rencontrées.) Grâce aux améliorations de la vision par ordinateur et à la locomotion volontaire, les robots pour environnements non structurés deviennent pratiques; Il peut s’agir notamment d’agriculture et de services et d’aider les humains (en particulier les personnes âgées et les infirmes) à effectuer leurs tâches ménagères. Enfin, au fur et à mesure que les machines comprennent mieux la langue, les moteurs de recherche et les « assistants personnels » sur téléphones mobiles vont passer de l’indexation aux pages Web à la compréhension des pages Web, ce qui se traduira par une amélioration qualitative de leur capacité à répondre aux questions, à synthétiser de nouvelles informations, à offrir des relier les points. L’intelligence artificielle peut également avoir un impact considérable sur des domaines scientifiques, tels que la biologie des systèmes, où la complexité et le volume de l’information défient les capacités humaines.
Erreur commune
Les robots sont sur le point de « prendre le relais ». Voir Quand les systèmes d’IA vont-ils devenir plus intelligents que les gens? La grande majorité des progrès de l’IA est progressive et vise à rendre les ordinateurs et les robots plus utiles. La question du maintien du contrôle humain est néanmoins importante à long terme.

Les progrès de l’IA et de la robotique vont-ils supprimer la majorité des tâches actuellement effectuées par des humains?

Certaines études – par exemple, Frey et Osborne (2013) – suggèrent que près de la moitié des emplois américains sont vulnérables à l’automatisation dans un proche avenir; Brynjolfsson et McAfee (2011), d’autres auteurs, soutiennent que le processus a déjà commencé: le lent retour au plein emploi après la récession de 2008 et la divergence entre l’amélioration de la productivité et la stagnation des salaires sont les conséquences de l’automatisation croissante des métiers impliquant processus de routine. En supposant que les progrès en matière d’intelligence artificielle et de robotique se poursuivent, il semble inévitable que davantage de professions soient affectées. Cela ne signifie pas nécessairement un chômage massif, mais cela peut entraîner un changement majeur dans la structure de l’économie et nécessiter de nouvelles idées pour l’organisation du travail et la rémunération.
Erreur commune
Tout travail effectué par un robot signifie moins de travail pour les humains. Le travail n’est pas une somme nulle: une personne aidée par une équipe de robots peut être beaucoup plus productive et donc beaucoup plus sollicitée; sans l’aide de robots, le travail qu’une personne pourrait effectuer dans le cadre d’une entreprise particulière pourrait ne pas être économiquement viable et aucun travail ne serait effectué par la personne ou les robots. De même, la disponibilité des pinceaux et des rouleaux fait travailler les peintres: si la peinture devait être appliquée goutte à goutte à l’aide d’une aiguille, nous n’aurions pas les moyens de faire appel à des peintres pour peindre des maisons.

Que sont les drones, les armes autonomes et les robots tueurs?

Les drones sont des aéronefs contrôlés à distance par des humains. certains portent des armes (généralement des missiles) qui peuvent être libérées par le contrôleur humain. Une arme autonome est un dispositif qui sélectionne et « engage » automatiquement une cible (c’est-à-dire tente de la détruire). Les systèmes actuels comprennent les mitrailleuses fixes autoportantes utilisées dans la zone démilitarisée coréenne et divers types de systèmes antimissiles embarqués. Il devient rapidement techniquement possible de remplacer le contrôleur de drone humain par un système entièrement automatisé, ce qui aboutirait au type de système d’armes autonomes létales (LAWS) qui fait l’objet de discussions à la CCW (réunions des Nations Unies à Genève sur « Certaines technologies conventionnelles »). Armes »). Le terme « robot tueur » est destiné à couvrir cette classe d’armes, qui peut inclure des véhicules à roues ou à pattes, ainsi que des navires, des avions, des sous-marins et même des « insectes » artificiels volants.
Erreur commune
Les armes entièrement autonomes sont dans 20-30 ans. De nombreux articles sur les discussions de LAWS à Genève ont répété cette affirmation. Sa source n’est pas claire, mais cela semble être une surestimation. La technologie permettant de déployer des armes autonomes est en grande partie en place et les tâches d’ingénierie semblent être plus faciles que celles liées à la création de voitures autonomes (en partie parce que les exigences en matière de fiabilité des armes sont beaucoup moins strictes). Le ministère de la Défense du Royaume-Uni a déclaré que, dans certains contextes peu encombrés tels que les engagements navals, des armes entièrement autonomes sont « probablement réalisables maintenant ».
Si nous avons des armes autonomes, aucun être humain ne doit mourir dans une guerre. Les guerres sont généralement poursuivies jusqu’à ce que l’une des parties se rende en raison de pertes insoutenables ou de la fin de la capacité du pays à défendre sa population. Il est peu probable qu’un pays dise: «OK, nos robots ont été perdus, alors nous nous rendons et vous pouvez nous asservir», pas plus que les nations ne disent «OK, nous avons perdu le match Tiddlywinks, alors nous nous rendons et vous pouvez nous asservir.
Les machines sont ou seront bientôt meilleures que les humains pour faire la distinction entre combattants et non-combattants, nous devrions donc utiliser des machines pour combattre les guerres. Premièrement, en droit international humanitaire (DIH), une attaque requiert non seulement la capacité de discriminer, mais également celle de juger de la nécessité militaire et de la proportionnalité (entre la valeur de l’objectif militaire et les dommages collatéraux attendus). Deuxièmement, le respect du DIH n’est pas le seul problème. Les armes autonomes peuvent fonctionner comme des armes de destruction massive évolutives, car le nombre d’armes lancées peut être complètement découplé du nombre de personnes requis pour les contrôler. On s’inquiète particulièrement des essaims massifs d’armes anti-personnel qui pourraient entraîner des pertes comparables à celles d’une attaque nucléaire.

Avons-nous besoin de nous inquiéter de la mort de robots tueurs ou de conquérir le monde?

Si des armes autonomes sont déployées, elles se heurteront aux mêmes difficultés que les soldats humains dans la distinction entre amis et civils, civils et combattants. Il peut y avoir des accidents tactiques entraînant la mort de civils ou le robot peut être compromis par le brouillage et la cyberattaque. En raison de ce dernier problème, certains experts militaires prédisent que les armes autonomes devront peut-être être des systèmes fermés fonctionnant sans communication électronique; Cela peut rendre plus difficile le remplacement du contrôleur autonome si le système se comporte de manière incorrecte. Mais dans un avenir prévisible, les armes autonomes auront probablement une nature tactique et des missions de portée limitée. Il est hautement improbable qu’ils soient programmés pour élaborer leurs propres plans à l’échelle mondiale.
Erreur commune
Nous pouvons simplement appuyer sur le bouton « off ». Un bouton « off » rendrait toute arme autonome vulnérable aux cyberattaques. De tels canaux de communication pourraient bien être désactivés en temps de guerre. De plus, un système généralement intelligent ayant pour mission de mener à bien une mission est motivé pour empêcher que son bouton « off » ne soit enfoncé.

Quel est le « risque existentiel » de l’IA? Est-ce que c’est réel?

Les alertes précoces sur le risque de l’IA étaient plutôt vagues. Turing lui-même, dans une allocution radiophonique de 1951, a jugé nécessaire de souligner le risque de l’intelligence artificielle superintelligente: « Si une machine peut penser, elle pourrait penser plus intelligemment que nous, et ensuite, où devrions-nous nous situer? machines subordonnées, par exemple en coupant le courant à des moments stratégiques, nous devrions, en tant qu’espèce, nous sentir profondément humiliés (…) [C] est que son nouveau danger (…) est certainement quelque chose qui peut nous inquiéter.  » I. J. Good ajoute à sa prédiction concernant les avantages d’une explosion de l’intelligence « que la machine est suffisamment docile pour nous dire comment la garder sous contrôle ». On a généralement l’impression que la présence d’entités superintelligentes sur notre planète pourrait être une source de préoccupation; D’un autre côté, nous trouvons généralement que les machines plus intelligentes sont plus utiles, il n’est donc pas évident de les rendre plus intelligentes. En fait, l’argument est assez simple:
Supposons qu’un système superintelligent est conçu pour atteindre un certain objectif spécifié par le concepteur humain; et supposons que l’objectif ne soit pas parfaitement aligné avec les valeurs de la race humaine, qui sont (au mieux) très difficiles à cerner.
Tout système intelligent suffisamment performant préférera assurer sa propre existence et acquérir des ressources physiques et informatiques, non pour lui-même, mais pour mener à bien la tâche qui lui est assignée.
Maintenant, nous avons un problème. Il s’agit essentiellement de la vieille histoire du génie de la lampe, ou de l’apprenti sorcier, ou du roi Midas: vous obtenez exactement ce que vous demandez, pas ce que vous voulez. En 1960, Norbert Wiener, pionnier de la théorie de l’automation et du contrôle, écrivait: « Si nous utilisons, pour atteindre nos objectifs, une agence de mécanique avec laquelle nous ne pouvons pas intervenir efficacement, nous devons être tout à fait sûrs que le but de la machine est: le but que nous désirons vraiment.  » Marvin Minsky a donné l’exemple d’une machine demandant de calculer autant de chiffres de pi que possible; Nick Bostrom a donné l’exemple de demander beaucoup de trombones. Un humain ayant un tel objectif l’interpréterait dans le contexte des objectifs humains généraux, ce qui implique que couvrir la Terre entière avec des serveurs de calcul ou des trombones n’est pas une bonne solution. Une machine très intelligente, en particulier une machine connectée via Internet à toutes les informations du monde, à des milliards d’écrans et à la plupart de nos infrastructures, peut avoir un impact irréversible sur l’humanité. Heureusement, la nature du problème étant maintenant un peu plus claire, il est possible de commencer à travailler sur des solutions.
Erreur commune
Les machines superintelligentes deviennent spontanément conscientes ou sont intrinsèquement mauvaises et détestent les humains. Les auteurs de science-fiction ont tendance à en assumer un ou plusieurs afin de créer une opposition entre les machines et les humains. De telles hypothèses sont inutiles et non motivées.
Nous, humains, développons des systèmes d’IA, alors pourquoi nous détruirions-nous? Certains « défenseurs » de l’intelligence artificielle ont fait valoir que, du fait que les humains construisent des systèmes d’IA, il n’y a aucune raison de penser que nous en construirions un dont l’objectif est de détruire la race humaine. Cela manque le but de l’argument, qui est que l’intention délibérée du mal de la part du concepteur ou de l’agent n’est pas une condition préalable à l’existence d’une menace existentielle; le problème provient d’une mauvaise spécification des objectifs.
Cela n’arrivera jamais. Voir « Quand les systèmes d’IA deviendront-ils plus intelligents que les gens? »

Pourquoi les gens s’inquiètent-ils soudainement de l’IA?

Depuis 2014, les médias ont régulièrement rendu compte des préoccupations exprimées par des personnalités telles que Stephen Hawking, Elon Musk, Steve Wozniak et Bill Gates. Les rapports citent généralement les cas les plus pénibles et omettent les raisons sous-jacentes et la substance des préoccupations, qui sont similaires à celles décrites dans la rubrique « Quel est le » risque existentiel « lié à l’IA? » Dans de nombreux cas, les préoccupations sont basées sur une lecture du livre de Nick Bostrom, Superintelligence. Une autre raison de la vague d’intérêt actuelle pour le sujet est le fait que les progrès en matière d’intelligence artificielle semblent s’accélérer. Cette accélération est probablement due à une combinaison de facteurs, notamment une base théorique solidifiant progressivement les différents domaines de l’IA en un tout plus unifié et une augmentation rapide des investissements commerciaux dans la recherche sur l’IA alors que les résultats des laboratoires universitaires atteignent le niveau de qualité atteint. auquel il peut être appliqué pour résoudre des problèmes du monde réel.
Erreur commune
Si les gens sont inquiets, l’intelligence artificielle superintelligent doit être au coin de la rue. Les chercheurs en intelligence artificielle pensent que peu, voire pas du tout, de super machines intelligentes sont au coin de la rue. (Voir « Quand les systèmes d’intelligence artificielle deviendront-ils plus intelligents que les personnes? ») Cela ne signifie pas que nous devrions attendre jusqu’à ce qu’ils le soient avant de prendre le problème au sérieux! Si nous découvrions un astéroïde de 10 miles de large sur une trajectoire qui heurtera la Terre dans 50 ans, le révoquerions-nous pour lui dire « Je ferai attention à tout cela dans 5 ans »?

Comment l’IA progressera-t-elle au cours des prochaines décennies?

Il semble très probable que les domaines ne requérant pas d’intelligence générale au niveau humain atteindront la maturité et créeront des produits fiables et de haute qualité, probablement au cours de la prochaine décennie. Celles-ci incluent la reconnaissance de la parole, l’extraction d’informations pour des éléments factuels simples, la reconnaissance visuelle d’objets et de comportements, la manipulation robotique d’objets du quotidien et la conduite autonome. Les efforts visant à améliorer la qualité et à élargir le champ d’application des systèmes de compréhension de texte et de vidéo et à rendre les robots domestiques plus robustes et généralement utiles donneront lieu à des systèmes présentant des connaissances sensées, associant apprentissage et performances à travers toutes ces modalités. Les systèmes spécialisés d’acquisition et d’organisation des connaissances scientifiques et de gestion d’hypothèses complexes auront probablement un impact très important en biologie moléculaire, en biologie des systèmes et en médecine; nous pourrions commencer à constater des effets similaires dans les sciences sociales et dans l’élaboration des politiques, en particulier du fait de l’augmentation considérable du nombre de données lisibles par machine sur les activités humaines et de la nécessité pour les machines de comprendre les valeurs humaines si elles sont réellement utiles. Les sources de connaissances publiques et privées – des systèmes connaissant et raisonnant le monde réel, et pas seulement des référentiels de données – deviendront des parties intégrantes de la société.

Qu’est-ce que « l’alignement des valeurs »? Pourquoi est-ce important?

L’alignement des valeurs consiste à aligner les valeurs (objectifs) des machines sur celles de l’homme, afin que le choix optimal de la machine soit, grosso modo, tout ce qui rend les humains plus heureux. Sans cela, il existe un risque non négligeable que des machines superintelligieuses soient hors de notre contrôle.
Erreur commune
Tout ce dont nous avons besoin, ce sont les lois d’Asimov. Les lois d’Asimov sont essentiellement une reconnaissance de dette: elles ont suffisamment de sens pour qu’un humain puisse constituer la base de divers intrigues narratives, mais elles ne contiennent quasiment aucune information utile pour un robot sans autre développement. Leur structure de base en tant qu’ensemble de règles plutôt qu’en tant que fonction d’utilité est problématique: leur structure lexicographique (par exemple, le fait que tout dommage causé à l’homme soit strictement plus important que tout dommage causé à un robot) signifie qu’il n’y a pas de place pour l’incertitude ou le compromis. . Le robot doit sauter d’une falaise, se détruisant lui-même, pour attraper un moustique qui pourrait, à une date ultérieure, mordre un être humain. En outre, il doit bloquer la porte de la voiture de l’homme, car le fait de monter dans la voiture expose celui-ci à un risque accru de préjudice. Enfin, avec une approche basée sur la maximisation de l’utilité humaine, la troisième loi (auto-préservation du robot) n’est plus nécessaire, car un robot qui ne préserve pas sa propre existence ne peut pas contribuer à l’utilité humaine et décevrait certainement son propriétaire.

Que fait la communauté de l’IA face au risque existentiel?

Une grande partie de la discussion sur les risques existentiels liés à l’IA s’est déroulée en dehors de la communauté de l’IA, ce qui a initialement entraîné des réactions essentiellement négatives de la part des chercheurs. En 2008, l’AAAI a constitué un groupe d’experts chargé d’étudier la question. Le rapport intérimaire du groupe d’experts notait l’existence de questions à long terme, mais minimisait la notion selon laquelle l’intelligence artificielle présentait un risque pour l’humanité. Plus récemment, une conférence organisée à Porto Rico en janvier 2015 et parrainée par le Future of Life Institute a abouti à la publication d’une lettre ouverte, signée par les participants puis par plus de 8 700 autres personnes, appelant à une recherche centrée sur le sujet. et proposer un programme de recherche plus détaillé. Peu de temps après, Elon Musk a octroyé une subvention de 10 millions de dollars pour soutenir la recherche dans ce domaine. De plus, Eric Horvitz a financé une étude à long terme qui devrait permettre de suivre l’évolution du problème et de faire des suggestions de politique en fonction des besoins. Cinq entreprises technologiques majeures ont formé le Partenariat sur l’IA pour répondre aux questions à court et à long terme sur l’éthique et la sécurité de l’IA. Enfin, AAAI a formé un comité permanent sur l’impact de l’intelligence artificielle et des questions éthiques et l’IEEE a lancé un processus visant à élaborer des politiques relatives à la sécurité de l’intelligence artificielle ainsi qu’aux armes autonomes.
Erreur commune
Il est impossible de réglementer ou de contrôler la recherche. Certains ont fait valoir qu’il n’y avait aucun moyen d’éviter des résultats négatifs, car les avancées de la recherche sont imparables et ne peuvent être réglementées. En fait, l’affirmation elle-même est fausse: la conférence Asilomar de 1975 sur l’ADN recombinant a imposé avec succès un moratoire volontaire sur les expériences visant à créer des modifications génétiques héréditaires chez l’homme, qui dure depuis et est devenue une norme internationale. De plus, si la recherche sur l’intelligence artificielle au niveau humain se poursuit, ce qui pourrait bien se produire, il est d’autant plus important d’entamer une recherche sérieuse sur les méthodes permettant de garantir que les systèmes d’IA restent sous notre contrôle.

Que puis-je faire pour aider?

Si vous êtes un chercheur en IA (ou un économiste, un éthicien, un politologue, un futuriste ou un avocat qui s’intéresse à ces questions), l’agenda de recherche contient des idées et des sujets issus de la conférence 2015 de Porto Rico. Il est probable que des ateliers seront organisés en association avec les principales conférences d’IA, les séries de symposium AAAI d’automne et de printemps, etc. Les sites Web de FHI, CSER, FLI, MIRI et du Centre pour l’IA compatible avec les humains à Berkeley contiennent beaucoup information.
Erreur commune
Il n’y a rien à faire: ces choses vont arriver et aucune action de notre part ne peut changer l’avenir. Rien ne pourrait être plus éloigné de la vérité. Nous ne pouvons pas prévoir l’avenir car nous faisons l’avenir. C’est un choix collectif.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *