Éthique de l'intelligence artificielle

L'éthique de l'intelligence artificielle est le domaine de l'éthique de la technologie (en) propre aux robots et autres entités artificiellement intelligents. Il est généralement divisé en roboéthique, qui se préoccupe de l'éthique humaine pour guider la conception, la construction et l'utilisation des êtres artificiellement intelligents, et l'éthique des machines (en), préoccupée par le comportement moral des agents moraux artificiels.

Pour l'aspect philosophique de l'intelligence artificielle, voir Philosophie de l'intelligence artificielle.

Roboéthique

La « roboéthique » envisage l'aspect éthique de la conception, la construction, l'utilisation, et le traitement des robots par les humains[1]. Elle considère à la fois comment des êtres artificiellement intelligents peuvent être utilisés pour nuire à l'homme et comment elles peuvent être utilisées au profit de celui-ci.

Droits des robots

Les droits des robots sont les obligations morales de la société vis-à-vis de ses machines, similairement aux droits de l'homme et aux droits des animaux[2]. Il peut s'agir du droit à la vie et à la liberté, à la liberté de pensée et d'expression et à l'égalité devant la loi[3]. La question a été examinée par l'Institute for the Future[4] et par le Department of Trade and Industry du Royaume-Uni[5].

Les experts ne s'accordent pas pour déterminer si des lois spécifiques et détaillées seront requises dans un avenir lointain[5]. Glenn McGee rapporte qu'un grand nombre de robots humanoïdes peuvent apparaître d'ici 2020[6]Ray Kurzweil fixe la date à 2029[7]. Un autre groupe de scientifiques réunis en 2007 a supposé qu'au moins 50 ans devaient passer avant qu'un système suffisamment avancé n'existe[8].

Atteinte à la vie privée

Le premier cercle d'Aleksandr Solzhenitsyn décrit l'utilisation de la technologie de la reconnaissance vocale au service de la tyrannie[9]. Si un programme d'IA existe qui peut comprendre les voix et les langues naturelles, alors, avec une puissance de traitement adéquate, il pourrait théoriquement écouter chaque conversation téléphonique et lire chaque courriel dans le monde, les comprendre et rendre compte ce qu'est dit et par qui. Un programme d'IA comme celui-ci pourrait permettre aux gouvernements ou à d'autres entités de supprimer efficacement la dissidence et d'attaquer leurs ennemis.

Atteinte à la dignité humaine

Joseph Weizenbaum a soutenu en 1976 que la technologie de l'IA ne devrait pas être utilisée pour remplacer des personnes dans des positions qui exigent le respect et les soins, tels que :

  • Un représentant du service à la clientèle (la technologie AI est déjà utilisée aujourd'hui pour les systèmes téléphoniques interactifs de réponse vocale)
  • Un thérapeute (comme le proposait sérieusement Kenneth Colby dans les années 1970)
  • Une assistance aux personnes âgées (comme l'a rapporté Pamela McCorduck dans son livre The Fifth Generation)
  • Un soldat
  • Un juge
  • Un policier

Weizenbaum explique que nous avons besoin d'authentiques sentiments et d'empathie de la part des personnes occupant ces postes. Si les machines les remplacent, nous nous retrouverons aliénés, dévalués et frustrés. L'intelligence artificielle, si elle est utilisée de cette façon, représente une menace pour la dignité humaine[10].

Le fondateur d'IA John McCarthy s'oppose au ton moralisateur de la critique de Weizenbaum. « Quand la moralisation est à la fois véhémente et vague, elle invite l'abus autoritaire », écrit-il.

Bill Hibbard (en)[11] écrit que « la dignité humaine exige que nous nous efforcions d'éliminer notre ignorance de la nature de l'existence, et l'IA est nécessaire pour cet effort. »

Transparence et open source

Bill Hibbard soutient que parce que l'IA aura un effet profond sur l'humanité, les développeurs d'IA sont des représentants de l'humanité future et ont donc l'obligation éthique d'être transparents dans leurs travaux[12]. Ben Goertzel et David Hart ont créé OpenCog, un cadre open source pour le développement de l'IA[13] OpenAI est une société de recherche à but non lucratif créée par Elon Musk, Sam Altman et d'autres pour développer l'IA open source[14].. Il existe de nombreux autres développements Open Source d'intelligence artificielle.

Intelligence artificielle et armes autonomes

Certains experts et universitaires ont mis en doute l'utilisation de robots pour le combat militaire, surtout lorsque ces robots sont dotés d'un certain degré d'autonomie[15],[16]. La Marine américaine a financé un rapport qui indique que, à mesure que les robots militaires deviennent plus complexes, il faudrait accorder plus d'attention aux implications de leur autonomie[17],[18]. Un chercheur affirme que les robots autonomes pourraient être plus humains, car ils pourraient prendre des décisions plus efficacement [réf. souhaitée].

Les armes autonomes avec IA peuvent présenter un type de danger différent de celui des armes commandées par des humains. De nombreux gouvernements ont commencé à financer des programmes pour développer l'armement à base d'intelligence artificielle. La marine des États-Unis a annoncé des plans de développement des drones de combats autonomes, en parallèle des annonces similaires de la Russie et de la Corée.

En ce qui concerne la possibilité d'utiliser militairement des systèmes plus intelligents, l'Open Philanthropy Project écrit que ce scénario « semble potentiellement être aussi important que les risques liés à la perte de contrôle », mais que les organismes de recherche qui enquêtent sur l'impact social à long terme des IA ont consacré relativement peu de temps à cette préoccupation : « cette classe de scénarios n'a pas été un axe majeur pour les organisations les plus actives dans ce domaine, comme la Machine Intelligence Research Institute (MIRI) et Future of Humanity Institute (FHI) , il semble y avoir eu moins d'analyses et de débats à leur sujet »[19].

Lettres ouvertes de la communauté de l'IA

« Priorités de recherche pour une intelligence artificielle robuste et bénéfique » (2015)

Stephen Hawking, Elon Musk, Max Tegmark et plusieurs autres de la communauté internationale en intelligence artificielle et en robotique ont signé une Lettre ouverte sur l'intelligence artificielle[20] du Future of Life Institute (Institut de l'avenir de la vie). Cette lettre « RESEARCH PRIORITIES FOR ROBUST AND BENEFICIAL ARTIFICIAL INTELLIGENCE » fait référence à un article publié séparément sur les priorités en recherche sur l'IA.

« Armes autonomes : une lettre ouverte de chercheurs en IA et en robotique » (2015)

Une lettre ouverte « AUTONOMOUS WEAPONS : AN OPEN LETTER FROM AI & ROBOTICS RESEARCHERS » sur les armes autonomes est publiée[21] : « Si une puissance militaire majeure avance avec le développement de l'arme de l'intelligence artificielle, une course aux armements mondiale est pratiquement inévitable, et le point final de cette trajectoire technologique est évident : les armes autonomes deviendront les Kalachnikov de demain », dit la pétition, qui inclut le co-fondateur de Skype, Jaan Tallinn et professeur de linguistique du MIT Noam Chomsky en tant que partisans supplémentaires contre l'armement des IA[22]. Le message porté par Hawking et Tegmark indique que les armes d'AI représentent un danger immédiat et que des mesures sont nécessaires pour éviter une catastrophe dans un avenir proche[23].

« Lettre ouverte à la Convention des Nations unies sur certaines armes classiques » (2017)

Une autre lettre ouverte[24] au sujet de la Convention sur certaines armes classiques des Nations unies cible spécifiquement le bannissement des armes autonomes dans le cadre des Nations unies. Cette lettre, « AN OPEN LETTER TO THE UNITED NATIONS CONVENTION ON CERTAIN CONVENTIONAL WEAPONS » , est signée par Elon Musk de Tesla et par Mustafa Suleyman (en) d'Alphabet ainsi que par 116 spécialistes de 26 pays.

« Les armes létales autonomes menacent de devenir la troisième révolution en armement. Une fois développées, ces armes permettront de combattre dans un conflit armé à une échelle plus grande que jamais, et à des échelles de temps plus rapides que les humains ne peuvent le comprendre. Elles peuvent être des armes de terreur, des armes que des despotes et des terroristes utilisent contre des populations innocentes, et des armes piratées pour se comporter de manière indésirable. Nous n'avons pas longtemps pour agir. Une fois cette boîte de Pandore ouverte, il sera difficile de la fermer. Nous implorons donc les Hautes Parties contractantes de trouver un moyen de nous protéger tous de ces dangers. »

Le chercheur canadien Yoshua Bengio a écrit au premier ministre Trudeau pour demander, avec ses collègues, « que le Canada appuie les démarches en cours à l’ONU afin de bannir les robots tueurs. C’est pour cela que j’ai contribué, aux côtés de Stephen Hawkins et Elon Musk, à l’élaboration d’une autre lettre, cette fois-ci provenant de toute la communauté internationale en intelligence artificielle et en robotique, et exigeant un traité international pour bannir les robots tueurs[25]. »

Les principes d’Asilomar

Plusieurs milliers de signataires, dont Stephen Hawking et Elon Musk ont « adopté un guide de référence pour un développement éthique de l'intelligence artificielle »[26]. Ces principes furent élaborés durant la conférence Asilomar de 2017[27].

Éthique des machines

L'éthique des machines (ou morale de la machine) est le domaine de recherche qui se consacre à la conception d'agents morales artificiels (AMA), de robots ou d'ordinateurs artificiellement intelligents qui se comportent moralement[28],[29],[30],[31].

Isaac Asimov a examiné cette question dans les années 1950 dans Les Robots. À l'insistance de son rédacteur John W. Campbell Jr., celui-ci a proposé les trois lois de la robotique dans le but de gouverner des systèmes artificiellement intelligents. Une grande partie de son travail a ensuite été consacrée à tester les limites de ses trois lois. Son travail suggère qu'aucun ensemble de lois fixes ne peut anticiper suffisamment toutes les circonstances possibles[32].

Certains experts et universitaires ont mis en doute l'utilisation de robots pour le combat militaire, surtout lorsque ces robots sont dotés d'un certain degré d'autonomie[17]. Le président de l'Association for the Advancement of Artificial Intelligence a commandé une étude afin d'examiner cette question[33]. Ils pointent vers des programmes d'Acquisition de Langage afin d'imiter l'interaction humaine.

Vernor Vinge a suggéré un point hypothétique de la civilisation humaine qui pourrait connaître une croissance technologique où certains ordinateurs deviendraient plus intelligents que les humains. Il appelle cela la « Singularité »[34]. Il suggère que celle-ci peut être très dangereuse pour l'humanité[35]. Ceci est discuté par la philosophie appelée Singularitarianisme. La Machine Intelligence Research Institute a suggéré la nécessité de construire des « intelligences artificielles amicales », ce qui signifie que les progrès qui sont déjà en cours avec l'IA devrait également inclure un effort pour rendre l'IA intrinsèquement amicale et humaine[36].

Dans Moral Machines: Teaching Robots Right from Wrong[37], Wendell Wallach et Colin Allen concluent que les tentatives d'enseigner les droits des robots à partir du mal vont probablement améliorer la compréhension de l'éthique humaine en motivant les humains à combler les lacunes de la théorie normative moderne et en fournissant une plate-forme pour l'investigation expérimentale. Nick Bostrom et Eliezer Yudkowsky ont plaidé pour desarbres de décision (tels que ID3) sur des réseaux de neurones et des algorithmes génétiques au motif que les arbres de décision obéissent aux normes sociales modernes de transparence et de prévisibilité[38].

Conséquences inattendues

De nombreux chercheurs ont fait valoir que, dans le cadre d'une « explosion de l'intelligence » au cours du XXIe siècle, une IA auto-améliorée pourrait devenir tellement plus puissante que les humains ne pourraient pas l'empêcher d'atteindre ses objectifs[39]. Dans son article Ethical Issues in Advanced Artificial Intelligence, Le philosophe d'Oxford Nick Bostrom soutient même que l'intelligence artificielle a la capacité de provoquer l'extinction humaine. Il prétend que la super-intelligence serait capable d'initiative indépendante et de faire ses propres plans. Puisque les intellects artificiels n'ont pas besoin de partager nos tendances de motivation humaines, ça serait aux concepteurs de celle-ci de spécifier ses motivations originales. En théorie, une intelligence artificielle ultra-intelligente serait en mesure d'aboutir à presque tous les résultats possibles et de contrecarrer toute tentative d'empêcher la mise en œuvre de son objectif principal, de nombreuses conséquences involontaires et incontrôlées pourraient alors survenir. Il pourrait tuer tous les autres agents, les persuader de changer de comportement ou bloquer leurs tentatives d'interférence[40].

Bill Hibbard[11] propose une conception de l'IA qui évite plusieurs types de comportement non intentionnel de celle-ci, y compris l'auto-désillusion, les actions instrumentales non intentionnelles et la corruption du générateur de récompense.

Dans son film Singularity (2017) Robert Kouba imagine qu'un super ordinateur (Kronos) décrète que l’homme est la plus grande menace pour la planète, et cherche à éradiquer l'espèce humaine.

Au lieu de conduire la race humaine à son extinction, Nick Bostrom croit qu'une super-intelligence peut nous aider à résoudre de nombreux problèmes difficiles tels que la maladie, la pauvreté et la dégradation de l'environnement, et pourrait nous aider à nous « améliorer »[41].


L'éthique de l'intelligence artificielle et l'Europe

Face à des usages de l'intelligence artificielle parfois décriés, tels que les applications de surveillance décernant un score aux citoyens chinois[42], l'Europe souhaite se positionner comme un garant de l'éthique de l'intelligence artificielle.Elle a constitué le 14 juin 2018 un comité consultatif de 52 experts, le High Level Group on Artificial Intelligence [43].

Littérature

La bibliographie standard sur l'éthique de l'IA est sur PhilPapers[44].

Voir aussi

Chercheurs
Organisations

Références

  1. (en) Veruggio, Gianmarco, The Roboethics Roadmap, Scuola di Robotica, (lire en ligne[archive du ]), p. 2.
  2. (en) Woody Evans, Posthuman Rights: Dimensions of Transhuman Worlds, Universidad Complutense Madrid, (lire en ligne).
  3. The American Heritage Dictionary of the English Language, Quatrième Édition.
  4. (en) « Robots could demand legal rights », BBC News, (lire en ligne, consulté le 3 janvier 2010).
  5. (en) Mark Henderson, « Human rights for robots? We're getting carried away », The Times Online, The Times of London, (lire en ligne, consulté le 2 mai 2010).
  6. (en) Glenn McGee, « A Robot Code of Ethics », The Scientist.
  7. (en) Ray Kurzweil, The Singularity is Near, Penguin Books, (ISBN 0-670-03384-7).
  8. The Big Question: Should the human race be worried by the rise of robots?, Independent Newspaper.
  9. (McCorduck 2004, p. 308).
  10. Joseph Weizenbaum, cité dans McCorduck 2004, p. 356, 374–376.
  11. Hibbard, Bill (2014): "Ethical Artificial Intelligence".
  12. Open Source AI. Bill Hibbard. 2008 proceedings of the First Conference on Artificial General Intelligence, eds. Pei Wang, Ben Goertzel and Stan Franklin.
  13. OpenCog: A Software Framework for Integrative Artificial General Intelligence. David Hart and Ben Goertzel. 2008 proceedings of the First Conference on Artificial General Intelligence, eds. Pei Wang, Ben Goertzel and Stan Franklin.
  14. Inside OpenAI, Elon Musk’s Wild Plan to Set Artificial Intelligence Free Cade Metz, Wired 27 April 2016.
  15. Call for debate on killer robots, By Jason Palmer, Science and technology reporter, BBC News, 03/08/2009.
  16. Robot Three-Way Portends Autonomous Future, By David Axe wired.com, 13 août 2009.
  17. New Navy-funded Report Warns of War Robots Going "Terminator", par Jason Mick (Blog), dailytech.com, 17 février 2009.
  18. Navy report warns of robot uprising, suggests a strong moral compass, by Joseph L. Flatley engadget.com, 18 février 2009.
  19. GiveWell, Potential risks from advanced artificial intelligence, (lire en ligne).
  20. An Open Letter RESEARCH PRIORITIES FOR ROBUST AND BENEFICIAL ARTIFICIAL INTELLIGENCE
  21. AUTONOMOUS WEAPONS: AN OPEN LETTER FROM AI & ROBOTICS RESEARCHERS This open letter was announced July 28 at the opening of the IJCAI 2015 conference on July 28.
  22. (en) Cat Zakrzewski, « Musk, Hawking Warn of Artificial Intelligence Weapons », WSJ.
  23. (en) Zach Musgrave and Bryan W. Roberts, « Why Artificial Intelligence Can Too Easily Be Weaponized - The Atlantic », The Atlantic.
  24. AN OPEN LETTER TO THE UNITED NATIONS CONVENTION ON CERTAIN CONVENTIONAL WEAPONS
  25. Bengio 2017
  26. Les « 23 principes d’Asilomar » veulent encadrer le développement de l’intelligence artificielle
  27. ASILOMAR AI PRINCIPLES
  28. (en) Anderson, « Machine Ethics » (consulté le 27 juin 2011)
  29. (en) Machine Ethics, Cambridge University Press, (ISBN 978-0-521-11235-2)
  30. (en) « Special Issue on Machine Ethics », IEEE Intelligent Systems, vol. 21, no 4, july–august 2006, p. 10–63 (ISSN 1541-1672, DOI 10.1109/mis.2006.70, lire en ligne)
  31. (en) Michael Anderson et Susan Leigh Anderson, « Machine Ethics: Creating an Ethical Intelligent Agent », American Association for Artificial Intelligence, vol. 28, no 4, , p. 15–26 (ISSN 0738-4602, lire en ligne)
  32. (en) Isaac Asimov, I, Robot, New York, Bantam, (ISBN 0-553-38256-X)
  33. AAAI Presidential Panel on Long-Term AI Futures 2008-2009 Study, Association for the Advancement of Artificial Intelligence, Accessed 7/26/09.
  34. Scientists Worry Machines May Outsmart Man By JOHN MARKOFF, NY Times, July 26, 2009.
  35. The Coming Technological Singularity: How to Survive in the Post-Human Era, par Vernor Vinge, Department of Mathematical Sciences, San Diego State University, (c) 1993 par Vernor Vinge.
  36. Article at Asimovlaws.com erreur modèle {{Lien archive}} : renseignez un paramètre « |titre= », July 2004, accessed 7/27/09.
  37. (en) Wendell Wallach et Colin Allen, Moral Machines: Teaching Robots Right from Wrong, USA, Oxford University Press, (ISBN 978-0-19-537404-9)
  38. (en) Nick Bostrom et Eliezer Yudkowsky, « The Ethics of Artificial Intelligence » [PDF], Cambridge Handbook of Artificial Intelligence, Cambridge Press,
  39. Muehlhauser, Luke, and Louie Helm. 2012. "Intelligence Explosion and Machine Ethics". In Singularity Hypotheses: A Scientific and Philosophical Assessment, edited by Amnon Eden, Johnny Søraker, James H. Moor, and Eric Steinhart. Berlin: Springer.
  40. Bostrom, Nick. 2003. "Ethical Issues in Advanced Artificial Intelligence". In Cognitive, Emotive and Ethical Aspects of Decision Making in Humans and in Artificial Intelligence, edited by Iva Smit and George E. Lasker, 12–17. Vol. 2. Windsor, ON: International Institute for Advanced Studies in Systems Research / Cybernetics.
  41. (en-US) « Sure, Artificial Intelligence May End Our World, But That Is Not the Main Problem », sur WIRED (consulté le 4 novembre 2015)
  42. Camcha Dit, « En Chine, le score social à la Black Mirror a déjà empêché des millions de trajets », sur L'ADN, (consulté le 21 janvier 2019)
  43. Johanna Diaz, « La Commission Européenne dévoile l'European AI Alliance et les 52 experts de son comité consultatif sur l'IA », sur Actu IA, (consulté le 21 janvier 2019)
  44. Müller, Vincent C. (2016).

Bibliographie

  • (en) Pamela McCorduck, Machines Who Think: A Personal Inquiry into the History and Prospects of Artificial Intelligence, 2, (ISBN 1-56881-205-1)

Liens externes

  • Portail de la philosophie
  • Portail de l’informatique
  • Portail de la robotique
  • Portail du Web sémantique
Cet article est issu de Wikipedia. Le texte est sous licence Creative Commons - Attribution - Sharealike. Des conditions supplémentaires peuvent s'appliquer aux fichiers multimédias.