Articles

Publié le 21 novembre 2016 Mis à jour le 21 novembre 2016

Éthique et I.A. : le cas pratique de la guerre.

Robots guerriers et guerre déshumaine

Comme les questions éthiques sont très importantes en intelligence artificielle, je vous invite à lire cet excellent texte, traduit de l’américain. : «Les systèmes autonomes létaux et l’avenir de la guerre».

Ce texte sans complaisance discute de la guerre dans sa complexité et avec les points de vue pragmatique aussi bien que philosophique et éthique.  Je n’ai rien lu de semblable sur ces sujets nulle part ailleurs.

«Le major Daniel Sukman est un stratège de l’armée de terre américaine. Il possède un baccalauréat de l’Université Norwich et une maîtrise de l’Université Webster. Son expérience de combat compte, entre autres, trois affectations en Iraq. »

Il sait de quoi il parle et il y a réfléchi.  Il est doué à la fois d’intelligence, de sens des responsabilités et de sensibilité, malgré son métier.

Quelques extraits :

«En plus de faciliter la décision d’entrer en guerre, les systèmes autonomes létaux ne peuvent pas faire preuve d’empathie et de bon sens comme les êtres humains.»

«On peut comparer les robots et autres systèmes autonomes à des « psychopathes sans malice » qui ne disposent pas d’un cadre de référence pour comprendre ou prendre des décisions morales ou éthiques en fonctions des conséquences.»

«.. aussi aptes que les robots et les systèmes autonomes puissent devenir, le discernement, la prise de décisions et la compréhension de la situation globale leur fera toujours défaut. »

«Il est naïf de croire que personne n’armera des robots autonomes simplement parce que les États-Unis choisissent de ne pas le faire, tout comme de penser que toute convention internationale qui en interdit la création/l’utilisation aura un effet exécutoire sur les pays qui ont l’habitude d’ignorer ou de ne pas respecter de tels traités. »

Une discussion philosophique, avant qu’il ne soit trop tard

Bien sur la quête de la connaissance est passionnante, mais seuls les humains lui donnent un sens. Seulement des humains peuvent prendre des responsabilités; ne pas le faire les rend de moins en moins humains.  Nous avons la responsabilité d'éduquer, y compris sur les choses humaines moins glorieuses.

Garder le contrôle sur l’intelligence artificielle implique de pouvoir l’activer et la diriger aussi bien que de l’arrêter.  Lorsqu’elle décide à notre place sans que nous lui ayons spécifiquement demandé, nous en abandonnons le contrôle à d’obscurs algorithmes statistiques et à des données de qualité souvent douteuse.  Bref, on a intérêt à s’en occuper.

Référence

Les systèmes autonomes létaux et l’avenir de la guerre - Daniel Sukman - Revue militaire canadienne - Défense nationale.
http://www.journal.forces.gc.ca/vol16/no1/page44-fra.asp


Voir plus d'articles de cet auteur

Dossiers

  • J’utilise mon I.A.


Le fil RSS de Thot Cursus - Besoin d'un lecteur RSS ? Feedly, NewsBlur


Les tweets de @Thot


Accédez à des services exclusifs gratuitement

Inscrivez-vous et recevez nos infolettres en pédagogie et technologies éducatives

Vous pourrez aussi indexer vos ressources préférées et retrouver votre historique de consultation

M’abonner à l'infolettre

Superprof : la plateforme pour trouver les meilleurs professeurs particuliers en France (mais aussi en Belgique et en Suisse)


 

Ajouter à mes listes de lecture


Créer une liste de lecture

Recevez nos nouvelles par courriel

Chaque jour, restez informé sur l’apprentissage numérique sous toutes ses formes. Des idées et des ressources intéressantes. Profitez-en, c’est gratuit !