L'Intelligence Artificielle. & ses robots tueurs - La Politisation de la Science "que nous allons payer très cher" (notamment rappel historique avec la paire Staline/Lyssenko, le savnt fou) - Et d'autres thématiques liées au progrès sans fin que vit notre Monde Moderne au jour, le jour ! Débat très riche, d'un excellent niveau avec lequel on apprend et/ou on révise beaucoup. (en 32) un apperçu remarquable sur la politisation de la science "que nous allons payer très cher" Interdit d'interdire - Laurent Alexandre et Etienne Klein : le progrès en débat RT France
Diffusé en direct le 8 avr. 2019
Frédéric #Taddeï reçoit : - Laurent Alexandre, entrepreneur et essayiste
Etienne Klein, philosophe, physicien et épistémologue Sur l'intelligence artificielle & ses applications guerrières, nous savions déjà que : l'intelligence artificielle appliquée à un système de reconnaissance permet d'ordonner à un drone et/ou à un robot de tuer une personne. Hier c'était réservé à la science-fiction ; mais la réalité dépasse désormais la fiction Fin janvier, le PDG du groupe technologique français Thales, Patrice Caine, a tiré la sonnette d'alarme : « Il faut que les pays mettent en place une législation au niveau international pour que le terrain de jeu soit clair pour tous en ce qui concerne l'application de l'IA au domaine de l'armement », avait-il dit. En clair : attention, ça part dans tous les sens. Les machines à tuer existent. Des drones de combat ont permis aux États-Unis et à ses alliés d'éliminer des cibles au Pakistan, en Afghanistan, et plus récemment des djihadistes de l'État islamique en Syrie. Rien ne peut les arrêter. Toutefois, il s'agit de missions accomplies dans un cadre légal précis et ces machines sont guidées par l'homme. Le péril vient aujourd'hui du fait que grâce à l'intelligence artificielle et à la reconnaissance faciale ou autre (les autorités chinoises ont commencé à avoir recours à un nouvel outil de reconnaissance capable d'identifier les gens en fonction de leur démarche, et non de leur visage), ces machines à tuer peuvent agir de façon autonome : une fois l'ordre donné rien ne peut les arrêter. Ainsi, Boeing Autonomous Systems vient de présenter au Melbourne International Airshow un avion de chasse sans pilote développé en Australie et conçu pour voler de façon autonome en formation de combat aux côtés d'appareils avec équipage. Son intérêt ? Il n'éprouve aucune émotion, ce qui le rend « inflexible » dans un combat aérien, assurent ses promoteurs. Pour Matthieu Bonenfant, directeur marketing produit de Stormshield, leader européen de la sécurité informatique, « c'est un problème : un pilote peut annuler la mission s'il découvre, par exemple, des boucliers humains de civils devant la cible militaire. Pas un robot. » Ces armes autonomes sont en effet incapables de prendre en compte le contexte moral ou de faire preuve de discernement. Si elles tombent entre des mains criminelles, elles peuvent être perverties par ceux qui les programment et se transformer en tueurs à gages implacables. « Et en cas de meurtre commis par une de ces machines, comment trouver une responsabilité humaine ? », s'interroge Matthieu Bonenfant." Patrice Caine, PDG de Thales -avec d'autres- a tiré la sonnette d'alarme : « Il faut que les pays mettent en place une législation au niveau international pour que le terrain de jeu soit clair pour tous en ce qui concerne l'application de l'IA au domaine de l'armement »
Voir en ligne : https://www.agoravox.tv/IMG/jpg/robots-tueurs-klein-taddei.jpg
Source