Citation :A voir quand un modèle capable d'identifier et éliminer une menace potentielle (ce qui est différent d'un assaillant effectif) sera déployé. Pour moi toute la question est là : comment la machine définira-t-elle que tel gars avec une arme c'est une menace (et pas un allié, un gamin avec un bout de bois ou que sais-je encore) ?
Oué parce que ça n'est jamais arrivé à un humain de "miss shoot" un innocent :x
Et puis bon les robots, même autonome, sont des outils. Rien n'empêche la programmation d'y mettre une dose de bon sens. Déjà vous vous efforcez d'y voir uniquement le côté "arme/guerre". Cependant l'IA se développera très certainement bien avant sur le commerce que sur la guerre. Récolter des données, les traiter, les utiliser. En fait hein ... c'est déjà plus ou moins le cas. Ce qu'il manque c'est une politique d'état de l'IA. Mais vouloir amorcer un mouvement "parfait" dans la gestion de l'économie, reviendrait à admettre l"inutilité du politicien en tant que tel et donc sa mise au rebus. Or actuellement c'est bien le politicien qui tire profit de son pouvoir pour son intérêt personnel (et non l'intérêt général) qui prend les décisions. Souvent les mauvaises d'ailleurs.
Ce serait intéressant d'avoir un test à une échelle macroscopique limitée d'une gestion par une IA (genre une ville) sans contre-pouvoir limitatif humain.