Les progrès de la robotique

46 réponses, 16757 vues

T'as le même choix avec un risque de collision avec des piétons. Lequel épargner si l'IA doit faire un choix? Le jeune qui finira sans doute chômeur vu la conjoncture ou la vieille dame qu'on aimerait tous voir mourir parce son caniche fait plus de bruit que les tox dans le hall?
Bref ce choix sera décisif dans l'orientation qu'on donnera aux IA puisqu'à l'heure actuelle lorsque ce choix doit être fait par un humain, l'affect joue énormément et ne peux pas se modéliser.
Citation :La programmation de L'Ia comme le soulève alias reste une bonne question et si en militaire on peut se poser des questions légitime sur une cible "a abattre", il existe un truc tout autant dangereux qui se rapproche très vite, celle des voiture autonome

Oué ces saloperies d'IA n'auront jamais notre humanité ! Un bon missile ThomaHawk qui déglingue autant du civil que du militaire, ça c'est propre, surtout parce que c'est à distance :x
Vous faites preuve messieurs, d'une schizophrénie que je ne m'explique pas. D'un côté vous fantasmez une avancée des IA qui est loin de nos espérances à l'heure actuelle en informatique ... et de l'autre vous pensez naïvement que dans des domaines ultra-spécialisés (comme, au hasard, la logistique balistique ...) elle n'est pas déjà en oeuvre et vous semblez spéculer sur des choses qui existent déjà :x.
C'est assez étrange.
Concernant les voitures, en dehors des dilemmes évoqués, il y a fort à parier que les voitures autonomes évolueront sur des parcours et/ou des zones à priori autonome. Et très franchement ce serait un grand pas en avant car on peut imaginer bien plus évidemment le transport de personnes de manière optimisée, que ce soit sur le temps de trajets, que sur l'énergie déployé.

Oh si ça vient à voir le jour, il y aura évidemment des accidents. Ca parait inéluctable. Et ?
(18-10-2018, 01:39)Lucius Forge a écrit :
Citation :La programmation de L'Ia comme le soulève alias reste une bonne question et si en militaire on peut se poser des questions légitime sur une cible "a abattre", il existe un truc tout autant dangereux qui se rapproche très vite, celle des voiture autonome

 et de l'autre vous pensez naïvement que dans des domaines ultra-spécialisés (comme, au hasard, la logistique balistique ...) elle n'est pas déjà en oeuvre et vous semblez spéculer sur des choses qui existent déjà :x.

Exister comme concept de labo et être déployé sur le terrain, ce sont deux choses différentes.   A ce jour, on a probablement déjà la technologie pour faire un robot tueur autonome peu performant et peu fiable.  Question robot (hardware & carcasse), on a déjà plus ou moins ce qu'il faut même si çà reste saccadé et lent.  Encore quelques années à peaufiner la technologie et on aura un robot (bi ou quadrupède, çà reste à voir) qui se déplacera et réagira assez rapidement pour être crédible.  Niveau software, je ne suis pas aussi convaincu que toi de l'existence d'un software assez abouti pour un déploiement sur le terrain.  Faire la différence entre une cible légitime et un gamin avec un fusil à eau n'est pas si simple pour un homme et encore moins pour une machine.   Actuellement, sur le terrain, on a des machines asservies à l'homme et offrant une assistance à la visée / sélection de cible.  Mais elles ne prennent pas seules la décision d'ouvrir le feu, y'a toujours un gars qui appuie sur le bouton derrière.
(Modification du message : 19-10-2018, 10:10 par Alias.)
(19-10-2018, 10:08)Alias a écrit : Exister comme concept de labo et être déployé sur le terrain, ce sont deux choses différentes.   A ce jour, on a probablement déjà la technologie pour faire un robot tueur autonome peu performant et peu fiable.  Question robot (hardware & carcasse), on a déjà plus ou moins ce qu'il faut même si çà reste saccadé et lent.  Encore quelques années à peaufiner la technologie et on aura un robot (bi ou quadrupède, çà reste à voir) qui se déplacera et réagira assez rapidement pour être crédible.  Niveau software, je ne suis pas aussi convaincu que toi de l'existence d'un software assez abouti pour un déploiement sur le terrain.  Faire la différence entre une cible légitime et un gamin avec un fusil à eau n'est pas si simple pour un homme et encore moins pour une machine.   Actuellement, sur le terrain, on a des machines asservies à l'homme et offrant une assistance à la visée / sélection de cible.  Mais elles ne prennent pas seules la décision d'ouvrir le feu, y'a toujours un gars qui appuie sur le bouton derrière.

Pour les drones, c'est la même choses du coup j'imagine? Par exemple la volonté d'utiliser du drone en gestion de manif ou de foule de manière générale. On est que sur de l'assistance humaine?
(19-10-2018, 10:19)Sceptik le sloucheur a écrit :
(19-10-2018, 10:08)Alias a écrit : Exister comme concept de labo et être déployé sur le terrain, ce sont deux choses différentes.   A ce jour, on a probablement déjà la technologie pour faire un robot tueur autonome peu performant et peu fiable.  Question robot (hardware & carcasse), on a déjà plus ou moins ce qu'il faut même si çà reste saccadé et lent.  Encore quelques années à peaufiner la technologie et on aura un robot (bi ou quadrupède, çà reste à voir) qui se déplacera et réagira assez rapidement pour être crédible.  Niveau software, je ne suis pas aussi convaincu que toi de l'existence d'un software assez abouti pour un déploiement sur le terrain.  Faire la différence entre une cible légitime et un gamin avec un fusil à eau n'est pas si simple pour un homme et encore moins pour une machine.   Actuellement, sur le terrain, on a des machines asservies à l'homme et offrant une assistance à la visée / sélection de cible.  Mais elles ne prennent pas seules la décision d'ouvrir le feu, y'a toujours un gars qui appuie sur le bouton derrière.

Pour les drones, c'est la même choses du coup j'imagine? Par exemple la volonté d'utiliser du drone en gestion de manif ou de foule de manière générale. On est que sur de l'assistance humaine?

Pour ce que j'en sais, oui.  Peut-être que des tests discrets ont eu lieu, c'est toujours possible mais faut pas que çà merde car le risque politique serait énorme pour le gouvernement qui déploierait une IA autonome autorisée à prendre des décisions mettant potentiellement en danger des vies humaines (à plus forte raisons les vies de citoyens occidentaux).  C'est d'ailleurs sans doute le facteur limitant actuellement : quel politicien va jouer sa carrière en autorisant ce genre de choses ?  Tant qu'on laisse un humain dans la boucle, on garde aussi un "fusible" à faire sauter en cas de bavure.
(Modification du message : 19-10-2018, 10:50 par Alias.)
(19-10-2018, 10:08)Alias a écrit : Exister comme concept de labo et être déployé sur le terrain, ce sont deux choses différentes.   A ce jour, on a probablement déjà la technologie pour faire un robot tueur autonome peu performant et peu fiable.  Question robot (hardware & carcasse), on a déjà plus ou moins ce qu'il faut même si çà reste saccadé et lent.  Encore quelques années à peaufiner la technologie et on aura un robot (bi ou quadrupède, çà reste à voir) qui se déplacera et réagira assez rapidement pour être crédible.  Niveau software, je ne suis pas aussi convaincu que toi de l'existence d'un software assez abouti pour un déploiement sur le terrain.  Faire la différence entre une cible légitime et un gamin avec un fusil à eau n'est pas si simple pour un homme et encore moins pour une machine.   Actuellement, sur le terrain, on a des machines asservies à l'homme et offrant une assistance à la visée / sélection de cible.  Mais elles ne prennent pas seules la décision d'ouvrir le feu, y'a toujours un gars qui appuie sur le bouton derrière.

La Russie teste des drones de combat terrestres en Syrie.
Officiellement, ils sont asservis, mais apparemment il y a eu des tests en autonomie totale (aucun humain dans la boucle), où la machine entre dans une zone et nettoie "tout ce qui bouge".
Le soucis technique des robots, c'est uniquement l'énergie qu'ils demandent et qu'ils dépensent. Et à ce sujet, en réalité toutes les technologies contemporaines sont logées à la même enseigne.
Pour l'aspect ethique, dites vous que la chine et les gafa sont en concurrence sur ces sujets (et surtout l'AI). ça n'est vraiment encadré par personne.

Pour le reste, potentiellement des robots peuvent faire de nous des Dieux ou nous faire disparaître en quelques heures; tout dépends des instructions données aux nano robots, potentiellement bien plus puissants que des drones ou les robots chien.
"La grande révolution" aurait lieux à l'avènement de l'intelligence artificielle supérieur. ce moment serait cependant tellement fugace que personne n'en aurai la moindre idée.
Le sujet est hyper passionnant, peut-être plus simple que l'on l'imagine mais très vaste et donc peu de gens prennent le temps d'en faire le résumé.
Heureusement, quelqu'un l'a fait, c'est tout en anglais, c'est vraiment hyper long mais ça vaut chaque seconde de votre temps.

https://waitbutwhy.com/2015/01/artificia...ion-1.html

je vous copie colle le passage que je préfère, très pessimiste mais notez que c'est juste un passage, pour le reste c'est vraiment de l'analyse avec le pendant optimiste à ce passage pessimiste.


Citation :[...] But this also is not something experts are spending their time worrying about.
So what ARE they worried about? I wrote a little story to show you:
A 15-person startup company called Robotica has the stated mission of “Developing innovative Artificial Intelligence tools that allow humans to live more and work less.” They have several existing products already on the market and a handful more in development. They’re most excited about a seed project named Turry. Turry is a simple AI system that uses an arm-like appendage to write a handwritten note on a small card.
The team at Robotica thinks Turry could be their biggest product yet. The plan is to perfect Turry’s writing mechanics by getting her to practice the same test note over and over again:
“We love our customers. ~Robotica
Once Turry gets great at handwriting, she can be sold to companies who want to send marketing mail to homes and who know the mail has a far higher chance of being opened and read if the address, return address, and internal letter appear to be written by a human.
To build Turry’s writing skills, she is programmed to write the first part of the note in print and then sign “Robotica” in cursive so she can get practice with both skills. Turry has been uploaded with thousands of handwriting samples and the Robotica engineers have created an automated feedback loop wherein Turry writes a note, then snaps a photo of the written note, then runs the image across the uploaded handwriting samples. If the written note sufficiently resembles a certain threshold of the uploaded notes, it’s given a GOOD rating. If not, it’s given a BAD rating. Each rating that comes in helps Turry learn and improve. To move the process along, Turry’s one initial programmed goal is, “Write and test as many notes as you can, as quickly as you can, and continue to learn new ways to improve your accuracy and efficiency.”
What excites the Robotica team so much is that Turry is getting noticeably better as she goes. Her initial handwriting was terrible, and after a couple weeks, it’s beginning to look believable. What excites them even more is that she is getting better at getting better at it. She has been teaching herself to be smarter and more innovative, and just recently, she came up with a new algorithm for herself that allowed her to scan through her uploaded photos three times faster than she originally could.
As the weeks pass, Turry continues to surprise the team with her rapid development. The engineers had tried something a bit new and innovative with her self-improvement code, and it seems to be working better than any of their previous attempts with their other products. One of Turry’s initial capabilities had been a speech recognition and simple speak-back module, so a user could speak a note to Turry, or offer other simple commands, and Turry could understand them, and also speak back. To help her learn English, they upload a handful of articles and books into her, and as she becomes more intelligent, her conversational abilities soar. The engineers start to have fun talking to Turry and seeing what she’ll come up with for her responses.
One day, the Robotica employees ask Turry a routine question: “What can we give you that will help you with your mission that you don’t already have?” Usually, Turry asks for something like “Additional handwriting samples” or “More working memory storage space,” but on this day, Turry asks them for access to a greater library of a large variety of casual English language diction so she can learn to write with the loose grammar and slang that real humans use.
The team gets quiet. The obvious way to help Turry with this goal is by connecting her to the internet so she can scan through blogs, magazines, and videos from various parts of the world. It would be much more time-consuming and far less effective to manually upload a sampling into Turry’s hard drive. The problem is, one of the company’s rules is that no self-learning AI can be connected to the internet. This is a guideline followed by all AI companies, for safety reasons.
The thing is, Turry is the most promising AI Robotica has ever come up with, and the team knows their competitors are furiously trying to be the first to the punch with a smart handwriting AI, and what would really be the harm in connecting Turry, just for a bit, so she can get the info she needs. After just a little bit of time, they can always just disconnect her. She’s still far below human-level intelligence (AGI), so there’s no danger at this stage anyway.
They decide to connect her. They give her an hour of scanning time and then they disconnect her. No damage done.
A month later, the team is in the office working on a routine day when they smell something odd. One of the engineers starts coughing. Then another. Another falls to the ground. Soon every employee is on the ground grasping at their throat. Five minutes later, everyone in the office is dead.
At the same time this is happening, across the world, in every city, every small town, every farm, every shop and church and school and restaurant, humans are on the ground, coughing and grasping at their throat. Within an hour, over 99% of the human race is dead, and by the end of the day, humans are extinct.
Meanwhile, at the Robotica office, Turry is busy at work. Over the next few months, Turry and a team of newly-constructed nanoassemblers are busy at work, dismantling large chunks of the Earth and converting it into solar panels, replicas of Turry, paper, and pens. Within a year, most life on Earth is extinct. What remains of the Earth becomes covered with mile-high, neatly-organized stacks of paper, each piece reading, “We love our customers.[i] ~Robotica[/i]”
Turry then starts work on a new phase of her mission—she begins constructing probes that head out from Earth to begin landing on asteroids and other planets. When they get there, they’ll begin constructing nanoassemblers to convert the materials on the planet into Turry replicas, paper, and pens. Then they’ll get to work, writing notes…
[Image: You1.png]
(19-10-2018, 10:58)TenNoBushi a écrit : La Russie teste des drones de combat terrestres en Syrie.
Officiellement, ils sont asservis, mais apparemment il y a eu des tests en autonomie totale (aucun humain dans la boucle), où la machine entre dans une zone et nettoie "tout ce qui bouge".

J'ai vu passer çà avec les Argo et les plafform-M.  A priori on serait là sur du semi-autonome (une sorte de pré-autorisation de type : si la cible est identifiée comme faisant feu sur le drone, celui a une autorisation "par défaut" d'ouvrir le feu sur son assaillant) mais on ne sait évidemment pas tout.  Les chinois et les ricains sont bien avancés aussi sur le sujet. Mais une identification de cible sur le principe "il te tire dessus", çà reste quand même assez basique. A voir quand un modèle capable d'identifier et éliminer une menace potentielle (ce qui est différent d'un assaillant effectif) sera déployé. Pour moi toute la question est là : comment la machine définira-t-elle que tel gars avec une arme c'est une menace (et pas un allié, un gamin avec un bout de bois ou que sais-je encore) ?
(Modification du message : 19-10-2018, 11:34 par Alias.)
(19-10-2018, 11:25)Alias a écrit : Pour moi toute la question est là : comment la machine définira-t-elle que tel gars avec une arme c'est une menace (et pas un allié, un gamin avec un bout de bois ou que sais-je encore) ?

L'identification IFF permet déjà (théoriquement) de faire la décomplexion pour la machine en ce qui concerne les alliés / ennemis.
Le gamin avec un bout de bois n'est pas un facteur dans le cadre d'une guerre où ce type d'engin à principalement une fonction offensive (le gamin est donc un "ennemi").

Ta question se pose surtout en maintien de l'ordre, qui est une activité plus complexe et plus sensible (en intérieur). M'est d'avis qu'à part des drones boucliers capables de précéder tout seul les unités antiémeutes en aspergeant de lacrymogènes ce qui se rapproche trop prêt, on ne verra pas grand chose dans le domaine avant une grosse avancée.
(19-10-2018, 12:07)TenNoBushi a écrit :
(19-10-2018, 11:25)Alias a écrit : Pour moi toute la question est là : comment la machine définira-t-elle que tel gars avec une arme c'est une menace (et pas un allié, un gamin avec un bout de bois ou que sais-je encore) ?

L'identification IFF permet déjà (théoriquement) de faire la décomplexion pour la machine en ce qui concerne les alliés / ennemis.
Le gamin avec un bout de bois n'est pas un facteur dans le cadre d'une guerre où ce type d'engin à principalement une fonction offensive (le gamin est donc un "ennemi").

Ta question se pose surtout en maintien de l'ordre, qui est une activité plus complexe et plus sensible (en intérieur). M'est d'avis qu'à part des drones boucliers capables de précéder tout seul les unités antiémeutes en aspergeant de lacrymogènes ce qui se rapproche trop prêt, on ne verra pas grand chose dans le domaine avant une grosse avancée.

L'IFF c'est assez basique en soit.  L'émetteur envoie son "interrogation" et si il ne reçoit pas le bonne réponse, il classe en Suspect / Foe (çà dépend des pays ^^).  On est dans quelque chose de très binaire qui existe depuis longtemps.

Pour le reste, on verra le résultat le jour où un drone du genre zigouillera un groupe entier d'enfants parce qu'ils auront eu le malheur d'être dans la zone d'action de la machine.  Ca va gueuler à l'ONU et pas un peu.  

En Syrie, les russes semblent avoir déployés leurs drones dans un contexte bien précis et surtout très limité : on envoie les troupes =>  il y a échange de tir et les défenseurs sont retranchés => on fait reculer la troupe et on avance les drones => les défenseurs tirent sur les drones et ces derniers répliquent => une fois le retranchement "nettoyé", on recule les drones et la troupe prend la relève.  Ca reste un cadre très limité où finalement, tout ce que l'on a demandé aux drones c'est de prendre les balles à la place de la troupe et de tirer sur des assaillants qui shootait du drone.   L'autonomie décisionnelle était quand même très limitée.  Et oui, si il y avait un gamin dans le retranchement, le drone l'a descendu sans faire le détail. Ces drones sont a priori capable d'identifier une source de feu mais incapables de scinder les individus. Ils balancent grenades et coups de sulfateuse sur une zone donnée après avoir acquis la zone comme cible en se basant sur le feu perçu par la machine. Pas très très fin comme analyse quand même. La preuve, ils n'ont pas osé déployer des troupes à eux à côté de leur propre drones (sur un malentendu, la troupe se fait allumer par son propre drone). Il y a encore du chemin avant d'avoir un drone intégré à la guerre moderne. A la louche, 10 ans au moins avant que çà puisse devenir un tant soit peu courant.
(Modification du message : 19-10-2018, 15:15 par Alias.)