Les dilemmes moraux de l’humanité à l’épreuve de la voiture autonome

Orang Malang

Alpha & Oméga
Modérateur
Membre du personnel
23 Oct 2005
15 244
15 548
198
常熟,江苏
Capture d’écran 2018-10-25 à 14.59.19.pngCapture d’écran 2018-10-25 à 14.59.28.pngCapture d’écran 2018-10-25 à 14.59.37.pngCapture d’écran 2018-10-25 à 14.59.53.pngCapture d’écran 2018-10-25 à 15.00.05.pngCapture d’écran 2018-10-25 à 15.00.17.pngCapture d’écran 2018-10-25 à 15.00.29.png
 
Les Français sont ils tant assistes/en contradiction avec le réel que ça ?
Pourquoi attendre les voitures autonomes pour préserver les vies d'humains alors qu ils ont toutes les capacités intellectuelles pour le faire en étant au volant, donc maitre, de leur voiture ?
Dans mon bled, un village sinueux avec de nombreuses priorités a droite sans trop de visibilités, des gamins qui jouent dehors ... A peu près 7 voitures sur dix roulent au delà de 60km/h alors que les lieux demanderaient une vitesse de 30km/h max.
Sans parler des priorités a droite non respectées justement dans la majorité des cas, des clignotants (outils de bienveillance pur) oublies très, trop souvent .... et j en passe.
Le choix moral... Que nous commencions des a présent en attendant la voiture autonome.
 
Les Français sont ils tant assistes/en contradiction avec le réel que ça ?
Pourquoi attendre les voitures autonomes pour préserver les vies d'humains alors qu ils ont toutes les capacités intellectuelles pour le faire en étant au volant, donc maitre, de leur voiture ?
Dans mon bled, un village sinueux avec de nombreuses priorités a droite sans trop de visibilités, des gamins qui jouent dehors ... A peu près 7 voitures sur dix roulent au delà de 60km/h alors que les lieux demanderaient une vitesse de 30km/h max.
Sans parler des priorités a droite non respectées justement dans la majorité des cas, des clignotants (outils de bienveillance pur) oublies très, trop souvent .... et j en passe.
Le choix moral... Que nous commencions des a présent en attendant la voiture autonome.

Le comportement des autres choque souvent devant chez sois... mais sois même plus loin...

Dans le coin ou je suis ils installent des chicanes de partout. Des que tu rencontre quelqu'un il gueule sur le faite qu'il y a trop de chicanes, on peux plus rouler,...
Mais des que tu demande si les gens devant chez lui roule correctement la personne répond qu'il faut un dos d'âne, une chicane,... que ça roule n'importe comment,...
 
L'intérêt de cette étude est bien d'éclairer les réactions face aux dilemmes moraux en utilisant l'idée d'un ordinateur au volant.

Mais e bon sens et la sécurité en matière de programmation d'un tel véhicule ne réclament-ils pas, s'il y a 10 à 100 choix par seconde à traiter, de ne pas encombrer les algorithmes avec des questions inutiles et d'affecter les ressources à (mieux différencier par exemple un panneau d'autoroute d'un camion en travers... ok, j'enlève ça, c'est petit) des questions plus utiles telles qu'éviter les erreurs d'appréciation de la situation ou la probabilité de létalité des scenarii à comparer ?
Reconnaitre un humain d'un arbre a une utilité. Distinguer un vieux d'un jeune, un gros beauf obèse d'une jeune femme enceinte n'en a strictement aucun. Ce qui serait immoral c'est d'encombrer les lignes de code d'un algo de sécurité avec de telles considérations.

L'argument "il faut éviter que l'algo soit dans l'incapacité de décider" est sans intérêt puisque si cela ne se produit que dans des rares cas où les alternatives ont une issue qu'il est difficile de pondérer le choix de l'un ou de l'autre n'a rien de capital.
 
Reconnaitre un humain d'un arbre a une utilité. Distinguer un vieux d'un jeune, un gros beauf obèse d'une jeune femme enceinte n'en a strictement aucun. Ce qui serait immoral c'est d'encombrer les lignes de code d'un algo de sécurité avec de telles considérations.
Ce n’est pas parce que tu veux une décision différente selon l’ « obstacle » que tu vas encombrer le code pour autant. Ça c’est une fausse idée qu’on se fait en croyant qu’un ordinateur réfléchit comme un humain.

En gros, il s’agit d’un problème de classification : identifier des « objets » et les mettre dans une certaine catégorie. En l’occirrence ici les catégories c’est « à épargner à tout prix », « à épargner si possible », « on peut rentrer dedans mais c’est chiant », « cible privilégiée » etc
Le principe du machine learning c’est que la machine détermine elle-même ce qui doit être dans quelle catégorie. Ça peut se faire de manière supervisée ou tu montres un milliard d’images à ta voiture en disant « ça c’est un pot de fleur tu peux l’écraser », « ça c’est un bus scolaire tu l’evites » etc. et sur base de ça ta voiture prend des décisions plus tard. Ou alors ça se fait de manière non supervisée, ou en gros tu laisses ta voiture décider et après tu donnes un « score » à la décision. Ta voiture favorisera à l’avenir les décisions qui donnent un meilleur « score »

Or, même si ça ne se fait pas de dire ça en 2018, un homme a une apparence différente d’une femme, un enfant d’un vieux, un Noir d’un Blanc. Donc dans la phase de segmentation (identifier les objets visibles), ils seront déjà considérés comme des « objets » différents. La question est donc de savoir dans quelle catégorie les placer, ou quel score leur attribuer (selon le type d’apprentissage). Est-ce que épargner un jeune donne un meilleur score qu’épargner un vieux, ou est-ce qu’on donne la même valeur à tout le monde? Est-ce qu’on met les femmes dans la catégorie « à éviter absolument » et les SDF dans la catégorie « dispensable », ou on met tout le monde dans « a éviter si possible »?

C’est ça le dilemme, et à priori quelle que soit la réponse ça n’ « encombrera » pas le code vu que l’algo reste le même, seules les données changent

PS: désolé si le ton de ce post est cynique, c’est la nature du sujet qui veut ça
 
humour noir on
ils vont être emmerdés les terroristes avec ces voitures autonomes 30.gif
85379-6b6076ab2808ac07210df7ff2b424d12.jpg

humour noir off
 
Ce n’est pas parce que tu veux une décision différente selon l’ « obstacle » que tu vas encombrer le code pour autant. Ça c’est une fausse idée qu’on se fait en croyant qu’un ordinateur réfléchit comme un humain.

En gros, il s’agit d’un problème de classification : identifier des « objets » et les mettre dans une certaine catégorie. En l’occurrence ici les catégories c’est « à épargner à tout prix », « à épargner si possible », « on peut rentrer dedans mais c’est chiant », « cible privilégiée » etc
Le principe du machine learning c’est que la machine détermine elle-même ce qui doit être dans quelle catégorie. Ça peut se faire de manière supervisée ou tu montres un milliard d’images à ta voiture en disant « ça c’est un pot de fleur tu peux l’écraser », « ça c’est un bus scolaire tu l’évites » etc. et sur base de ça ta voiture prend des décisions plus tard. Ou alors ça se fait de manière non supervisée, ou en gros tu laisses ta voiture décider et après tu donnes un « score » à la décision. Ta voiture favorisera à l’avenir les décisions qui donnent un meilleur « score »...
Merci pour ces explications !

Mais si on pose le problème aussi clairement aux sondés de ce genre d'étude, je suis surpris qu'il ne classent pas dans "à épargner à tout prix" toute vie humaine.
 
Merci pour ces explications !

Mais si on pose le problème aussi clairement aux sondés de ce genre d'étude, je suis surpris qu'il ne classent pas dans "à épargner à tout prix" toute vie humaine.
D’après l’article, ils n’ont pas simplement posé des questions théoriques du style « quelle valeur donnez-vous à un vieux? », mais en fait ils ont été confrontés à des situations pratiques et on leur a demandé de faire un choix où il y a forcément une « victime », et par après les résultats ont été interprétés (x % des gens ont choisi l’option qui mène à la mort de la femme enceinte, x% ont choisi l’option ou la voiture se crashe contre un arbre etc). Du coup il n’y a pas de « bonne » réponse, on est obligés de faire un compromis
 
En Chine, il faut intégrer le prix des blessures Vs mort sur le coup, l'âge de la victime, hukou rural ou ville, la province...
A partir de quelle valeur, la voiture a intérêt à faire marche arrière et rouler sur la victime pour l'achever ?
Ca dépend de la valeur qu'on accorde à sa propre vie. (Homicide volontaire... la peine capitale est possible en Chine, non ?)
 
Ca dépend de la valeur qu'on accorde à sa propre vie. (Homicide volontaire... la peine capitale est possible en Chine, non ?)
donc qui est responsable :
- l'auto autonome ?
- le "conducteur" qui ne conduit pas ?
- le concepteur de l'auto ou du software ?
 
donc qui est responsable :
- l'auto autonome ?
- le "conducteur" qui ne conduit pas ?
- le concepteur de l'auto ou du software ?
S'il est établis que le véhicule est conçu pour achever les blessée, le concepteur du software en premier chef.
S'il est établit que le concepteur de l'auto a installé ce soft sur ses véhicules en connaissances de cause, il est également coupable, il restera à voir le degré d'autonomie du concepteur par rapport à son commanditaire pour détailler le degré de responsabilité entre les deux.
S'il peut argumenter sur le fait qu'il n'était pas informé, l'utilisateur malin portera également plainte pour le préjudice moral qui lui est fait.
Si l'organisme validant l'autorisation de mise en circulation d'un tel véhicule était informé de cette particularité, sa responsabilité est également engagé en plus des acteurs précédents.
Il n'y a aucune raison qu'une machine conçue pour tuer soit mise aux mains du public sans port d'arme.

En gros, tant que ça ne se produit jamais et que ça reste de la pure théorie, tout est simple...
;)
(rappel, cette réponse concerne l'hypothèse complètement absurde d'un véhicule autonome incluant dans sa programmation d'achever les blessés d'un accident. En référence au mythe que ce serait une pratique en Chine pour ne pas avoir à payer l'invalidité de la victime, mythe complètement con. Non pas qu'il n'existe pas quelques brutes mal finies qui pourraient tenir ce raisonnement mais que concrètement les risques encourus pour un homicide volontaire sont il me semblent plus dissuasifs qu'un éventuel supplément de perte financière.)

En Chine, je ne sais pas, mais en France on aura un problème à résoudre avant d'aller dans la voie des véhicules autonomes puisqu'il me semble qu'une règle de base concernant l'évaluation des responsabilités en cas d'accident est que le chauffeur doit rester maitre de son véhicule.
Il y aura donc une adaptation réglementaire à faire. Je ne pense pas que ce soit trop difficile s'il est prouvé que le véhicule autonome réduit le nombre d'accident.
Il est certain que les acteurs de cette mutation devront se tenir prêt pour les procès qui ne manqueront pas d'être engagés.

Mais quand la technique sera réellement au point, je pense que la mutation sera très rapide. Même si tout le monde aura un peu peur dans les premiers kilomètres, personne ne préfère conduire à bouquiner, regarder le paysage, faire la sieste, prendre de l'avance sur son job voir plus si affinité...