Commentaires : Accident d’un véhicule semi autonome Toyota au village paralympique : les opérateurs pensaient que "l’humain allait s’arrêter"

Yep, d’où bien des comportements à risques : « je passe, bien qu’une voiture arrive »…voiture qui ne peut pas forcément freiner dans les temps (pluie, soleil rasant, etc)… alors que lors d’un choc la voiture gagner toujours.
Heureusement, les voiture ont des caméras maintenant, permettant de montrer les piétons faisant n’importe quoi (smartphone, etc).

Si tu en installes une, je ne crois pas que beaucoup de modèles aient des dashcam de série. neutre

+1. Et même quand elles ont des caméras (la mienne en a deux vers l’avant, une dans la calandre pour l’aide au stationnement, une au niveau du rétro intérieur pour la détection de piétons/cyclistes), en général elles n’enregistrent pas (ou en tout cas, on n’accède pas à l’enregistrement… peut-être que ça changera avec la « boite noire » obligatoire ?), voire ne donnent pas du tout accès au flux (la caméra « piéton/vélo », j’ai aucun moyen de voir ce qu’elle voit).

Le type des appareils dépend des voitures, la mienne a une caméra pour le maintien dans la voie, mais les capteurs d’aide au stationnement fonctionnent (comme pour la plupart) par ultra-sons . Et pour la fonction freinage d’urgence automatique, c’est un Lidar (basé sur les infra-rouges). ^^

Je me permet de corriger, bien entendu il fallait lire :

Paradoxalement c’est justement le contraire. Une « deep learning machine » a trop tendance à s’arrêter quand la probabilité « décidé par l’équipe de dev » d’un évènement est importante.

Je me permets de corriger: une « deep learning machine » EST une IA, informatiquement parlant, même si on est loin d’une intelligence, elle a juste les biais qui lui ont été fournis, loin des trucs étranges faits par un humain. Après, la déféinition change régulièrement! :stuck_out_tongue: Après c’est clair que c’est l’entrainement qui va la faire se comporter comme un humain.
Mais ce n’est pas « décidé » par l’« équipe de dev ». Déjà les devs n’ont pas grand chose à voir avec les spécialistes IA, ensuite, l’entrainement de base (les « cas d’école ») doit être dépassé depuis des lustres, on est maintenant dans la phase de « gavage » en situations réelles.

Tout a fait. D’ailleurs les IA utilisées pour ça sont de véritables boîtes noires, les « dev » ne savent même pas vraiment comment elles « raisonnent », donc non, leur comportement ne résulte pas des décision de l’équipe de dev. Ça c’est le cas dans une « IA » à l’ancienne, qui n’est rien d’autre qu’un algorithme itératif.

Ce côté « boîte noire » des IA modernes est d’ailleurs un vrai problème dans le cadre d’usages concrets de ces IA : comment garantir qu’un système dont on ne sait pas comment il fonctionne va effectivement fonctionner comme on voudrait qu’il fonctionne ?

C’est sûr que les ‹ IA › n’ont pas été développé/codé par des humains, donc avec une réflexion humaine…

Pensez vraiment que l’IA a compris toute seule que obstacle ( « objets qu’on t’as appris a reconnaitre ») = frein ? heu… ben non hein…