+1. C’est d’ailleurs ce qui a fait le succès des IA dans certains domaines industriels (notamment pour la conception de structures), leur capacité justement à faire des trucs auxquels n’auraient jamais pensé des humains, trop « formatés ».
On entre presque dans la troisième loi de la robotique d’Asimov, là : un robot doit protéger son existence…. ^^
Question : est-ce qu’un véhicule autonome peut tenter une manoeuvre très risquée dans une course au risque de nuire volontairement à son intégrité ?
Réponse : ça dépendra de sa programmation. Mais alors, on ne sera plus dans de la vraie IA capable de juger une situation et prendre des décisions par elle-même qui impliquent une prise de risques.
Tu généralises un peu vite. J’ai connu des opérateurs sur des lignes de production qui travaillaient uniquement comme on leur avait appris, oui. Mais personnellement, après avoir appris ce qu’il y avait à savoir, j’ai toujours mis au point mes propres méthodes de travail, au point que les responsables venaient voir comment je m’y prenais pour ne pas avoir les mêmes soucis que d’autres. ^^
Quand on change de file, on met son clignotant.
verstappen triple oui et même quadruple en 2024 mais hamilton non mon dieu, c’est une retraite tranquille qui l’attend dans son baquet rouge ferrari
L’excellent Foggy
Un grand pilote qui aurait mérité plus de reconnaissance, mais les médias étant ce qu’ils sont, il n’y en a que pour les pilotes de GP.
Cela reste un potentiel pour les systèmes de partis. Vous avez déjà vu les courses de chiens virtuels ?
C’est LATIFI qui télécommande la voiture ?
Les règles sont des gardes-fous qui ne font pas parti de l’IA, c’est de la programmation classique qui rejette certaines solutions. Il en faut car justement les IAs trouvent des solutions au problème posé souvent saugrenues voir totalement à coté de la plaque. Et c’est tout le problème: on ajoute une couche qui bride la « créativité ». Quand on fait de la recherche, le « tri » se fait a posteriori avec des simulations classiques. Quand c’est un truc cher et dangereux comme dans la cas présent, ça devient compliqué de faire des règles suffisamment souples pour permettre de la performance mais suffisamment sévère pour garantir une sécurité totale… Je pense d’ailleurs que c’est là que Tesal butte depuis quelques années puisque c’est encore plus prégnant pour la conduite sur route.
Merci pour l’info ! Je vais aller zieuter ça
Que ce soit un casse-tête à mettre au point, je n’en doute pas. ^^
Et qu’y a t-il de passionnant à savoir que tel sportif est un peu plus malin ou un peu plus fort que tel autre ?
Quand au fait que les IA ne prennent pas de chemin de traverse, c’est totalement faux : au jeu de go, DeepMind à prit des décisions totalement contre-intuitives qui, jusqu’à près de la fin, ont laissé croire qu’elle était à côté de la plaque…
Et qu’y a t-il de passionnant à savoir que tel sportif est un peu plus malin ou un peu plus fort que tel autre ?
On peut retourner la question : qu’y a-t-il de passionnant à savoir qu’une machine ou un robot est un peu mieux programmé que les autres ? à part bien sûr pour les geeks passionnés par ce genre de choses ?
Mais au final, la vraie question est le grand public non geek suivra-t-il et paiera-t-il pour aller voir ça ? rien n’est moins sûr. ^^