Commentaires : Une ex-employée de Google alerte sur le danger de robots armés uniquement contrôlés par l'IA

Une ancienne employée de Google alarme sur le développement de robots tueurs totalement autonomes, pouvant « lancer une guerre ou causer des atrocités massives » accidentellement.

1 « J'aime »

Skynet arrive…

8 « J'aime »

“Vous avez affaire à des possibles atrocités et à des massacres illégaux”…ouais, une guerre quoi, elles se passent ainsi depuis des milliers d’années.

3 « J'aime »

J’allais le dire ! Les romans et films d’anticipation c’est pas pour les chiens ! Nous sommes vraiment gouvernés par des cons.

Une ex-employée de Google alerte sur le danger de robots armés uniquement contrôlés par l’IA

C’est vrai qu’avec un humain taré aux commandes, on se sent tout de suite plus rassuré…

…ou pas.

1 « J'aime »

Ceux que nous élisons sont par définition les crabes qui ont reussi à surnager au dessus du panier.

Ce sont les meilleurs “compétiteurs”, les meilleur démagogues, mais rarement ceux qui ont les meilleures qualités morales et un vrai projet.

7 « J'aime »

Le truc, c’est qu’un système informatique fini en général toujours par bugguer à un moment ou à un autre, sans compter les risques de piratage.

1 « J'aime »

Un lien avec le fait que ce soit une « ex » employée …?

1 « J'aime »

Bah ce que je constate au quotidien (car on utilise déjà des IA au quotidien pour le traitement et l’analyse, par exemple pour identifier les individus à leur démarche), c’est que le contrôle par un humain n’est qu’un vœu pieux. En effet, si l’expertise en data science de l’équipe qui supervise le drone est limitée, personne ne va jamais remettre en cause l’analyse de l’IA.
Car, il faut bien comprendre que le nœud gordien de cette histoire, c’est que l’IA est irrésistiblement sexy pour nos énarques : outre qu’elle ne mange pas de pain, et qu’elle est super rapide, elle permet surtout de se débarrasser des experts qui ont justement la légitimité pour dire “non” ou pire “monsieur le président, vous ne comprenez pas que vous ne comprenez pas”.
Car il faut bien comprendre qu’un réseau de neurones n’est pas un système “compliqué” mais bien un système “complexe”. Ce n’est pas une petite nuance, car cela veut dire que le réductionnisme n’est plus d’aucune aide pour en appréhender le fonctionnement et que nous somme dans l’impossibilité d’apporter une quelconque preuve de programme. Dit autrement, on est incapable de garantir que ça ne va pas m…r, n’y même d’expliquer ce qui c’est exactement passé suite à une m…e. L’exemple le plus fameux étant la Tesla qui file sans la moindre hésitation sous une remorque de camion, probablement (tout est dans ce “probablement”) par interprétation abusive de l’obstacle en simples panneaux de circulations situés au dessus des voies.
Mais pour moi, le piège le plus important, et qui est déjà en train de ce refermer, c’est que l’on prend la mauvaise habitude de se reposer sur ces IA, sans même essayer de percer le secret de leur efficacité. Car dans bien des cas, elles font mieux que ce qu’un expert obtiendrait avec des outils mathématiques plus classiques (mais parfaitement compris eux).
Et si on pousse le raisonnement jusqu’au bout, cela donne : pourquoi continuer à réfléchir si j’ai une IA qui peut le faire à ma place ?

1 « J'aime »

LOL, tes fameux films d’anticipation sont basés sur de la fiction… ne prend pas l’imagination débordante de certains romanciers pour des prédictions fiables…

Certains ont pourtant eu le nez vraiment creux ^^

En 1946, bien avant Internet, l’écrivain américain Murray Leinster a écrit ceci :

Et combien de fausses prédictions pour une qui tomba à peu prés juste? Ne généralisons pas…

Et c’est bien pourquoi j’ai écrit “Certains ont pourtant eu le nez vraiment creux”

Où est la généralisation ?

Rien à voir, un roman, film d’anticipation est une projection futuriste en tenant compte de l’état de la société contemporaine, c’est une source importante de réflexion pour anticiper les dérives, menaces.

Tu n’as qu’à lire le meilleur des mondes par exemple.