Je peux te la proposer autrement :
Si ton IA a toujours « plus raison que toi » dans absolument tous les domaines connus, et ce sera le cas à terme, si tu veux garder la décision, tu peux, c’est toi qui donnera le « Go »
Mais c’est bien l’IA qui
- t’auras proposé les options les plus pertinentes, elles mêmes classées par ordre de pertinence
- t’auras expliqué pour chacune d’entre elles causes et conséquences de la décision
- aura pu prendre en compte, pour chacune d’entres elles, un nombre bien supérieure de critères, et leur avoir donné une pondération que peu d’hommes pourraient faire
au final, 9.999x sur 10, si tu veux absolument décider, tu te borneras probablement à superviser et valider la décision d’une IA.
ET je ne suis pas vraiment d’accord avec ton premier paragraphe, tu traduis ici NOS limitations, mais si l’IA gagne déjà en bourse comme au jeu de go, c’est précisément qu’elle a moins de biais.
Bien sûr qu’elle en a,
surtout si ses sources de données sont elles mêmes biaisées, mais plus on va l’alimenter en sources fiables et relues par les pairs, plus ses décisions dans un domaine précis seront celles d’une sorte de super-expert/chercheur de ce domaine, donc sans/moins de « parasitisme » permanent de nos idéologies.
Une IA, surtout si on imagine une IA-G, pourra être « câblée » par une éthique utilitariste et des lois bayésiennes qui seront toujours plus « humanistes » et justes que ce qu’un humain lambda proposera.
Et ce sera AMHO, après la claque Dall-E / MidJourney puis Chat-GPT, la prochaine grosse blessure narcissique de l’humain .
et franchement, tant mieux !
nous sommes de mauvais empathes, nous sommes souvent injustes, nous refusons souvent d’admettre des datas qui contreviennent à nos idéologies - pas la machine si elle est spécifiquement câblée pour ça.