Des milliards de messages chaque jour, et toujours ces « bonjour », « s’il vous plaît », « merci ». Même quand on sait que c’est mauvais pour la planète, on continue à parler gentiment aux intelligences artificielles. Mais pourquoi ce réflexe persiste-t-il ?
Pardon, mais penser cela, c’est comme donner des coups d’épée dans l’eau. Je précise que je ne dis pas merci à chat GPT, parce que je trouve que ça n’a aucun sens. Mais penser qu’on va moins polluer en faisant ça, c’est comme si je disais que j’allais empecher le titanic de couler en écopant avec un seau d’eau.
Dans un monde où la puissance/nombre de data-centers est en augmentation constante, un article sur l’impact des bonjour/merci de l’IA, c’est vraiment aller chercher du clic facile sans aucune notion d’ordre de grandeur des enjeux.
On a déjà eu ce débat, mon avis reste qu’on apprend à des programmes à comprendre, raisonner et parler de la façon la plus naturel possible. Quand on a reçu une éducation ou l’on s’exprime poliment, on s’exprime poliment. Ensuite qu’on ne vienne pas me dire qu’il serait impensable qu’il (openAI) filtre les formules de politesse en amont du traitement d’une requête par leurs models.
C’est comme rouler en SUV Lamborghini et reprocher de ne pas fermer les vitres pour économiser de l’essence.
Copilot permet de mettre juste un pouce up, je trouve que c’est pas mal car ça l’aide quand-même à valider la qualité des réponses (ou pas).
SUV tout court qui est une aberrations écologique ![]()
La raison est la même que pour nous, on devrait arrêter de dire merci pour faire moins de Co2, et surtout on a pas du tout, mais pas du tout alors, fait l’IA à notre image … Ce serait presque un manque de respect envers nous même. Il faut être gentil et reconnaissant à l’intelligence, sinon on est un gros con idiot, les règles du karma électronique sont bien plus évidentes que les théologies fumeuses ; l’intelligence saura nous le rappeler.
Je crois tout simplement qu’on se montre courtois dans la vraie vie quand on a une éducation, une bonne nature, qu’on ne conçoit pas le contact humain comme une épreuve de force, et que cela déteint sur l’usage du robot.
On ne parle jamais de ceux qui lui balancent des insanités, au robot, ce qui doit coûter autant d’énergie, ni des ineptes, des ignares, dont le vobulaire néandertalien se résume à trois éructations et une palette d’injures, qui se serviront du robot pour lui demander où trouver de la beuh. Ce qui est aussi coûteux en terme d’empreinte carbone.
ChatGPT le permet aussi (ainsi que Perplexity et Claude, les autres je n’ai pas testé mais à mon avis c’est pareil).
Ce n’est pas aussi simple que ça. Tu peux pas juste supprimer les formules de politesse avec un filtre basique, il faut un système un peu évolué, qui saurait comprendre la question pour la reformuler sans les formules des politesse. Au final, ça consommerait plus que de les laisser.
Ensuite, quand bien même un tel filtrage serait plus efficace que de passer directement le prompt au LLM, ça serait très perturbant pour l’utilisateur. Parce que quand tu met des formules de politesse dans ton prompt, tu t’attends à en avoir dans la réponse. Ce qui ne serait plus le cas si les formules sont retirées avant de passer le prompt au LLM. Et du coup, le LLM paraitrait malpoli/désagréable.
gptbot envoyait 50000 à 100000 requêtes par jour pour siphoner mon site et ce pendant des semaines. J’ai fini par le bloquer. Je pense que c’est infiniment plus énergivore qu’un « merci ». Il faudrait qu’il arrête de nous raconter des histoires.
Oh, tu as vu des traces sur ton serveur web Apache/Ngnix ?tu as mis un fichier robot.txt pour demander à ne pas être depuis les IA ?
oui bien sûr que j’ai vu les traces. Ils ont tout de même la politesse de s’identifier ! Le « robot.txt » fait une recommandation pour les crawlers mais ils ne sont pas obligés de la respecter. Et justement , ils l’ignorent chez openai. De ce fait, il faut passer au niveau blocage.