Selon le patron d’OpenAI, Sam Altman, la politesse des utilisateurs envers ChatGPT coûte « des dizaines de millions de dollars » en électricité. D’après une étude de la société d’édition Future PLC, 70% des utilisateurs sont polis avec les chatbots. Plusieurs experts soutiennent que cette courtoisie améliore néanmoins la qualité des réponses.
Les plus écologiste d’entre nous ne doivent plus savoir sur quel pied danser.
Les plus écologistes n’utilisent pas les IA…
Les développeurs d’IA pourraient-ils programmer les futurs modèles pour qu’ils réagissent différemment selon la manière dont on s’adresse à eux ?
C’est pas vraiment l’idée. Les poids des IA sont construits sur base des données principalement disponibles sur le net. Sur les forums, des questions courtoises donneront généralement de meilleures réponses, alors que des questions malpolies auront droit à des trolls.
L’IA ne fait pas la distinction entre le bien et le mal, ce sont les patterns qui la structurent et c’en un. Simple as that.
On en est à un point où on peut développer des LLM hyper pointus mais on est pas foutu de faire de l’algorithmique de base pour justement ignorer certains mots ou phrases ? Sam essaie de copier Elon en terme de stupidité ?
Et bonjour bonjouuuuur
Je vous remercie d’avoir ramené ce s à la raison.
Pfff évidement les « merci » sont énergivores maintenant ? Faut arrêter les conneries.
Oui un LLM va avoir tendance à mieux réponde si on est poli, tout simplement parce qu’un llm est censé reproduire une « discussion naturelle ». Il ni a qu’à voir comme GPT 4 te prend pour son pote maintenant pour le comprendre (je trouve ça relativement insupportable).
Maintenant j’ai tout de même du mal à admettre qu’un gros modèle online consomme autant pour un merci, ou pour générer une image (avec les trends à la con ghibli, starter etc…) car en local, encore une fois on peut le faire(Ollama, ComFyUI…). Je l’ai fait avec une RTX6000 mais aussi avec une bonne vieille 1080. Et mon ordi n’a pas explosé. Donc soit ils gèrent leur serveur comme des m… à savoir autoriser trop de demandes à la fois, soit ils ne se font pas chier et blindent les serveurs au max histoire de récupérer des données ne serait-ce qu’analytiques.
Au bout d’un moment, faut arrêter. Ils proposent un service gratuit ou pas, ils doivent faire en sortent que ça ne « flingue » pas trop la planète, donc rester maitre de leur conso.
Le mec lève 40milliards chaque week-end mais on va nous casser les pieds parce qu’il ne faut pas être poli ? Mais zob.
Ben dans le cas d’un LLM, oui, parce que ça va déclencher un traitement…
Ces gros modèles ont 20 à 100 fois plus de paramètres que les petits modèles que tu fait tourner en local. Ce qui fait que pour traiter une même requête, il faut beaucoup plus de calculs.
Petit exemple, sur une même question, sur mon PC, Llama 3.2 1B génère près de 350 tokens/s, alors que Llama 3.1 8B n’en produit que 100.
Ce n’est pas nous, c’est lui ! C’est ChatGPT qui est trop poli !
Alors on se sent obligé de répondre poliment.
Il n’en demeure pas moins que le fond de l’histoire c’est qu’un llm doit permettre un langage naturel. Donc si on se met à ne plus être poli quand on pose des questions, on va se travestir le langage, la culture, l’éducation civique. Ce n’est absolument pas aux gens de cesser la politesse, déjà que dans notre société ça se dégrade à vue d’oeil. C’est à Sam, Marc, Elon et leurs chercheurs d’optimiser leur llm afin qu’ils bouffent moins de token pour ces interactions (encore heureusement) naturelles.
Mais justement, pour avoir moins de token, faut réduire les politesses…
Rajouter un merci à la fin de la conversation, c’est 2 tokens supplémentaires en entrée. Et faire une réponse derrière, si elle n’est pas réduite à sa plus simple expression, c’est des dizaines de tokens à générer. Et rajouter un « s’il te plait », c’est 5 tokens supplémentaires.
Y a pas de miracle, la seule solution pour réduire ces tokens, c’est d’éliminer ces parties.
Et il n’y a rien de gênant à ce que les conversations avec un LLM ne soient pas identiques à celles avec un humain. La finalité du LLM, c’est de répondre à une demande de l’utilisateur. Ce n’est pas un autre humain avec qui on sociabilise, c’est une machine. Il n’y a que si on lui demande explicitement de produire un dialogue le plus réaliste possible qu’il devrait ajouter les fioritures habituelles d’une conversation entre humains.
Tu ne dis pas merci à ta voiture à la fin d’un trajet, y a pas de raison de le dire à un ordinateur quand il a répondu à ta question.
Ce n’est pas si simple. On ne parle pas d’un algo avec filtrage des entrées.
La « beauté » d’un LLM, c’est l’adéquation et l’adaptation de la réponse à la requête, la sensation de naturel. Tout élément de la requête, le style ou la politesse par exemple, influence directement la réponse. Bricoler les entrées revient à fausser les réponses. On peut le voir avec les problèmes avec les censures de certains modèles, pas totalement efficaces et sortant surtout des réponses pré-mâchées ridicules).
Vouvoyer l’IA conversationnelle et user des formules de politesse, selon moi ça entretient un minimum de formalisme et de distanciation bénéfiques : on s’efforce de formuler des questions plus construites. En ce sens, c’est peut-être finalement moins énergivore pour l’IA. Pour cette même raison la tendance des IA à tutoyer n’est peut-être pas pertinente…
C’est plus philosophique qu’autre chose. Je ne dis pas merci à ma voiture (quoi qu’il m’est arrivée de la féliciter😅). Mais tu ne peux pas comparer une discussion avec un llm et avec un objet de base.
Je dis juste que ne pas parler poliment tout court est mal. Et qu’ajouter une couche de non civilité quand on parle, que ce soit avec une IA ou pas, c’est régresser. Si pour parler à un llm il faut parler comme un robot, c’est de la régression à mon sens.
Il ne s’agit pas d’ajouter une couche de non civilité, mais simplement de ne pas ajouter une couche de politesse… Ça n’a pas de sens de demander « s’il te plaît » ou de dire merci à un LLM. Ce n’est pas un humain, il est parfaitement normal de ne pas forcément lui parler comme à un humain…
Perso je trouve même plutôt bizarre de parler à une machine comme à un humain…
Sinon, c’est quoi la prochaine étape, avant de lui poser une question on s’excusera de le déranger ?
Des milliards de dollars!
Tu as raison. En plus, ces bestioles, ça apprend tellement vite, que si tu les habitues à leur parler trop poliment, bientôt, pour leur demander quelque chose, il faudra commencer par « si votre sérénissime grandiosité veut bien… »