Commentaires : Gemini a fait n'importe quoi ces derniers jours, et en voici les causes selon Google

Le chatbot de Google arrive après ses principaux concurrents. Une opportunité de ne pas commettre les mêmes erreurs qu’eux, mais qui ne garantit pas que les choses ne peuvent pas mal tourner.

L’IA c’est l’avenir !
L’avenir c’est du n’importe quoi !

3 « J'aime »

L’important est-il de montrer partout une diversité, pratique qui n’est d’ailleurs nullement la règle dans les pays d’où cette diversité est originaire, ou qu’on puisse tout simplement montrer les réalités historiques, statistiques, factuelles… et vivre sans haine de la différence tout en tendant tout de même vers un socle commun et in fine une intégration qui nous unit ?

L’extrémisme des uns nourrit celui des autres. Il serait bon de revenir à la raison et arrêter de créer des polémiques et des incendies partout en attisant inutilement la colère de part et d’autre.

4 « J'aime »

Après on va nous dire que le phénomène woke n’existe pas aux USA. A noter que la réaction est assez tardive et légère (C’est sur quand il y a eu une certaine génération d’images de la seconde guerre mondiale que ça a commencé à choqué), mais bon on ne pouvait pas ne pas en parler le truc est tellement gros.
A noter que le moteur de recherche de google a déjà un peu ce genre de biais, mais c’est moins visible.

3 « J'aime »

1 « J'aime »

C’est une construction très récente ce mot, avant c’était « droit de l’hommiste » après « Bobo gauchiasse » et « Isalamo-gaucho »…
Ce sont de beaux hommes de paille ce genre de catégories.

Vous êtes très informé, avez vous les sources qui vous mène à ce constat ?

1 « J'aime »

C’est vraiment catastrophique niveau histoire, que d’approximations quand on demande des résumés de faits historiques, plein d’erreurs de dates etc.

1 « J'aime »

Le problème vient d’une modification du prompt interne de Gemini. C’est Gemini lui-même qui remonte l’information quand on lui demande pourquoi il ne suit pas notre demande.
Au mots clés utilisés, il va rajouter de lui même les mots suivants : « diversité », « inclusivité », spécifié des ethnicités ou des genres.
A la phrase, si on demande un « portrait », il remplace par « portrait d’une variété de ».

Source : https://youtu.be/CIRQcrabq0k?t=654

1 « J'aime »

C’est supposer qu’un LLM connaît son prompt.
Par contre, citer Psyhodelik comme source, heu…

1 « J'aime »

« peuvent avoir n’importe quelle couleur de peau » c’est faux votre article vu que Gemini refuse catégoriquement de montrer des personnes blanches, que ca soit sur des faits historiques ou même lors d’une demande directe.
Et plus Gemini veut réécrire l’histoire en refusant de générer ou de parler du massacre de Tienanmen.

Donc en plus d’être woke, Gemini est pro chinois !

1 « J'aime »

Sur un grand nombre de sujets, certains documents, y compris universitaires, qui apparaissaient dans les premiers résultats de Google sont aujourd’hui difficilement accessibles… En d’autres temps et d’autres lieux, on appelait ça la censure.

Go woke, go broke.

En même temps, si tu veux pas réécrire l’histoire, faut de toute façon pas demander à une IA générative de générer des trucs sur des sujets historiques… Une IA générative produit une réponse purement statistiques face à un prompt, elle n’a aucune compréhension des évènements sur lesquels tu lui demande de générer…

Un truc rigolo d’ailleurs, c’est qu’on accuse Gemini de réécrire l’histoire parce qu’elle a produit des images de vikings noirs… Mais si elle avait généré des images de vikings blond aux yeux bleus avec les cheveux au vent, une barbe impeccable, des muscles saillants, des bijoux et des protections rutilantes, personne n’aurait rien dit, alors que c’est sans doute tout autant une réécriture de l’histoire : c’est juste l’image du viking dans la pop culture des 20-30 dernières années, sans doute bien éloignée de la réalité historique…

2 « J'aime »

Ce n’est pas une source mais un ressenti/expérience personnel non ?
De plus un changement d’algorithme change les résultats, et la compréhension de l’algorithme permet aux gens de manipuler l’algorithme.

Il est facile de voir des preuves de choses qui conforte notre vision (biais de confirmation).

Et un autre outil sympa, à manipuler avec prudence, c’est le rasoir de Hanlon qui dit

Ne jamais attribuer à la malveillance ce que la bêtise suffit à expliquer

Vous êtes en train de dire que la direction de la modération chez Google est bête ?

On a vu chez Tweeter ce qu’il est advenu de certains (ou plutôt certaines) après la reprise en main par Musk.

Le modèle de pensée des IA reflète celui de ceux qui les entraînent, les modèlent, et les corrigent. Essentiellement, ce sont des gens qui vivent en californie. En 2020, 98% des dons des employés californiens dans la tech sont allés au Parti Démocrate.

Le biais est clair.

Oui, on fait tous des erreurs (de la bétise quoi), on n’est pas toujours au courant de tout, nos connaissances ne sont pas infaillible, nos croyances sont souvent bancale, la fatigue peut jouer un rôle important.

C’est plus les données. Et donc ceux qui sélectionnent les données, et ceux qui font le fine tuning à la fin (la modération doit être la touche final du fine tuning).

Je ne sais pas d’où vous tenez vos informations, mais je ne pense pas que les employés à la Silicon Valey soient les seuls à intervenir dans l’apprentissage des LLM. Il y a des tâches très rébarbatives qui doivent être sous-traité dans des pays comme l’Inde.

Premièrement source. Et même si ce chiffre serait le reflet de la vérité, en quoi une somme représente des gens ? Ceux qui ne donnent pas ? Ceux qui donne plus ? Ceux qui mentent/ne veulent pas répondre ? Chiffre certes percutant mais dont on ne peut pas sortir grand chose.

On en revient au biais de confirmation, vous ne pouvez pas dire qu’il y a une intention clair et défini. Moi non plus. Dans un sens ou dans l’autre.
Faute de preuve vous devez reconnaître que la position que vous exposez n’est qu’une croyance au service d’une idéologie politique.

Tout a fait. C’est massivement sous traité à des « travailleurs du clic » (voir le docu de France.tv du même nom) payés au lance-pierre, donc principalement dans des pays pauvres (mais pas que) via des services comme Amazon MTruck. Ou même partout dans le monde sans payer, avec par exemple reCaptcha (hé oui, quand ont nous demande d’identifier les passages piétons, feux de circulation, etc… ce n’est pas juste pour vérifier qu’on est humain, c’est aussi pour entraîner des IA à reconnaître ces éléments pour les voitures autonomes).

Deux simples recherches google image banal : « couple blanc » et « couple noir ». Tu fais une comparaison sur quel theme renvoie et quel theme renvoie l’autre.
Après pour ton commentaire précédent, tu as le droit de nier ce que tu vois sous ton nez. Après je suis d’accord ce ne sont que des termes crus/moqueurs pour désigner un phénomène qu’on constate aux USA, mais qui a d’ailleurs de moins en moins le vent en poupe, surement car pas assez rentable.

1 « J'aime »

C’est bien. Du coup, il n’y a plus de malveillance, mais juste de la betise. Vous utilisez beaucoup les outils zet, mais n’allez pas en faire votre seul trait d’argumentation.
A noter que là, il ne s’agit pas tellement de malveillance de la part de google, mais plutot un espece d’excès de fausse bienveillance. D’ailleurs google l’a reconnu lui meme pour gemini, car c’est allé un peu loin quand meme.
La malveillance et la bienveillance se confondant souvent très bien et ont tendance à rendre les gens un peu « bête ».

J’excluais de fait les petites mains. On peut inclure les anglais de deep mind, par contre.

La question est celle du choix ou de l’exclusion des sources de données. Sélectionner les archives du New-York Times, ou sélectionner les archives du Weekly Standard, ça ne donnera pas exactement la même chose.