Forum Clubic

Commentaires : Google retire les prénoms genrés des suggestions automatiques de Gmail

Les pronoms sont désormais retirés des suggestions intelligentes de Gmail. Google veut éviter de confondre le genre de la personne à qui l’utilisateur répond.

C’est corrigé, merci

comment créer une population de dégénéré sans base et valeur… -_-

Ca fait longtemps que’elle est dégénérée, mais la société va en s’améliorant notamment en valeurs. Enfin des fois on se pose des questions en lisant les commentaires sur internet :smiley:

“JE NE SUIS PAS UN HOMME, Monsieur.” :joy:

Grande nouvelle pour la communauté des LGBTQFGSFDS+

Prochaine etape retirer les statements “>” et “<” des languages de programmation: c’est très oppressant pour les integer.

Donc on perd en efficacité (basée sur de la statistique et donc pas sur une éventuelle denigration) pour ne pas “oppresser” une minorité…
Non mais sérieusement… le problème de ce genre de “limitation” c’est que ca crée des tensions entre communautés. On renforce la différence au lieu de la rendre normale et compréhensible.

Tu te trompes de cible.

La vérité c’est que les AI sont très imparfaites pour faire des équations sémantiques, c’est-à-dire que la déduction du genre est impossible sur la base des données en entrée. Si tu fais :

Roi - Homme + Femme = ?

L’AI est capable de te sortir :

Roi - Homme + Femme = Reine

Ce qui est tout a fait plausible. En revanche si tu lui mets ceci dans le pif :

Docteur - Homme + Femme = ?
ou alors
Directeur - Homme + Femme = ?

L’AI va te sortir une réponse du genre

Docteur - Homme + Femme = Infirmière.
ou alors
Directeur - Homme + Femme = Secrétaire

C’est donc une erreur. Toi, en tant qu’individu , tu diras docteur <=> doctoresse ou Directeur <=> Directrice. Or l’IA, nourrie des données et des statistiques, fera systématiquement les amalgames.

Ce n’est pas une histoire d’oppression de minorité, comme l’entend Clubic et son sous-entendu de l’image de Google face aux LGBTQ qui est très mal venue, mais le fait qu’une IA est un phallus en équations de sémantique. Voir ma réponse à gosupermario.

Joli “Edit” de votre com en réponse à gosupermario. Merci pour lui :slight_smile:
C’est super intéressant ce que vous dites PirBip. Mais effectivement, si on ne connait pas trop le domaine, d’après l’article, on déduit la même chose que gosupermario sans penser plus loin.
Alors merci pour toutes ces précisions et votre analyse qui font voir le problème sous un autre angle.

Mais on s’en moque d’avoir des erreurs car ce sont des propositions et pas des réponses donc comme on se base sur des statistiques, on SAIT que dans la majorité des cas, on gagnera du temps.

Mais de rien ! :slight_smile:

En quoi une IA est genrée ? Il n’y a pas plus neutre qu’une IA, elle ne fait que refléter/utiliser la société et ses statistiques.

Pourquoi faire mentir les statistiques pour l’orienter vers ce qui est souhaitable et positif plutôt que gérer de front la vérité et ses dérives ?

Je ne peux pas partager le “on s’en moque d’avoir des erreurs car ce sont des propositions”. Google avait proposé un bouton “Drop the mic” pendant un premier avril, placé au même endroit qu’un bouton “Envoyer”. A cause de cette erreur, deux personnes ont perdu leur emploi. Dans la majorité des cas, tout le monde a gardé son emploi parce qu’ils ont bien cliqué, ou que l’employeur est compréhensif, donc ce n’est pas grave ?

Effectivement si on raisonne en termes de majorité pure, c’est-à-dire 50% des cas plus un cas, oui on gagne du temps. Mais est-ce que vous allez faire confiance à un système qui n’est fiable que 50% du temps ? Le problème du raisonnement majoritaire pur, c’est que si on se dit que ça marche pour une majorité, dans le cas extrême pour une bonne majorité, mais qu’on n’atteint pas un niveau de fiabilité conséquent, on ne fait pas des systèmes qui sont fiables… on fait des systèmes qui fonctionnent à moitié. Une voiture qui fonctionne 50% du temps n’est pas une voiture fiable, donc un système de prédiction algorithmique basée sur une IA qui n’a raison que 50% du temps n’est pas fiable. Désolé, pour convaincre quelqu’un que vous gagnerez du temps avec l’IA, il faut que l’IA dépasse les 90% de fiabilité. Ce qui n’est pas le cas de ce système de prédiction. Google a eu raison de rétropédaler et de proposer quelque chose de plus fiable.

le terme “phallus” est assez osé et très réducteur. Pourquoi pas “une quiche”, naze, nul … :slight_smile: :wink:

1/ Vous confondez traitement sémantique et genre de l’IA. Non, une IA n’est pas genrée et oui, une IA est neutre et se nourrit des données en entrée. Ce qui ne veut pas DU TOUT dire que les données en entrée sont toutes pertinentes et neutres.

2/ Si on n’oriente pas les données vers ce qui est souhaitable et plutôt positif, on finit avec l’IA de Microsoft, qui finit sexiste et nazie en 24 heures. C’est parce que justement, une poignée d’individus mal intentionnés sont capables du pire dans l’orientation des données qu’il ne faut pas donner n’importe quoi à manger à l’IA. Donc, “faire mentir les statistiques”. Ou créer volontairement des IA psychopathes, au choix…
Vous imaginez même pas les dégâts d’une IA active qui mange du gobelin et qui recrache donc du gobelin. Des IA ( Edit : programmées de manière différente, on ne demande pas à la sémantique de faire autre chose que son travail) pilotent déjà en partie des drones tueurs qui confondent des troupeaux de vaches avec des tanks. Donc il faut de la bonne donnée, pas que de la donnée globale, sinon on a un système qui, comme je l’ai expliqué plus haut, n’est pas fiable mais marche qu’à moitié.

Ah non, “quiche” c’est réducteur pour les Lorrains. Je ne peux pas m’abaisser à ça… xD :wink:

Encore une fois on parle de propositions et pas d’automatisation donc oui 50% d’erreur ne me dérange pas du moment que globalement je suis plus efficace.

Grand bien vous fasse pour vous, si ça vous va, c’est vous que ça concerne, mais pour le plus grand nombre, et c’est ce dont il est question pour l’IA de Google, ça ne va pas.

Bah non…justement ca va pour le plus grand nombre car c’est une IA qui se base sur le volume de données… mais on bloque la fonctionnalité pour une minorité