Commentaires : GPT-5.2 arrive en catastrophe : OpenAI craint Google et Claude

Panique à San Francisco ? OpenAI dégaine GPT-5.2 à la hâte, une version censée remettre Google et Anthropic à leur place. La start-up californienne, autrefois si sereine, semble avoir perdu son calme légendaire face à une concurrence de plus en plus mordante.

https://clubic.com//actualite-591274-gpt-5-2-arrive-en-catastrophe-openai-craint-google-et-claude.html

Ce rythme effréné révèle les fissures d’un géant que l’on pensait invincible, symbole d’une bulle technologique qui pourrait bien être sur le point de se dégonfler.

Alors là, je ne vous suis pas… certes, plusieurs indicateurs tendent à montrer qu’une bulle est en train de se former, mais en quoi l’accélération de la concurrence serait le symbole de cette bulle ?

@sebstein
« Parce qu’il n’en restera qu’un » (Highlander).

Quand la bulle internet (ou bulle des .com) a explosé, il y a eu beaucoup de mort. Si on parle des moteurs de recherche : AltaVista ou Lycos et beaucoup d’autres sont mort, sans parler de ceux qui comme Yahoo ne sont plus que l’ombre de ce qu’ils ont été.

Mais Google, lui, est sorti grand vainqueur et a tout raflé.

Cela va être pareil avec l’IA. Il y a trop d’acteurs et beaucoup vont mourir.
Ceux qui auront parié sur ceux la vont tout perdre.
Chacun se bat donc pour faire partie des 2 ou 3 survivants qui resteront quand la bulle va éclater. Ceux qui ont déjà trop investi sont en train de faire « tapis » pour rester dans la course - ce qui participe à faire gonfler la bulle.

Je pense que Google fera parti des survivant, non seulement parce que ils ont récupéré leur retard, mais aussi parce que leur IA est connecté au reste de leur écosystème (idem pour MS). Avec Google, je peux rechercher un mail avec un concept et pas seulement des mots clés, du type « Quel numéro de cerfa avais-je utilisé pour déposer un dossier pour tel problème ».

Les autres savent éventuellement le faire, mais c’est forcément beaucoup plus compliqué à mettre en œuvre pour l’utilisateur final. C’est pour cela que ces autres travaillent qui sur une suite bureautique, qui sur son propre navigateur, etc.

L’autre souci pour Chat GPT, c’est que si les utilisateurs trouvent cela génial en tant que moteur de recherche, bien peu sont prêts à payer pour l’utiliser. Il y a trop longtemps qu’une recherche, c’est gratuit.

Google et MS ont d’autres énormes sources de revenus que l’IA et peuvent donc perdre de l’argent sur cette dernière. Pas Chat GPT qui n’a que cela.
Je pense qu’effectivement ça doit commencer à être la panique chez eux.

3 « J'aime »

A l’inverse des moteurs de recherche, les IA sont très plébiscitées par les gouvernements et les sociétés. Une PME ne peut pas se permettre de s acheter des cartes graphiques et du matériels trop coûteux pour faire tourner l’IA en locale, ils vont tous contracter chez OpenIA , Google , Mistral et autre pour avoir ce plus très utile et qui augmente sensiblement la productivité.
La où les moteurs de recherche basaient leurs revenus sur les publicités, les IA tapent plus large, les contrats avec les gouvernements, les outils vendus aux entreprises (30euros par tête pour copilot par exemple) ,les abonnements … sont tous des bons moyens de fidelisation et de rentré d’argent pour OpenAI et consort.

« La croissance du nombre d’utilisateurs de ChatGPT stagne. »
Mais du coup, par transitivité, peut-on aussi affirmer que la stagnation croit ?

3 « J'aime »

Bah, ça fait un petit moment que chatgpt, la version gratos en tout cas, rame, tu tapes des trucs et parfois il n’y a pas de réponse, ou une réponse partielle ou fausse.
On a l’impression qu Chatgpt a la flemme. Je pense qu’il est victime de son succès, trop de questions. Une fois ou deux il m’a sorti des réponses fausses, çà des questions pourtant simples.
Par rapport à Claude il n’y a pas photo, celui-ci est nettement plus pertinent, il essaie de comprendre le contexte de la question et ensuite d’estimer la pertinence de sa réponse par rapport à ta question et te posant des questions complémentaires, et pas juste ce qui est lié à ta question. Mistral AI aussi est meilleur à mon avis, même s’il n’est pas aussi « pro-actif » pour proposer des trucs.

C’est ce que j’aime avec Claude aussi. On part de quelque chose et ensuite il essaie de construire tout un projet avec toi. Il suffit de poursuivre avec la question finale qu’il te pose à la fin d’une requête et ainsi de suite. J’enregistre le tout au fur et à mesure pour me faire de beaux how-to.

raymondp et Francis7 il y a quelque temps j’aurais été d’accord avec vous mais depuis plusieurs mois Claude devient de plus en plus bête. il se contredit et s’excuse tout le temps, il est moins fiable qu’avant et beaucoup sur Reddit l’ont aussi remarqué !

On m’a dit cela aussi, ici même, c’était peut-être toi, @BlackPanther, avec les anciens modèles qui deviennent moins performants par rapport aux nouveaux.

1 « J'aime »

exact, j’en ai parlé ici : https://forum.clubic.com/t/commentaires-plus-fragile-que-jamais-gemini-3-exacerbe-les-doutes-sur-le-modele-dopenai/498057/8?u=blackpanther

Hélas ça n’a pas changé depuis :frowning:

Demande à claude 4.5 Sonnet (un modèle très performant pourtant et très cher aussi) n’importe quoi, ensuite essaie de créer un certain doute avec une question qui contredirait sa réponse. tout de suite claude te dis que c’est toi qui avait raison et qu’il était trop strict dans sa réponse, qu’il n’a pas pris en considération tous les éléments blabla (une chose du genre) ensuite il va changer son contexte pour s’adapter à ta réponse (la pire chose qui puisse arrivé pour une IA c’est de nous faire plaisir en flattant notre égo au lieu de nous répondre de manière objective :frowning:

ah oui, ça c’est un biais des IAs, elle ne te contredisent jamais ! Elles savent bien que les humains sont obtus et qu’il ne sert à rien de les contredire !
Blague à part, je pense que c’est contre-productif de dire à l’IA qu’elle a tort, son modèle est de se rendre agréable, donc il y a peu de chances qu’elle rentre dans une polémique, à tort ou à raison. Il est certain que sa diminue sa crédibilité.
Claude me donne plusieurs réponses éventuellement, son avis et ensuite me demande ce que je choisis. A la fin elle est toujours d’accord, mais parfois avec un peu d’humour.

Non le problème de L’IA et du modèle LLM en général c’est qu’elle répond toujours (bien qu’au tout début, les IA pouvaient refuser de répondre mais plus maintenant) … mais elle peut tout à fait se contredire :slight_smile:

Non … quand l’IA te donne une réponse elle ne doit pas la nier juste parce que tu dis qu’elle a peut être tort sinon comment savoir quelle réponse est juste si elle se contredit 2 fois de suite sur une question fermée (où deux réponses sont possibles) et donc aucune des réponses n’est juste.

Et puis je sais ce que je dis, Claude 3 Sonnet n’était pas du tout comme ça, si tu le contredis il maintient sa réponse et t’expliques encore plus pourquoi tu as tort. Claude 4.5 sonnet est très fainéant :frowning: