Larry Page et Sergey Brin seraient de retour chez Google pour donner un coup de pouce aux équipes chargées des développements en intelligence artificielle.
La différence, par exemple, entre Google et GPT c’est la formulation et la réponse :
Google va trouver des pages pour nous apprendre à coder alors que GPT va coder pour nous et ça, c’est un sacré gain de temps (pour du petit code évidemment, pas question de faire Elden Ring 2 avec GPT… mais un jour, qui sait )
Le problème que j’ai avec ChatGPT est la « mono réponse », alors qu’une recherche standard Google permet d’entrevoir plusieurs résultat, et donc faciliter la comparaison…
A voir ce que cette bataille va nous apporter…
@ayaredone : et donc ne pas comprendre ce que tu fais et valider une possible erreur de ChatGPT ou une version pas du tout opti dans le contexte du code souhaité, c’est justement ce qui me fait peur…
Effectivement, moi, en tant que non-développeur, je ne comprendrais RIEN au code et je ferais un copier/coller bêtement.
En revanche, j’imagine que quelqu’un ayant des compétences en développement saura repérer d’éventuelles erreurs pour les corriger, et que corriger sera plus rapide que tout écrire.
D’après ce que j’ai pu voir ou lire sur Internet, les réponses de GPT sont plutôt bonnes.
Salut,
Pourquoi ne pas lui demander directement une multi réponse ?
Exemple :
Quels sont les 5 meilleurs groupes de musique Métal Allemand ?
Car on ne va pas se mentir, sortie des 5 premiers résultats de Google, il n’existe plus aucun résultat dans la pratique pour les utilisateurs.
Quand je demande où se trouve le lieu où je dois me rentre, tant qu’à faire, je n’ai pas envie d’avoir plusieurs résultats possibles.
La recherche monoréponse peut-être pratique parfois.
je croyais que grandegeule avait 10 trains d’avance sur openAI ?
Les trains sont à l’arret… Carburant et Electricité trop cher.
OpenAI les a donc devancé.
Plusieurs choses :
GPT qui est le réseau de neurones à l’origine de ChatGPT veut dire Générative Pretrained Transformer.
Le transformer est une structure récente qui a été inventé…par Google. Donc pour une société « en retard » , on a repassera .
Par ailleurs, Google a déjà son propre agent conversationnel ( voir les news sur les mecs virés). C’est juste qu’ils l’ont pas mise à disposition du grand public. Et pour cause : il n’y a pas de modèle de rentabilité viable pour l’instant ( voir combien consomme chaque requête de ChatGPT et combien a coûté son entraînement) ettttttt…parce que Google se prend un palenqué de procès au cul pour tout ce qui peut servir ses agrégateur dont on lui reproche de ne pas rétribuer les donnés à l’origine de ses services.
Oki, donc on a la un super agrégateur intelligent qui fait pire puisque l’origine est complètement masqué ( raison pour laquelle Sparrow, celui de Google, tient a embarqué les sources sur lesquels il se base).
Bon c’est cool pour faire joujou mais dur de reprocher à Google son agrégation et de s’extasier devant celui de ChatGPT.
Pour finir, au delà de certains domaines où ça va pouvoir faire office de game changer… ChatGPT fait plutôt office de joujou. Même en aillant la chance de pouvoir faire joujou avec et développer des applications basé sur, on revient vite à un moteur de recherche : on doit pas attendre cinq minutes une réponse qui tourne la plupart du temps autour du pot, on peut comparer, on peut se faire sa propre idée.
ChatGPT c’est un peu comme Siri and co qui n’ont toujours pas remplacé les moteurs malgré ce qu’il savent déjà faire !
Ceci dit , je suis content qu’il ai ouvert ce genre d’ia de laboratoire au public. C’est comme ça qu’on peut avancer et imaginer des applications.
Ouais enfin…je suis architecte et développeur sénior et on fait dans la génération de code. Et même si GPt va beaucoup nous aider dans nos applications, on est encore treeees loin de se passer d’un moteur de recherche.
D’une part il est pas infaillible, il peut être assez lent à répondre , on peut mettre pas mal de temps à le faire aller la ou on veut…
En soi , ça change pas de la philosophie noCode / low code …mais comme tout les rigolos qui nous vendent ça depuis des lustres, ca a toujours les mêmes limitations ( tu finis par passer plus de temps en intégration config et à galérer pour du spécifique que de faire du vrais code ).
C’est comme si tu disais que c’était plus efficace de faire tout traduire en anglais Chat GPt que de parler toi même anglais, quitte à trouver en quelques secondes le mot et le contexte qui te manque sur un moteur.
Je veux bien faire la course quand tu veux!
Quand elle est bonne.
Quand ChatGPT te soutient que 10 + 5 = 25, tout va bien …
Et d’ailleurs, concernant les lieux (genre telle ville est-elle dans cette région ?) , il est souvent aux fraises.
J’ai quand-même l’impression que tout le monde ou presque oublie que (pour le moment) « ce n’est qu’un » moteur conversationnel, fait pour être cohérent au niveau grammatical et conversationnel et non donner une bonne réponse.
Oui, il y a des réponses qui sont bonnes et le machin à un certain phrasé qui peuvent se montrer convaincant, mais attention à ne pas se laisser embarquer par des fausses informations de sa part, juste parce que la présentation du texte est belle.
Personnellement, autant je trouve qu’il y a des domaines où l’utilisation de ce genre d’(outils peut-être bénéfique, autant attention à l’état des connaissances / réflexion des personnes qui n’utiliserait que ce genre de technologies à l’avenir.
Mais Rome ne s’est pas faite en un jour.
ChatGPT présente déjà des capacités à un futur très intéressant, même si en l’état, on ne peut pas se fier à la justesse scientifique de ses réponses.
Et au passage, je répondais juste au fait que la mono-réponse fait aussi partie du business de la recherche, donc je peux comprendre que Google se sente menacé.