Claude AI est maintenant capable d’ingurgiter de très longs textes et documents en quelques secondes et de répondre correctement aux questions qui y sont relatives.
J’ai du mal à trouver ça efficace 22 secondes.
Peut être parce que tu es nul en proportion…
Bizarre comme test, faire une bete comparaison, quelle que soit la quantité de texte, n’est pas vraiment la tâche la plus adaptée à présenter à un LLM.
Si plusieurs détails du livre avaient été modifiés, et qu’on avait demandé au modèle de résumer ces modifications et leur impact sur l’histoire et la morale du livre, là oui, effectivement, ça aurait pu être interessant.
Mais juste comparer du texte brut… Il y a bien plus efficace pour ça
il faut surement voir que ce travail est réalisé par une IA de traitement du langage et pas un logiciel conventionnel, ça a son importance, étant donné que les 2 technologies sont radicalement différentes
après cette analyse de texte en 22 secondes, on peut surement rebondir sur une analayse sur ChatGPT, ou très prochainement, c’est surtout ça qu’il faut voir, le fait que le traitement par une IA est maintenant quelque chose de faisable, et ce n’est que le début
On est d’accord, l’importance était de montrer qu’il est maintenant possible de traiter un grand nombre de tokens en entrée à un coût qui reste maitrisé.
Reste que l’exemple prit n’est malheuresement pas très interessant, enfin de mon point de vue!
C’est nul : un robot qui ne saurait pas mémoriser…
Ce serait pas mal de créer une conversation entre Chat-GPT et le Claude.
je trouve aussi le protocole de test peu intéressant, des comparaisons par checksum font ça bien plus vite.
ce qui aurait bluffer le chaland, c’est de changer un point critique du bouquin, et effectivement de comparer les deux résumés réultants, le tout en 44 secondes.