Commentaires : IA : Amazon met le paquet sur Olympus, prêt à écraser tous ses concurrents, dont ChatGPT

Amazon développe un modèle de langage qui serait à ce stade deux fois plus puissant que GPT-4, celui qui fait tourner le célèbre ChatGPT.

alors oui je confirme :
Le LLM conversationnel pour l’instant baptisé Olympus comporterait pas moins de deux billions de paramètres, soit 2 000 milliards.

Qui a définis ces paramètres ? ils servent a quoi, qu’est ce qu’on appel un paramètre ( metre un verbe après un sujet ? ) car clairement ce n’est pas un humain qui les configure, ni même les 1000 milliards de chatGPT

Donc clairement, tant que pas d’explications, ces phrases ne veulent rien dire…

Bart a dit la même chose. Mais il est loin d’égaler ChatGPT pour résoudre mes codes informatiques. Il se contente de donner quelques pistes.

Non, un paramètre est un des poids de chaque neurones. Nbr paramètres = Nbr neurones * nombre moyen d’entrée des neurones. En gros ça revient au nombre de multiplications à faire pour produire une sortie.
Un paramètre ne représente pas un simple mot ou un concept (quoi que dans la couches d’entrée, on assigne à chaque mot un nombre, id du mot dans un dictionnaire plus un indice indiquant sa position dans le texte).

EDIT - et ce sont ces paramètres qui sont modifiés lors des entraînements de réseau de neurones, par back propagation et co.

1 « J'aime »

tfpsly

ah bah voila, LA c’est plus clair, merci !

Bard est plus fort dans d autres domaines, sur la traduction et l explication d un text par exemple , mais effectivement chatgpt est tres fort pour construire et corriger des bouts de codes !