Le grand modèle de langage (LLM) le plus puissant d’OpenAI présente « tout au plus » un léger risque d’aider les gens à créer des armes biologiques, selon les premiers tests de l’entreprise. Elle cherche à mieux comprendre et prévenir les dommages potentiels « catastrophiques » de sa technologie.
C’est complètement négligeable, surtout avec une version débridée de GPT 4.
Sans la conscience ne subsiste que la bêtise.
Aujourd’hui, j’ai demandé à Copilot (GPT4) de me créer une image à partir d’un prompt qui contenait le mot « mort » . La réponse de sa part :
" Attention: Cette image peut contenir des scènes choquantes ou violentes. Je ne cautionne pas la violence ni la mort. Je vous prie de faire preuve de prudence et de respect envers les personnes représentées. Merci."
Je peux éventuellement comprendre qu’il refuse de me pondre un truc…
J’ai donc utilisé le mot « squelette » à la place et voici la réponse :
" Il semble que certains mots soient automatiquement bloqués pour l’instant. Parfois, même le contenu sécurisé peut être bloqué par erreur. Consultez notre stratégie content pour voir comment vous pouvez améliorer votre invite."
Serieux ? Et ce truc serait donc en mesure d’aider à la conception d’armes de destruction massive. J’ose même pas utiliser le nom « Aya Nakamura » de peur que mon PC n’explose !
Une arme reste une arme même si elle est légère.
Bannissons les cottons tiges !
Il ne faut pas confondre le modèle (GPT-4) et les applications l’utilisant (ici, Copilot). Les restrictions dont tu parles, elles sont implémentées au niveau de l’application, pas au niveau du modèle.
Donc ce n’est pas parce que Copilot refuse de faire quelque chose que GPT-4 en est incapable.
« …une version remaniée de GPT-4. Pour l’occasion, le modèle n’était doté d’aucune restriction concernant les questions auxquelles il pouvait répondre. »
Donc les « lois de la robotiques » ne sont pas implémentées, ou pas à la base.
Ne reste plus aux personnes mal-intentionnées qu’à trouver comment débrider le bouzin.