L’alarme sonne parfois de là où on ne l’attend pas. L’entreprise phare de l’intelligence artificielle, Anthropic, a publié une série de recommandations aux gouvernements du monde entier, les exhortant à agir rapidement pour mettre en place une « réglementation ciblée » afin de prévenir les risques « catastrophiques » liés aux progrès fulgurants de l’IA.
Ce n’est pas une critique ! Il y a une faute, sur le titre du sujet, sur (copier-coller) : Antropic. Il manque le H. ![]()
En ce qui concerne le sujet, j’ai toujours pensé, qu’on avait mis la charette avant les bœufs.
Avec l’IA, les criminels n’ont plus besoin de se risquer à visiter des sites internet surveillés. L’IA récupère et leur apporte les informations et eux, devant leurs croissants et leur petit café/jus d’orange, ils s’en sortent à bon compte.
ça ne m’étonne pas que ce genre d’alerte vient d’anthropic … son IA Claude est la plus éthique à ce jour !!
L’autre jour je lui ai demandé une information sur le reverse engineering et les DRM … l’IA ne voulait pas répondre elle disait que c’était illégal blablabla même en lui disant que je ne veux pas cracker un système je cherche juste une information. Nada !!!
Sinon pour moi le plus grand danger de ses IA c’est qu’elles propagent des erreurs et tout le monde apprend des erreurs car ces IA répondent toujours même quand elles n’ont pas la réponse ![]()
Pour moi, le vrai "danger " de l’IA, c’est qu’elle prenne petit à petit pas mal d’emplois occupés actuellement par des humains, pas qu’elle remplace l’Homme.
Un autre danger, c’est aussi que beaucoup trop de gens feront aveuglément confiance aux IA et réfléchiront de moins en moins par eux-mêmes. On voit déjà bien assez cette tendance sur les réseaux sociaux, les gens avalent n’importe quoi. ![]()
inaction ou d’une réaction trop lente des pouvoirs publics
Pléonasme… Surtout en France, qui a une culture curative plus que préventive.
Et encore, l’aspect « curatif » se limite souvent à des effets d’annonce brossant l’opinion public dans le sens du poil…
Bonjour. Selon Musk 100 millions au niveau mondial et cela continuera. Imaginons des systèmes et des robots qui travaillent sans relâche et se passent des syndicats c’est tout benef mais cela engendrera une crise hors du commun. Coupons le bouton mais ce n’est pas l’intention des multinationales. Lorsque l’IA sera dans des machines quantiques elle agira d’elle même. Elle sait déjà se coder et pour l’heure même les hackeurs peuvent s’en servir. J’ignore ce qu’elle fera mais elle pourra même être connectée sur cerveau humain. Espérons qu’elle aura plus de sagesse que ses créateurs
en autre dans le milieux du code, chatgpt generait du code avec des lib inexistantes, un cybercriminel pourrait créer la lib et attendre que l’ia refasse la même erreur… aie…
de quel retard tu parles ? ça fait quelques mois que j’utilise Claude 3.5 Sonnet et il est plus performant que ChatGPT 4o sur tous les points … ChatGPT est devenu fainéant et souvent les réponses qu’ils donnent c’est pour faire plaisir à l’utilisateur. suffit de lui dire le contraire de ce qu’il dit dans un contexte précis et il va te sortir la fameuse phrase : tu as raison, je dois me corriger
Si tu pousses un peu et que tu lui dis qu’elle s’est trompée à nouveau, elle va te dire qu’en réalité ma première réponse était juste ![]()
Voilà tout le problème de ces IA qui répondent même quand la réponse n’est pas évidente.
Une IA qui confond souvent un complément d’objet avec un complément circonstanciel … bon courage pour ceux qui apprennent la grammaire avec ces IAs !
Faute de frappe !
Le « l » et le « p » sont proches.
en gros chatgpt generait un code avec la lib « salute » a la place de la lib « saluti », un criminel depose le nom de lib et si quelqu’un utilise la lib recommandée par chatgpt, ça lance un malware (explication à la va vite)
ChatGPT Hallucinations Can Be Exploited to Distribute Malicious Code Packages - SecurityWeek si tu veux en savoir plus