Commentaires : Claude, l'IA qui hack ? Des espions chinois s'en servent avec plus ou moins de succès contre une trentaine d'organisations

Et si votre assistant IA devenait le complice d’un casse numérique ? C’est le scénario, bien réel cette fois, qu’a déjoué Anthropic en découvrant que son modèle Claude avait été enrôlé par des espions chinois pour attaquer une trentaine d’organisations.

Sont forts, y de l’aws partout, des réseaux et machines zombies, des proxys, voir même quand t’as les moyens d’être soutenu (par un pays …) faire tourner un ou plusieurs gros llms avec tous ces gardes fous, mais là non … On est des pirates parcequ on aime le picrate et aussi utiliser l’api Claude depuis nos bureaux géolocalisés ! Serieux ? Des amateurs ? Doivent être bien planqués alors !

Dans l’article original, on trouve que

Anthropic affirme que ces erreurs (les hallucinations de l’AI) constituent « un obstacle à des cyberattaques entièrement autonomes »

Rassurez-vous bonnes gens, nos AI sont tellement intelligentes qu’elle produisent de la merde inutilisable en cas de tentative d’utilisation malveillante, tout en restant 100% efficaces dans la gestion autonome de vos business processes critiques tels que le recrutement, le service client, l’analyse juridique, ou le développement d’applications.

Elle est pas belle la vie ?

L’IA n’est qu’un outil et ne remplacera jamais l’intelligence naturelle, tous dépend ce qu’on en fait…
D’un coté faut éviter de s’habituer à l’IA pour tous et n’importe quoi pour ne pas régresser intellectuellement et de l’autre, faut l’orienter dans les tâches chronophages et répétitives pour rester productif et garder la main sur les tâches innovantes qui demande de la stratégie à court et à long terme.