Commentaires : Anthropic défie Trump devant les tribunaux et force le Pentagone à reculer sur l'IA

Un juge fédéral a ordonné le 27 mars à l’administration Trump de lever ses restrictions contre Anthropic, qualifiant la désignation de « risque pour la chaîne d’approvisionnement » d’atteinte à la liberté d’expression.

https://clubic.com//actualite-606592-anthropic-defie-trump-devant-les-tribunaux-et-force-le-pentagone-a-reculer-sur-l-ia.html

Tout part d’une formulation jugée trop vague dans un contrat.

Si Anthropic est fondamentalement contre la guerre, alors qu’est-ce qu’elle est venue chercher au Pentagone ?

Faire la guerre pour une armée, est en réalité assez peu fréquent de nos jours. Le premier rôle des armées occidentales est de protéger la paix et les populations.
Et même dans le cas d’une armée en opération active de guerre, ça ne se limite pas à tuer des gens, cas d’usage que ne veut pas Anthropic. Par contre, il y a aussi et surtout les chaînes logistiques (la chose la plus importante pour une armée déployée à l’étranger), l’aide médicale, la capacité de comprendre et de parler des langues et des dialectes étrangers en temps réel sans avoir recours à un intermédiaire, etc.
Ce qu’a explicitement refusé Anthropic, c’est l’usage de son IA pour l’automatisation de moyens léthaux.

3 « J'aime »

J’avais bien compris cela. Mais il n’y a pas de « Disclaimer » dans l’outil IA. Il est à disposition comme un véhicule quelconque, comme un avion, un hélico. J’aurais finallemnt laissé faire comme on ne peut pas interdire des choses de la vie courante parce qu’elles pourraient servir à tuer. Il n’y a pas ce genre d’intention derrière. Ce sont d’autres considérations. Si tu frabriques des couteaux et que tu ne veux pas que l’on s’en serve pour tuer, alors ne fabrique pas de couteaux, sinon ce n’est pas ton problème.

1 « J'aime »

Si tu fabriques des couteaux et que tu ne veux pas que l’on s’en serve pour tuer, alors ne fabrique pas de couteaux, sinon ce n’est pas ton problème.

Anthropic a une partie « recherche » très intéressante et considère que le produit n’est pas assez abouti pour être intégré dans les armes.
D’autre part, en cas d’incident grave cela les protège (imaginons que l’IA hallucine et bombarde toutes les villes bleues).
On ne parle pas de petits couteaux: on parle de contrats plus complexes avec des intrications entre les contractants.
Vu la gestion puérile des administrations américaines en ce moment (rejet de la faute systématique), je comprends qu’ils aient mis des conditions - que leur concurrent a souhaité mettre aussi une fois qu’il a finalement eu le contrat …
Bref, c’est à mon avis bien plus complexe et très très résumé dans les médias.

2 « J'aime »

De toute façon, à l’issue des conflits, les présumés coupables de crimes de guerre seront jugés pour ce qu’il pourrait leur être reproché. Ce n’est pas notre problème.

Seuls les perdants sont jugés.
Les us n’ont jamais été condamnés pour Hiroshima ar exemple

Lorsque trumpinette quittera la Maison Blanche, faudra compter combien de fois lui et son gouvernement ont perdu devant les tribunaux.
Ils doivent détenir le record du monde.

2 « J'aime »

Si jamais, Grok est au point pour être couplé à un robot de combat et a peu de scrupules. Une seule cible épargnée dans ce test https://x.com/i/grok/share/8483fddaea91409399101c7e4392dd4c