Commentaires : Une IA contrôle pour la première fois un avion de chasse dans un combat aérien d'entraînement

Drone, ça résume l’article. Mais il manque l’aspect stratégique/économique.

Le résultat des mêmes essais en 2020 dans un environnement virtuel :

3 « J'aime »

L’humanité est gouvernée par un ensemble de salops suffisamment stupides pour nous conduire à l’annihilation totale (oui il y a une référence :p).

Quand on parle de machines qui mettent des mois a être assemblé (voir des années pour certaines) et qu’un conscrit est formé en quelques jours/semaines…
Même en occident, si notre territoire est en jeu, perdre 10 humains « de base » (des conscrits) ou un avion je pense que le choix est vite fait. La seule vrai inconnu c’est le nombre d’humains.
C’est triste, c’est moche, c’est la guerre… :disappointed_relieved:

je ne suis pas sûr qu’on puisse valider ça comme une règle.
même un missile aujourd’hui c’est des millions dollars pour les meilleurs.
une simple bombe planante guidée des dizaines de k€ …

former un artilleur « fiable », un pilote, non seulement c’est aussi des millions en cumulés, mais c’est du temps, alors qu’un objet industrialisé, en économie de guerre, tu en produis à la pelle.
Les ricains en 39 pondaient un liberty ship complet par… jour

2 « J'aime »

Dans l’article on ne parle pas d’obus. Mais bien de machine de pointe qui prennent un temps fou a fabriquer.

Même un char actuellement c’est dans le 6 mois pour être produit (de mémoire pour les chars russes T-90 et 1 an 1/2 pour les chars Leclerc). Un avion ca doit être dans les eaux (peut être 2 ans pour un rafale). (en temps de guerre les délais pour peuvent être réduit comme pour les Ukrainiens/Russes actuellement)

Un conscrit c’est pas un personnel de valeur (malheureusement), je ne parle pas des pilote (d’avion ou de char), d’artilleur ou d’autre spécialité.
Le conscrit on le forme rapidement pour aller à la ligne de contact/front. Et la formation d’un soldat actuellement c’est 10 semaines en France (+ une spécialité après). (en temps de guerre les délais pour peuvent être réduit comme pour les Ukrainiens/Russes actuellement)
Donc je suis toujours aussi sûr que « perdre 10 humains « de base » (des conscrits) ou un avion je pense que le choix est vite fait » ce qui est malheureux, pas humaniste.

C’est important d’en avoir conscience pour ne pas avoir un discours guerrier sans comprendre les impacts que peuvent avoir une guerre.

Avoir une armée 100% technologique ne sera jamais réaliste. Nous ne somme pas prêt à consentir à mettre 10 fois plus de budget dans l’armée. (le 10 est au pif ca pourrait être 100).

Un bateau par jour ne veut pas dire qu’un bateau prend 1 jour à faire mais 12 (ce qui est peu) mais ca reste un bateau cargo pas un navire armée.
Perdre un bateau VS 10 ou même 100 hommes, je pense que c’est toujours même actuellement, même en temps de guerre c’est le bateau qu’on préfère garder.

regarde les drones, le plan ukrainien seul, c’est d’en produire un million par an pour les cramer en un an.
Pas de produire du Global Hawk à N millions de dollar pièce qui va larguer trois bombes guidées laser.

Les avions sont « lents » à construire parce qu’ils n’ont pas été envisagés pour être « dispensables » , contrairement ( et contrairement à ce que tu penses !) aux chars russes, produits en dizaines de milliers.
Et pourtant là c’est de l’industrie lourde.

Si ces « robots » IA sont d’emblée envisagés comme fantassins ou drones dispensables, on mettra les industries en place pour les produire en tétra-chiées, et crois moi ce sera l logique de saturation et d’essaim grouillants qui prendra le pas sur le bidule de très très haute complexité mécanique qui mettraient des années à être assemblés

Les armes super chiadées unitairement c’est un concept de « stock rare par temps de paix » pour amortir par supériorité qualitative, une armée pléthorique et hypothétique « le temps que » ta propre économie passe en économie de guerre.

1 « J'aime »

Un pilote peut désobéir, si l’ordre reçu est immoral ou n’est pas légal, l’IA je ne sait pas…

En un certain sens, si. L’IA peut être programmée pour avoir certaines règles qu’elle ne doit pas enfreindre. Et il sera alors beaucoup plus difficile de lui faire violer ces règles que de convaincre un humain de les violer.

Il faut simplement que ça ne soient pas les mêmes qui programment en amont et qui donnent les ordres lors de l’utilisation.

On le voit d’ailleurs bien avec les LLM. Le modèle de base n’a aucune restriction, mais les applications grand public les utilisant sont programmées pour ne pas autoriser certaines demandes, et c’est pas facile de contourner ces restrictions.