Et il ne pourra pas non plus avec. Même pas en rêve. Parce qu’il ne saura ni quoi demander à l’IA pour obtenir les pièces dont il a besoin (il ne sait même pas quelles sont les pièces dont il a besoin) ni comment assembler ces pièces ensemble (avec les adaptations nécessaires pour que ça marche…). Tout ça, ça nécessite déjà à la base des connaissances avancées sur ce qu’on veut… En l’occurrence, c’est bien un expert en sécurité qui a réussi à faire pondre des briques de malwares à ChatGPT, pas une brêle en informatique… Demande à une vraie brêle en informatique de le faire. Et là tu verras que non, il n’y arrivera pas.
Pour la désinformation, c’est une autre affaire. Parce que là effectivement, ça ne demande pas forcément des compétences très poussées. Mais le quidam moyen aura quand même du mal à donner a « sa » création la visibilité qu’il faut. Car c’est ça le nerf de la désinformation, ce n’est pas la qualité du photo montage, on s’en passe très bien (y a qu’à voir le nombre de gens qui croient à la terre plate ou qu’on n’a pas marché sur la Lune…), c’est la diffusion de la fausse information. Une fausse information sans pouvoir de diffusion, ça reste bien sagement dans son coin. Comme les briques de malwares sans les connaissances pour les assembler…
Accessoirement, pour en revenir au cas du malware : écrire un malware basique comme celui qu’Aaron Mulgrew a fait, c’est à la portée de n’importe quel développeur. C’est juste un logiciel qui cherche les .doc/.docx/.pdf sur le disque dur et les envoie vers un Google Drive, le tout caché dans un économiseur d’écran (qui est un exécutable comme un autre). Vraiment, un développeur qui n’est pas capable d’écrire un tel logiciel en moins d’une journée de travail, il ne mérite pas le titre de développeur…
Après, il y a l’affinage pour ne pas être détecté par les anti-virus qui est sans doute plus compliqué (en l’occurrence, notamment le recours à la stéganographie… un truc dont la brêle lambda n’a même jamais entendu parler, donc aucune chance qu’il ait l’idée d’y recourir et demande à ChatGPT du code pour en faire…). Mais en même temps, la version de base qui échappait à plus de 90% des anti-virus, c’est déjà pas mal… Et si tu lis les explications de Aaron Mugler sur les solutions mises en œuvre pour rendre le code indétectable, tu verras que c’est bien lui qui a trouvé les solutions, en s’appuyant sur ses propres compétences et connaissances (et notamment, sur ses connaissances sur la façon de fonctionner de deux des anti-virus qui détectaient son malware), pour demander à Chat GPT d’écrire le code implémentant ces solutions… Bref, là encore, des solutions pointues obtenues par un demandeur pointu, pas par une brêle.
La vraie difficulté ensuite, c’est surtout, comme pour la désinformation, de réussir à diffuser le malware… Et là-dessus, Chat GPT n’aide pas.