Un nouveau rapport commandé par Google met en lumière le retard inquiétant de l’Europe dans le domaine de l’intelligence artificielle et propose des solutions concrètes pour stimuler la compétitivité du continent. Le géant américain nous ferait-il la leçon ?
Il faudrait innover et développer avant de protéger.
Pour mettre en perspective, imaginez si la même attitude avait été adoptée lors de l’industrialisation. Que se serait-il passé s’il y avait eu 100 textes de lois interdisant la machine à vapeur et l’électricité ?
Petite prise de recul, et posons nous la question : a qui profite la montée en puissance de l’IA en Europe à tous les étages et pour tout le monde ? … les entreprises européennes de la tech ? oh wait, y’en a plus.
Bref, ce rapport est une manoeuvre de culpabilisation notoire pour que l’Europe fasse vivre les entreprises US ayant investi massivement dans le secteur. Et comme ça a du mal à prendre … m’enfin.
Du mal à prendre ? Je trouve pas.
L’IA au sens où on utilise aujourd’hui, c’est lié à chatGPT qui a même pas encore 2 ans. On a déjà Copilot intégré aux outils Microsoft, Gemini à Android/Gmail et la suite Adobe a ses propres outils d’IA aussi.
Elle commence à être exploitée dans les domaines artistiques, industriels, techniques, médicaux… On en parle dans tous les services des entreprises, mais aussi en grand public.
Je trouve qu’au contraire, elle prend très vite. Perso, j’ai pas vu une appropriation aussi rapide d’une nouvelle technologie depuis internet à la fin des 90’s.
Même le smartphone a dû attendre la sortie l’iPhone pour réellement décoller, alors qu’il existait bien avant (même si beaucoup l’oublie).
Et pourtant, le « boom » de l’IA par les acteurs de la tech a déjà tous les symptômes d’une bulle prête à éclater.
Exactement !
On en parle beaucoup oui, mais concrètement, à part des vitrines, y’a pas grand chose.
Dans les ESN, l’IA permet de remplir le planning des consultants-claquettes, mais personne ne l’utilise.
Si il n’y avait que dans l’IA qu’on prend du retard. Des jours sombres nous attendent si on ne se réveille pas…
Une consolidation du secteur, probablement. Mais pour moi on est vraiment dans un truc qui va perdurer et se banaliser. D’ailleurs, si on nous parle déjà d’une hausse des prix à venir (pour chatGPT par exemple), c’est qu’il y a un vrai signe du marché que les gens sont prêts à payer pour ça.
Ben je vois dans ma boite, le choix de l’utiliser n’est pas venu de la direction genre « c’est le nouveau buzzword il faut qu’on y soit ». C’est les collaborateurs qui ont commencé à s’en servir au quotidien d’eux-même.
On gagne du temps en gestion de projet sur les comptes rendus de réunions (qu’il suffit de réajuster plutôt que rédiger), les équipes de dev s’en servent pour gagner du temps, moi je m’en sers seul pour brainstormer et m’aider à structurer certaines réflexions… et pourtant les formations qu’on a eu (après) sont plus des présentations génériques pour nous présenter globalement le principe, nous sensibiliser aux dangers associés, parler des problématiques de droits d’auteurs, etc.
C’est justement ce qui me fait dire que ça va prendre, c’est pas un outil avec lequel on a seulement eu l’effet waouh au début et qu’on sait pas trop quoi en faire (comme la VR par exemple). Chacun y trouve son intérêt et se l’approprie à sa façon, même les moins technophiles, et ça infuse petit à petit.
les textes n’interdisent pas ils encadrent et peut-être justement si des textes avaient existés à l’époque pour encadrer le développement industriel anarchique ne serions-nous pas dans la situation actuelle ou la pollution devient un problème majeure qui risque d’impacter fortement la qualité de vie de nos descendants.
Je vois surtout une énième tentative pour nous culpabiliser et nous faire supprimer tout les verrous et encadrement pour revenir à un capitalisme débridé qui se fout de l’avenir du moment que le présent rapporte. Vive le fric et qua génération future crève quelle importance moi au moins j’aurais bien vécu.
C’est comme n’importe quel outil qui facilite un geste métier … cela s’adresse à ceux qui peuvent faire sans l’IA (sens critique, tout ça) … par contre, mettre ça dans les mains de personnes incapables de détecter les erreurs et autres incohérences par manque d’expérience est extrêmement dangereux : quelque soit la véracité et la justesse du résultat de l’IA, ce résultat sera pris au pied de la lettre.
Maintenant, la génération de code par l’IA dans les projets est une c_nnerie académique. En dehors de la problématique des droits d’auteur et de la confidentialité, on retombe dans les problèmes des générateurs de code : CàD quid de la maintenabilité ? Que se passera t’il pour les sources générés par l’IA quand celle-ci ne fonctionnera plus ?
Assez d’accord sur le fond, après si on fini à la traîne sur tous les secteurs à haute valeur ajouté… et bien on finira (ce qu’on est déjà en partie) dans un appauvrissement relatif inexorable…
Perso je ne suis pas « croissantiste » mais il faut assumer les côtés dark de cette posture: faute de ressources abondantes nous n’aurons pas la dernière tech de scanner dans nos hôpitaux ect pour donner un exemple concret mais ça s’applique à à peu prêt tout.
Pardon mais je comprends pas le raisonnement. C’est pas parce que tu peux le faire sans l’IA que c’est pas plus simple de le faire avec. Je peux monter des blancs en neige avec une fourchette, mais je préfère le faire au robot. Évidemment qu’il faut pas faire n’importe quoi avec non plus et considérer que Michel de la compta va pouvoir construire son ERP.
De la même façon qu’on imagine plus un développement sans l’intégration de librairies tierces qu’on ne maîtrise pas toujours (à l’époque, jQuery servait à des dev qui ne comprenaient absolument rien au JS), que les frameworks font apprendre une méthode de codage différente (un dev Symfony va galérer à écrire une requête SQL), Gutemberg permet de construire des mises en page WordPress sans écrire une ligne de code…
C’est une évolution de la compétence, car oui il faut pas prendre tel quel le code pondu et il faudra justement être capable de mobiliser ses compétences pour 1/ lui envoyer les bonnes directives 2/ corriger ses erreurs et 3/ comprendre ce qu’il a fait de bien pour être capable de s’améliorer grâce à ça.
Mais perso, de mon poste qui est pas supposé rédiger une ligne de code (à part un peu de HTML) j’ai pu construire avec chatGPT un outil basique en JS qui me fait gagner environ 10min chaque semaine depuis 6 mois sur une tâche de classification sans aucune valeur ajoutée, alors que je connais absolument rien au JS (j’ai globalement une bonne capacité de lecture d’une « logique de code », mais que des notions de base en HTML/CSS et un peu de PHP).
Alors oui, quelqu’un ne saura peut-être pas l’actualiser quand l’API tierce que je sollicite aura changée, mais en attendant j’ai déjà bien rentabilisé mon heure de discussion avec chatGPT, et celui qui se retrouvera à vouloir l’utiliser pourra toujours reprendre le travail à la main.
Connaissant nos process internes, j’aurai attendu une éternité pour l’avoir autrement, on m’aurait demandé de justifier les 10 JH de budget engagés pour en arriver à quasiment la même chose (construction d’un cahier des charges, conception de la page en UX/UI pour le dev front end, développement back end, recette…).
Ok, tu te fais un p’tit set d’outils … tu n’es pas sur un progiciel déployé sur des datacenters.
Ceci dit, le risque avec ce genre d’approche est de voir un outil spécifique passer de main en main avec des niveaux de maîtrise aléatoires de la technologie utilisée … et finir en salle d’exploitation aux mains des pupitreurs.
J’ai un exemple comme celui-ci avec des macros Excel créées par une équipe fonctionnelle, passé de main en main et finir en 2010 sur une machine dédiée en salle d’exploitation sur un Windows 2000 / Office 2000 impossible à mettre à jour, impossible à aspirer dans une VM, etc … Et bien sûr, ça pilotait de la grosse machinerie industrielle.
Ha non mais c’est sûr qu’il y a aussi des travers, que ce soit à mon échelle ou à de plus grandes échelles. Mais aujourd’hui le code mal documenté ou mal implémenté, ça existe. On a pas attendu l’IA pour avoir des visions différentes.
Il faut évidemment rester maîtrisant derrière quand c’est le nerf du métier et maintenir les process sur des projets d’échelle industrielle, mais même là ça veut pas dire que l’IA peut pas aider (surtout que ça commence déjà à intégrer les IDE je crois, donc l’IA aura une lecture « globale » du code).
L’IA reste un outil, comme un couteau peut servir à trancher du pain, graver du bois ou tuer quelqu’un… Je ne suis pas du tout déterministe technique
ici c’est de ces IA dites généraliste qu’on parle pour celle qui servent la science ce n’est absolument pas le cas nous en développons comme les autres. Mais je suis pas sur qu’open AI soit vraiment un réel progrès…
l’europe interdit les autres déposent des brevets .