La France annonce samedi le lancement d’une commission d’experts chargée d’évaluer les risques de l’intelligence artificielle générative pour le grand public. Un rapport est attendu dès mai 2026.
Le délais est très court et les objectifs très motivants. En tout cas je l’aurais été. Je verrais même ces missions comme de plus longue haleine, au delà des temps impartis dans un premier temps. Et pourquoi ne pas sensibiliser les étudiants aussi à ces problématiques dans leurs travaux de recherche ?
Il y a un questionnement ponctuel, cependant, parce que l’IA générative serait déjà utilisée dans les écoles selon ces constatations :https://www.clubic.com/actualite-568980-ca-y-est-l-intelligence-artificielle-generative-entre-dans-les-classes-francaises-avec-des-regles-les-voici.html
Comment alors définir les limites entre le scolaire, par exemple, et la vie privée ?
En effet, cela peut être une deuxième étape.
Je trouve bien qu’on se concentre sur un problème à la fois et sur celui qui semble le plus immédiat, puisqu’il y a déjà des cas de morts et de maladies mentales identifiés à cause de IA. Il y a des données concrètes à analyser et des mesures à prendre rapidement.
Les impacts sociétaux, ils sont bien réels mais pas encore assez documentés. Ça risque de prendre plus de temps.
L’autre jour au taf, conversation entendue louant chatgpt :
« Trop bien tu peux prendre en photo ton texte [plein de fautes], et ça le corrige tout seul »
« Ouais et tu peux lui faire modifier des photos avec des effets trop délire »
Le cerveau est devenu optionnel chez trop de monde…
Hélas, et on peut toujours compter sur les gens pour se précipiter sur les usages les plus futiles. ![]()
On peut faire les deux ![]()
Même envie de dire : on doit faire les deux. Et je pense qu’il y a déjà des chercheurs sur les deux. Mais j’ai pas vérifié.