Commentaires : Contenus générés par IA : pourquoi CNET fait une pause?

Au cours de ces derniers mois, l’intelligence artificielle s’est dévoilée sous bien des formes. Si certains souffrent particulièrement de l’émergence de celle-ci, d’autres essayent à l’inverse d’en tirer profit. C’est le cas de CNET qui a fait de l’IA l’une des nouvelles plumes de son site.

1 « J'aime »

Ca ne peut pas marcher. Les IA fonctionnent avec des données anciennes, les articles se sont au contraire des données nouvelles donc inconnues de l’IA.

Un article n’est pas forcément une news.

3 « J'aime »

Tout dépend de la façon de fonctionner de l’IA.

Une IA dont le but est de répondre à des questions, oui, elle ne peut répondre que sur ce qu’elle a appris, donc ignorera en général les nouveautés. Mais ce n’est sans doute pas ce genre d’IA qu’utilise CNET.

CNET utilise sans doute plutôt une IA entraînée à écrire un article de synthèse à partir d’un ensemble de sources quelconques. Une telle IA n’a donc pas besoin pour faire un article d’avoir été entrainées sur les données qu’on lui demande de synthétiser. Elle a appris à faire des synthèses à partir de différents types de documents, et saura en faire à partir d’autres documents de même type, même s’ils abordent des sujets différents.

Par exemple, une telle IA pourrait être branchée à des sites de publications scientifiques et générer automatiquement des articles de synthèses sur les nouvelles études publiées.

Ou plus simple, ça peut être une IA faisant essentiellement de la traduction/reformulation pour éviter les doublons de contenus (qui peuvent dégrader le référencement d’un site). Par exemple, ça fait fort longtemps que de nombreux sites de journaux republient automatiquement mot pour mot des dépêches d’agences de presse (AFP et cie), voire des communiqués de presse d’entreprises. Ce qui fait qu’on retrouve exactement les mêmes articles sur différents sites (exemple : un article sur Boursorama, le même sur L’Epxress).

Une IA pourrait intervenir à ce niveau pour reformuler automatiquement les articles repris, et ainsi publier sur CNET un article « original », qui sera considéré par les moteurs de recherche comme un article différent.

Là encore, l’IA n’a pas fondamentalement besoin pour ça d’avoir déjà des connaissance sur le sujet de l’article (l’absence de connaissance peut toutefois mener à des incohérences, parce que l’IA peut alors plus facilement se tromper sur les sens multiples de certains termes).

3 « J'aime »

Oui et puis surtout on peut très bien « alimenter » l’ia en lui fournissant tous les éléments d’une News et en lui demander de rédiger un article à partir de ces informations.

1 « J'aime »

A mon avis le gros souci ça sera la relecture.

Si c’est relu à la va vite, les coquilles seront nombreuses.

Quand on rédige son article, on fait plus attention à sa structure, les arguments, les sources, le cheminement logique etc…

Quand on relis un article de qqun d’autre, pour peu qu’on soit un peu passif, on passe au travers de tout ca.

Il y a un truc aussi qui me vient à l’esprit. Si un jour quelqu’un tombe dans le travers de générer régulièrement du contenu par IA, il sera peut-être catalogué comme tel par une communauté et le jour où il voudra créer du contenu original soi-même, qui le croira?

Un exemple : quelqu’un fait des dessins à la main depuis un bon moment et un jour, il parage un dessin créé avec DALL-E, les gens qui voient cela pourraient se dire « est-ce que ses dessins étaient bien de lui? », « le jour où il publiera un nouveau dessin, ce sera le sien ou l’IA? ». Même chose avec ChatGPT. Ca fait réfléchir un peu.

Je ne peux m’empêcher de penser qu’inexorablement c’est le futur du journalisme, qu’on le veuille ou non :

  • Des IA très douées pour consolider plusieurs sources et rédiger les articles sur un sujet donné
  • Quelques journalistes relecteurs

Du moins, pour tous les sites / journaux qui ne font que rapporter des dépêches sans avoir de valeur ajoutée. Et en vrai, je pense que ces IA peuvent être plus pertinents que des hommes dans ce domaines.

Le « vrai » journalisme sera :

  • Des gars du terrains, qui mènent de véritables enquêtes et vont chercher l’info
  • Apporter un avis critique, une analyse pointue de la situation et des possibles évolutions d’une situation

Malheureusement, il va y avoir beaucoup de casse dans ce secteur (et pas que celui-ci)

1 « J'aime »

Si je peux me permettre, l’illustration montre en anglais : « This article was generated using… » et la traduction proposée est « Cet article a été assisté… ». Je pense qu’il y a un gros contre-sens ici.
Traduire par « Cet article a été généré par… » me semblerait plus adéquat, puisqu’il ne s’agit clairement pas d’assistance à la rédaction pour des journalistes humains.

3 « J'aime »

De toute façon tous ces algos se nourrissent de données… créées par des humains (textes, images, …). Faudra bien continuer à en créer pour être viable. Nourrir des algos de learning avec des résultats d’algo de learning ne fonctionne pas… quiconque a implémenté/essayé ce genre d’ago le sait (donc croire que les images créées par des IA genre midjourney ou dall-e permettront d’en créer d’autre est faux). Le système est voué à l’échec.