En début de mois, Google a présenté Jpegli, une nouvelle bibliothèque de codage JPEG. Celle-ci entend bien améliorer l’encodage des images grâce à un taux de compression plus efficace que par le passé.
Le même google qui a tué jpeg XL en supprimant son support dans Chrome ?
Pourtant, le format JPEG-2000 existe et offre un taux de compression bien plus efficace, à qualité égale ou supérieure. Et il y a encore eu un autre format proposé cette fois par Fabrice Bellard, le BPG, qui lui en plus supportait l’animation, la transparence et le tout avec un taux de compression élevé. Il est dommage que ces deux formats soient tombés dans l’oubli alors qu’il existe des implémentations qui fonctionnent réellement.
Il existe déjà tellement de codecs qui font mieux que le jpeg depuis très très longtemps !!!
Déjà le regretté jpeg2000
Il y a l’HEIF qui reprend le même principe que le BPG (« détournement » du codec vidéo HEVC pour des images fixes), et l’AVIF permet de faire des animations avec des images HEIF. Et le WebP qui est également dans la même idée (mais en utilisant le codec VP8 au lieu d’HEVC).
Et ces formats sont supportés par tous les navigateurs modernes.
Juste un petit test, je télécharge donc un fichier HEIF sur mon PC avec Windows 11, aucun aperçu disponible. Apparemment il faut un plugin et en plus pour la vidéo il serait payant. Idem aussi dans le navigateur (Firefox). Si on veut qu’un format se répande, il faut au moins qu’il soit supporté de manière transparente partout. HEIF me fait penser directement à « ah oui, encore ce format propriétaire à l’iPhone qui est illisible ailleurs ». GIMP l’ouvre ceci dit, donc une implémentation libre est possible.
Google avait quasi déjà imposé le WebP qui marchait super bien non ?
Le problème du plugin payant, il existe aussi avec le BPG, qui utilise le même décodeur vidéo. C’est le problème du HEVC, c’est couvert par différents brevets pour lesquels il faut des licences.
Le WebP est pour sa part reconnu nativement (y compris l’aperçu dans l’explorateur Windows) sans extension payante, puisque basé sur un codec vidéo libre.
Toujours les problemes de droit. Si Microsoft ajoute ces codecs il faut qu’ils payent pour chaque pc windows pour finalement qu’une partie des utilisateurs les utilisent.
Avant 2023 c’etait possible d’avoir les 2 gratuitements, on peut noter que Mpeg LA a été racheté en avril 2023 et que desormais c’est plus possible.
Tout ce qui utilise le mpeg/…/hevc c’est compliqué de le proposer gratuitement par un grand groupe (même si souvent ils ont participé au truc a un moment ou un autre)
Le truc intrigant c’est qu’en allant dans la source de la source on tombe sur le code du jpegli dans les lib du libxl (qui est une « JPEG XL reference implementation »)
(et son readme a été modifié dans son etat en juin 2023)
Mais ils y vont précautionneusement car les patent trolls attendent que cela, qu’un truc s’impose enfin pour chercher la petite bête (en brodant une belle histoire si besoin)
Exact mais jpeg2000 était payant au début des années 2000.
Pourquoi regretté ? L’excellent et puissant format JPEG 2000 ne s’est certes pas (encore) imposé auprès du grand public, tout comme le V2000 et le BetaMax ne s’étaient pas imposés en leur temps. Pourtant, ces deux formats étaient bien meilleurs que le VHS qui lui s’est imposé. Le Betamax est devenu le format broadcast Betacam, bien avant l’ère (récente) du numérique. Il s’est produit la même chose avec le JPEG 2000. Ses performances et ses nombreuses avancées peu comprises par le grand public font qu’il se retrouve principalement dans les domaines professionnels pointus, comme l’imagerie médicale ou le cinéma numérique. Il est devenu un standard dans certains domaines, il est donc très loin d’être mort !
C’est effectivement dans ce genre de cas qu’on voit que les brevets logiciels, dans le cas des algorithmes, peuvent nuire à l’innovation plus qu’autre chose. Cela revient à breveter des maths.
Ah bah, çà fait 20 ans que je ne l’ai plus utilisé, vu ou entendu parlé.
Il a disparu de plusieurs logiciels de lecture d’image
On a crée WebP puis AVIF qui sont plus performant, plus moderne que Jpeg2000
C’est bien d’améliorer le format JPEG, mais si on veut réellement rendre Internet « plus rapide » il faudrait mieux s’attaquer au nœud du problème: la masse de code JavaScript écrit avec les pieds (voire pire) et qui est responsable des mauvais temps de chargement sur la majorité des sites Internet dans le monde…
en gros ils cherchent à faire ce que fait le format AVIF, mais propriétaire pour qu’il y ait une redevance à payer…
En gros tu n’as pas lu l’article : jpegli a été annoncé sur le Google Open Source Blog
Surtout ils cherchent à le faire sans utilisation du codec HEVC utilisé par l’AVIF, car ce codec est couvert par des brevets. Et ils le font open source.
Donc en fait c’est exactement l’inverse de ce que tu affirmes : ils veulent justement éviter que les gens aient à payer des redevances.
Et avec en prime, et c’est sans doute là son intérêt par rapport au WebP, également développé par Google, une conformité au standard JPEG, ce qui tel que je l’ai compris signifie qu’il peut être lu par n’importe quel décodeur JPEG standard.
Le problème c’est surtout l’existant. Quand on prend une photo avec un smartphone ou un appareil photo elle est en JPG. Si d’autres formats meilleurs n’ont jamais été utilisés c’est surtout parce que personne ne veut s’embêter à convertir les fichiers. Là en plus je suppose que c’est meilleur mais à condition de partir de données non compressées, en partant d’un JPG il y aurait une double compression ça serait surement beaucoup moins efficace. Il y a bien le RAW sur certains périphériques qui éviterait la double compression mais peu l’utilisent car il est trop brut, il n’y a pas les optimisations du matériel pour les couleurs notamment, elles existent uniquement en JPG.
Le problème vient plus que le matériel ne génère pas directement dans ces formats que d’ailleurs.
Le but ici c’est de l’utiliser pour les images sur les sites web. Et là, personne de sérieux de nos jours n’utilise les JPEG tels que sortis par l’appareil photo (sauf bien sûr quand il s’agit d’un site dédié au stockage/partage de photos), elles sont quasiment toujours recompressées plus fortement, et souvent également redimensionnés.
Donc de toute façon il y aura des pertes supplémentaires, mais c’est toujours bon à prendre de les réduire.