C’est plus un antimalware ça mossieur. C’est un benchmark
Bin Windows et ses services en arrière plan + Brave ?
J’ai bien compris ça ^^ ↓
Tous les OS modernes font d’ailleurs bien en sorte de toujours utiliser la RAM.
Mais Windows, avec seulement 7 giga de RAM utilisable, ne devrait pas se mettre aussi à l’aise AMHA, 3 giga de RAM c’est limite pour ouvrir beaucoup d’onglets et de documents.
Sinon, AtlasOS je ne sais pas si tu l’a compris c’est windows, plus une application qui installe et surtout désinstalle/désactive pas mal de trucs. C’est utilisé par des gamers pro alors je fais confiance…
https://search.brave.com/search?q=atlas+os&source=desktop
https://atlasos.net/
Concrètement, ça utilise AME, un logiciel qui peut exécuter des fichiers de config YAML qui lui dit quoi faire. Regarde le site :
Sur les configurations matérielles modestes ou un peu anciennes
Non mais c’est une blague ? Avec le taux d’exclusion de Windows 11, on se parle quand même pas de vieux hardware de 2004. En tant qu’utilisateur assidu, je trouve pas qu’on ai révolutionné les animations depuis au moins Windows 7 et maintenant faudrait des GPU de folie pour faire ce qu’on faisait sur un Intel UHD de base.
Il faudrait peut-être se pencher un peu sur l’optimisation des développements, parce qu’en arriver là c’est honteux. Pour l’indexation des fichiers ou OneDrive, ça me semble un mal nécessaire pour les gains d’usage (enfin gain, vu la qualité de la recherche du menu démarrer par rapport à ce que proposait même l’échec Windows Vista…).
De toute façon, en usage pro on a pas la main dessus (et on y rajoute même l’ogre Teams par dessus)
TL;DR
Sauf que tout le monde, que ce soit sous Linux ou Windows n’a pas forcément les compétences ou l’envie ou le temps pour réparer un truc qui aurait explosé.
Et qui a des snaphots à jour de sa machine ?
Snapshots qui évidemment ne consomment pas de ressources matérielles pour être réalisés ?
Donc, clairement, même si ça consomme un peu de ressources (et encore, est-ce en permanence ?), la restauration système me semble utile et personnellement (mais ça ne reste que mon avis) je déconseille de la désactiver (sauf cas spéciaux évidemment).
Et tout le monde n’a pas forcément une seconde machine connectée à Internet à dispo.
Attention à ne pas faire de ton cas, une généralité, tous les profils d’utilisation ne se ressemblent pas, loin de là.
Perso, même si ce n’est pas fréquent, la restauration système m’a déjà tiré d’un mauvais pas plus d’une fois.
Uniquement pour stocker au delà d’un certain volume de données, je crois ?
Comme certains faisaient confiance à l’époque des « Windows XP Coccinelle Edition » et autres et avaient des problèmes qui venaient de nulle part avec des services et autres fonctionnalités désactivée voir carrément absentes, ce qui pouvait poser problèmes avec certains logiciels … Problèmes qui peuvent être un vrai enfer à diagnostiquer.
Et franchement, j’aimerais bien voir des benchs avec un Windows « origine » fraichement installé et ces versions « optimisées ».
Que l’on désactive certains trucs manuellement parce qu’on ne les utilise pas, comme One Drive ou Teams par exemple, ok, mais que l’on se base sur des versions de ce genre, … gare.
Et le côté « confiance », tu fais ce que tu veux, mais ce n’est pas parce que des pro gamers le font que c’est forcément une garantie de quoi que ce soit.
Ah, la fameuse optimisation.
Il y a tellement à dire là-dessus …
Mais de manière générale, je suis assez d’accord sur le fait que parfois aujourd’hui, on se retrouve avec des logiciels inutilement consommateurs de place / voir de ram.
Un exemple que je donne souvent, Balena Etcher qui sert à créer des disques bootable.
L’interface est léchée, MAIS le SETUP (je l’ai dans un coin, mais pas installé) pèse plus de 100MO.
Et la conso de ram est du même tonneau, le machin embarquant un navigateur web pour gérer son affichage.
Alors, en soit, ça fait le job et c’est stable, mais là en vrai, on est plus sur un choix de design que JE trouve discutable, sachant qu’un appli graphique « basique Windows » doit faire quelques MO tout au plus.
En revanche, concernant les OS modernes, globalement la consommation de ram, aujourd’hui n’est plus vraiment un problème (sauf cas spécifique d’une application qui plante et vient à bouffer toute la ram), les OS savent (encore une fois de manière générale) très bien gérer la ram.
Dernière chose, parfois, oui, la quantité de ram de la machine que l’on utilise devient trop juste pour l’usage que l’on n’en fait et ce n’est pas forcément qu’une question « d’optimisation logicielle ».
Il ne faut pas oublier que les logiciels ont beaucoup évolués et comportement bien plus de fonctions que leurs équivalents des années 90 / 2000.
De plus, les développeurs font parfois avec des contraintes de temps, de choix marketing et de choix techniques (notamment de frameworks) qui ne dépendent pas d’eux.
ce serait peut être bien que ceux qui râlent commencent par expliquer ce qu’ils veulent dire par « optimiser » parce que j’ai un peu l’impression qu’un type auquel on couperait les deux jambes serait « optimisé »
5 giga pour l’offre gratuite… [quote=« juju251, post:25, topic:496798 »]
Uniquement pour stocker au delà d’un certain volume de données, je crois ?
[/quote]
Ce qui est dingue, c’est que le site d’OneDrive et cet article de blogue laisse croire que c’est généreux…
N’importe quelle clef USB fait plus de 5 giga…
Nous avons découvert que 99 % des utilisateurs de l’application Office 365 utilisent moins de 1 To. De même, 99 % des utilisateurs du service OneDrive utilisent moins de 5 Go de l’espace de 15 Go pour enregistrer des données. Nous pouvons exploiter l’espace restant de meilleure manière. Nous avons donc apporté des modifications.
99 %, mon œil. De plus, les clouds modernes sont flexibles (me trompé-je ?), c’est du stockage à la demande, avec un bête quota. Parce que en allouant un bloc de données de x giga a chaque utilisateur gratuit qui peut-être ne l’utilisera presaue pas…
Votre espace de stockage OneDrive gratuit de 5 Go vous permet toujours de conserver en toute sécurité 6 600 documents Office ou 1 600 photos. Cela n’est pas suffisant ? Vous pouvez profiter de 50 Go pour deux euros par mois et conserver ainsi vos fichiers en toute sécurité.
Hey Froz1x GPT tu boucles ^^
Résumé
5 giga pour l’offre gratuite…
[/quote]
Résumé
M’enfin comparer une clé USB à un service cloud faut vraiment pas aimer M$ pour en arriver là xD
Oui, je ne sais pas ce qui c’est passé avec discourse. C’est beugé, en ce moment.
Quand j’ai fait ctrl entrée, ça m’a mis en doublon mon message après la fin du message
C’est pas tellement ça. C’est simplement qu’une simple clef USB de 60 gigas par exemple, très courante, est beaaaucoup moins chère qu’un f***ing abonnement.
Pour la question portabilité/oubli ben les gens arrivent bien a ne jmmais oublier leur doudou tactile, donc ça n’a rien d’impossible.
Et pis j’oublie pas google, hein…
Oui, et une paire de chaussettes est moins chère qu’un vélo. Mais ça sert pas à la même chose
Ben, clef usb et cloud sont des supports de stockage, non ?
Le génie de Grosoft, c’est de faire croire aux utilisateurs lambdas qu’ils ont besoin d’un
clouuuuuuud
.
Sinon je ne vois pas le rapport entre chaussettes et vélo.
Je suis sûr que tu vois toi même le problème dans ta comparaison.
Le suel avantage que je vois au cloud, cc’est qu’il est accessible partout.
Sinon on peut combiner le meilleur des deux mondes avec l’auto-hébergement.
Voilà. Donc ce n’est pas comparable à une clé USB.
Yep. Et si tu regardes le coût que ça implique, en matériel, en énergie, en temps d’administration, tu comprendras pourquoi un service clé en main et toujours dispo (parce que oui, l’auto-hebergé ça marche, mais le jour où tu as un problème chez toi au moment où tu es à l’autre bout du monde et veut récupérer un fichier, ben t’es marron…) est plus cher qu’une clé USB de même capacité…
« Dans le même ordre d’idée de ralentissement, il y a la restauration du système, l’indexation des fichiers, les services inutiles de jeux, les actualités des people et avant il y avait Hyper-V installé en arrière-plan. »
- La restau système: ralenti seulement en cas de modif (mise à jour, installation).
- L’indexation: ralenti uniquement lors du dépôt de fichiers (et comment dire … si c’était sensible en 2000, maintenant c’est totalement transparent)
- Hyper-V: impact totalement marginal.
En fait, même onedrive ça ne ralenti pas tant que cela, sauf au démarrage si on a synchronisé des milliers de fichiers.
Quand aux éléments graphiques, sur de tout petits ordis c’est légèrement sensible, mais ce qui mange le plus c’est la sécurité (antivirus, et smart screen).
Tout ces éléments sont surtout sensible sur de machines à 2 coeurs, c’est déjà moins problématique sur une 4 coeurs et en général transparent sur 6coeurs et +
A part chez ovh j’ai encore pas vu un service cloud claquer quand tu le connecte a ta machine
Attends, tu as pris ça dans des circonstances particulières et/ou exceptionnelles ?
Ce qui est la preuve que les « optimisations » ne servent à rien.
Et ce n’est pas nouveau, ça existe depuis Windows 95. A l’époque il y avait même des « améliorations » pour par exemple accélérer la vitesse d’un lecteur cd. ^^
Oui, un PC d’entreprise, avec des règles hyper strictes, prévu pour de la bureautique (processeur 4 cœurs ULV…) mais utilisé pour du dev, et sans la possibilité de configurer des exclusions dans Windows Defender pour éviter qu’il passe sa vie à scanner l’activité de l’IDE
Ce n’est bien entendu pas du tout représentatif du cas général Mais par contre, sur ce PC là, c’est constamment comme ça… Quasi inutilisable
Sur ma machine perso je trouve des chiffres bien plus raisonnables (et avec le même IDE ouvert, sur les mêmes bases de code…), comme sur le tien :