Non justement, le but est pas de passer son temps à administrer, mais bien à utiliser. Déjà, même si ça peut paraitre “amusant” d’avoir à compiler son pilote réseau, en 2013 je trouve ça vraiment débile et “contre-productif” (je faisais ça y’a 10 ans, il me semble aberrant d’y avoir encore droit aujourd’hui). Le but n’est pas la découverte, mais bien l’utilisation quasi-immédiate.
Dans un souci de réelle stabilité, Ubuntu (basé sur Debian sid aka Unstable), Gentoo (rolling avec compilation à la volée) et Arch (rolling précompilé) sont presque automatiquement à exclure, pour une simple raison : la multiplicité des composants qui doivent communiquer entre eux peuvent mener à nombre de bugs, car beaucoup ne sont développés que dans leur coin, à charge pour les intégrateurs (packagers pour les distributions) de se débrouiller avec. Les versions qui changent souvent sont très souvent porteuses de problèmes si leurs configurations doivent être changées (vécu sur Arch avec un changement de version de Pacman, qui est l’installateur de paquets; pas très pratique pour le futur…).
Il faut un ensemble qui ne bouge pas (ou très peu) mais qui communique très bien. Il est donc nécessaire de figer les composants principaux et de s’arranger pour que tous s’assemblent parfaitement. Et pire dans le cas de Debian, l’offre doit être la même sur un nombre d’architectures très important : amd64, armel, kfreebsd-i386, kfreebsd-amd64, i386, ia64, mips, mipsel, powerpc, sparc. Certains des logiciels parmi les 25000 paquets de Debian n’ont même jamais été conçus par leurs auteurs comme étant utlisables en dehors de l’i386 !
Et bien sûr, magie de Linux, ça n’empêche pas la découverte (cas vécu de la recompilation du noyau pour l’architecture K7, la différence était flagrante à l’époque)