Dernière étape avant son déploiement grand public : la recherche sémantique boostée à l’IA débarque en local et dans le cloud pour les insiders membres du canal Release Preview… à condition d’être correctement équipé côté matériel.
Sachant que les gros GPU savent faire tourner des LLM en local, faire de la génération d’images etc… On est en plein de le délire avec leur copilot+ reservés aux NPU. Je ne suis pas contre les NPU, mais je suis contre cette politique microsoftienne de plus en plus applelisante.
Et y aurait même pas besoin d’un gros GPU en fait, une 3050 ou une 2060 suffisent.
Mais le support des GPU devrait arriver, nVidia a indiqué cet été qu’ils travaillent à le faire fonctionner.
Et juste déployer une mise à jour de sécurité mensuelle qui n’apporte aucun bug ce ne serait pas déjà un bon début comme intelligence ?
2 « J'aime »