Et si votre plus fidèle alliée de bureau, la souris, pouvait se transformer en oreille indiscrète ? C’est la surprenante conclusion d’un article de recherche, qui montre comment le capteur d’une souris de jeu peut être détourné pour espionner des conversations.
Inévitablement, plus le polling rate est élevé, plus la captation sonore sera nette. Et en général, le capteur est aussi plus performant quand on dépasse les 4000 Hz.
La fréquence de la voix, c’est si mes souvenirs sont bons entre 100 et 200hz. Pas besoin d’une souris à 4000hz!
Je suppose que c’est plus la précision de la souris qui est importance et la rigidité du support pour bien capter et restituer les ondes sonores.
600 Hz, c’est le strict minimum pour capturer uniquement la fondamentale en très basse qualité, tu n’auras pas les harmoniques. Le téléphone c’est au moins 8 kHz. Pour une bonne qualité, il faut du 16 kHz–44.1 kHz.
Ce n’est pas parce que l’onde sonore de la voix oscille à 100-200 Hz qu’il suffit d’enregistrer un seule composante de cette oscillation pour avoir une représentation correcte de celle-ci…
Une application malveillante, ou même une page web, pourrait collecter ces informations de déplacement sans demander d’autorisation spéciale, contrairement à l’activation d’un micro.
Sauf qu’une page web n’a qu’une version très arrondie des valeurs de positionnement du curseur et avec une forte dose de coalescing. Entre autre pour la sécurité, justement.
Intéressant comme problème.
Pour voir je viens d’essayer de filter à 200Hz un enregistrement, il reste tout à fait audible. Reste que l’oreille humaine est probablement bien plus performante que la souris!
Bref, il suffit en théorie de 400Hz, donc d’une souris 1kHz doit faire l’affaire je pense.
Filtrer après coup à 200 Hz, ce n’est pas du tout la même chose qu’enregistrer directement à 200 Hz.
Quand tu enregistres directement à 200 Hz, tu n’as aucune marge de manœuvre, tu enregistre un longueur d’onde toutes les 5 ms, précisément et exactement à chacun de ces intervalles.
Quand tu filtres, il y a un traitement qui adapte les ondes sonores pour que, même avec perte de qualité, ça continue à « sonner pareil ».
C’est la même chose que pour les traitements d’images : lorsque tu enregistre une image à très basse résolution, sur base d’une image en haute résolution, ce ne sera vraiment pas beau, mais ça restera visionnable, parce que des traitement d’image (particulièrement l’interpolation) sont utilisés pour que, même avec peu de données, l’ensemble « ressemble » à la source. Mais si tu avais enregistré une photo avec un capteur de cette même résolution, ça aurait juste été une bouillie de pixels, parce qu’ils se serait contenté d’enregistrer la composante lumineuse qui vient taper chacun des photosite.
Pour comprendre pourquoi on ne peut pas capter une onde sonore à 200 Hz avec un enregistrement à 200 Hz : Théorème d'échantillonnage — Wikipédia
Donc, pour bien « dessiner » l’onde, il faut échantillonner à une fréquence bien plus élevée que la source.
Et puis, d’après ce que j’ai compris du commentaire de @yomiel , c’est qu’il veut dire qu’un capteur à plus haute fréquence est généralement aussi plus précis (DPI) et capturera donc aussi plus finement les mico-vibrations.
Je connais bien le théorème de Shannon, je suis ingénieur réseau à la base!
C’est pour ça que j’ai parlé de 400hz.
Et je connais aussi bien le principe d’un passe-bas, et je sais que le filtre LowPass d’Audacity n’est qu’une atténuation des fréquences supérieures, mais en deçà de -3db, il faut une bonne oreille pour percevoir les fréquences!
Et j’ai du mal à comprendre ton raisonnement sur les images. Il se trouve que j’ai aussi fait de la recherche sur la compression et la restitution de données (compressions psycho-visuelle) et je ne vois pas de quoi tu veux parler. En théorie un capteur parfait de d’une certaine résolution donnera exactement la même image qu’une image réduite d’un autre capteur parfait à meilleure résolution…
Avec un mauvais capteur, il y a plus de perte de données, les photosites ne prennent que la lumière qui viennent directement les frapper.
Avec un redimensionnement à la même résolution que le capteur, il y a aussi perte de donnée, mais l’interpolation fait que l’on conserve un « mélange » des pixels contigus, ce qui « agrège » les informations plutôt que les détruire et donne un ensemble plus lisible à l’oeil.
Ou, dans une version un peu moins « agressive » :
Alors ça sort un peu de mon domaine de compétence, peut-être est-ce pour cela que je ne comprends pas…
Mais il me semble que tu montres des résultats d’un algo type bicubique et que tu me donnes des infos correspondant à un capteur type Bayer qui effectivement « décale » les info alors que je parle d’un capteur idéal, comme un tri capteur avec filtre dichroïque et photosites « collés », bref en théorie.
Bref pour moi tu compares des choses incomparables: un lissage avec comme but un aspect « sympa » mais mathématiquement incorrect (ce que recherche d’ailleurs les compressions d’image avec perte) et un échantillonnage (imparfait forcément dans le cas de capteurs photo).
Et on a n’a de toute façon pas le même problème avec le son, c’est de la théorie du signal pure…
On peut éventuellement discuter des effets des matériaux sur lesquels est la souris, ils ont des fréquences de résonance et des fréquences filtrées, donc les harmoniques peuvent éventuellement être intéressantes pour aider à la reconstitution du signal originel…