Utilisateur:Bhutajata/Brouillon

Une page de Wikipédia, l'encyclopédie libre.

Le nombre d’images par seconde (i/s) est une unité de mesure correspondant au nombre d'images capturées ou diffusées en une seconde par un dispositif. On exprime habituellement la cadence d'un média en i/s et la fréquence de rafraîchissement d'un appareil de diffusion en hertz. Afin d'indiquer si l'encodage est progressif ou entrelacé, on emploie parfois les suffixes p ou i (pour interlaced en anglais). En informatique et dans les jeux-vidéos, l'acronyme anglais FPS (frames per second) est couramment utilisé pour désigner le nombre d'images par seconde.

Synthèse du mouvement[modifier | modifier le code]

L'expérience impose une cadence d'au moins 16 i/s pour obtenir l'illusion d'un mouvement fluide. La persistance rétinienne a longtemps été proposée pour expliquer cet effet, mais elle est remise en cause : l'effet phi est aujourd'hui considéré comme l'explication principale. Lorsque l'on simule des paramètres physiques, l'augmentation du nombre d'images permet au cerveau de mieux appréhender ce qui se passe. Par exemple, il est plus facile de prédire la trajectoire d'une balle lorsque le nombre d'i/s est important. Ce phénomène devient inconscient à partir d'un certain seuil, mais il participe à la sensation de confort ressentie par l'observateur.

Liste de formats[modifier | modifier le code]

  • 16-24 i/s : Cadence d'enregistrement du cinéma à l'ère du muet.
  • 22-26 i/s : Cadence de diffusion du cinéma à l'ère du muet.
  • 24p : Cinéma normalisé avec l'apparition du son sur film.
  • 23,976p : Cadence des films adaptés au standard NTSC couleur (télécinéma).
  • 25p : Cadence des films adaptés au standard PAL (télécinéma).
  • 48p : Cinéma en High Frame Rate.
  • 50i soit 25p : Standards télévisuels européens PAL et Sécam.
  • 59,94i soit 29,97p : Standard télévisuel américain NTSC couleur.
  • 60i soit 30p : Standard télévisuel américain NTSC noir et blanc.
  • 60 Hz : Fréquence maximum des téléviseurs Full HD (Rec. 709). Fréquence prédominante par défaut sur les écrans d'ordinateur.
  • 60p : Cadence maximum des films diffusés par Youtube en 2017.
  • 120 Hz : Fréquence maximum des téléviseurs Ultra HD (Rec. 2020).
  • 2800 i/s : Cadence d'enregistrement de la caméra Phantom flex en Full HD.
  • Fréquence variable : Technologie Nvidia G-SYNC pour le jeu-vidéo.

Distorsion du temps[modifier | modifier le code]

Accéléré[modifier | modifier le code]

On obtient un accéléré quand on accélère la vitesse de défilement du film lors de la diffusion. Dans les cas extrêmes, on parle de time-lapse.

Ralenti[modifier | modifier le code]

On obtient un ralenti quand on ralentit la vitesse de défilement du film lors de la diffusion. Dans les cas extrêmes, on parle de slow-motion.

Exemples[modifier | modifier le code]

Type Tournage Projection Facteur
Accéléré 8 i/s 24 i/s 3
Time-lapse 1 i/m 24 i/s 1440
Ralenti 48 i/s 24 i/s 1/2
Slow-motion 1200 i/s 24 i/s 1/50

Télécinéma[modifier | modifier le code]

Sensation de fluidité[modifier | modifier le code]

Cadence[modifier | modifier le code]

Plus le nombre d'images par seconde est élevé, plus l'animation a des chances d'apparaître fluide. Mais le nombre d'images nécessaires dépend de la vitesse du mouvement, de la définition de l'écran et de la distance de l'observateur. Il n'y a pas de véritable seuil à la perception du mouvement. Une seule image par seconde peut suffire si un élément se déplace à la vitesse d'un pixel par seconde sur un écran et si l'observateur se situe au-delà de la distance de séparation des pixels. De façon générale, on peut considérer qu'un mouvement rapide requiert un grand nombre d'images par secondes et qu'un mouvement lent peut se satisfaire d'une cadence plus faible. Une expérience menée par l'armée de l'air américaine semblerait avoir montré que leurs pilotes seraient capables d'identifier un avion sur image affichée pendant 1/220 s. La persistance rétinienne quant-à-elle, serait de l'ordre de 1/20 s.

Mouvements oculaires[modifier | modifier le code]

L’œil est capable de suivre les objets en mouvement de façon régulière. En suivant du regard une bicyclette par exemple, le mouvement est accompagné d'un bout un l'autre et l'image formée sur la rétine reste nette. Si dans une même scène, il y a deux objets en mouvements. Selon que le regard suive l'un ou l'autre, il percevra l'un net pendant que l'autre est flou. Le mouvement des yeux permet, en quelque sorte, de changer de référentiel. Par contre, une caméra échantillonne un mouvement en un nombre fini d'images fixes. A 24 images par seconde, chaque image reste affichée pendant environ 41,6 ms, l'animation est donc saccadée. Pour que le mouvement enregistré puisse sembler fluide, il faudrait que l’œil soit capable de suivre l'image de manière saccadée lui aussi. En s'arrêtant 41,6 ms sur chaque image, puis en repartant dans la direction du mouvement. C'est évidemment impossible. De ce fait, chaque image fixe est balayée par le regard qui tente de suivre le mouvement à l'écran. Dès lors, un flou cinétique se produit directement sur la rétine à chaque image, d'autant plus grand que la cadence du film est faible et que le mouvement est rapide.

Temps d'obturation[modifier | modifier le code]

Lorsqu'une caméra capture 24 images par seconde sur pellicule, le temps d'obturation est d'environ 1/48 s. Les 1/48 s restantes étant nécessaires au défilement de la bobine. Chaque mouvement dans l'image engendre donc un flou cinétique sur la pellicule ou sur le capteur, selon la vitesse de l'objet filmé. Les mouvements lents apparaissent nets tandis que que les mouvements rapides sont plus flous. Cela reproduit, d'une certaine manière, le fonctionnement de la persistance rétinienne quand un objet passe devant le champ de vision. La caméra joue un peu le rôle d'un œil mécanique. Le flou qui est normalement généré sur la rétine est ici directement enregistré sur le support. Par contre, lors de la diffusion du film, les mouvements oculaires ne pourront jamais contrer le flou cinétique capturé par l'appareil. A moins bien sûr d'employer un grand nombre d'images par secondes. A 72 images par seconde, le temps d'obturation est divisé par trois. Il y a donc trois fois plus d'images et celles-ci sont trois fois plus nettes. Mais la quantité de lumière entrant dans l'appareil est moindre, offrant plus de contraintes lors du tournage. L'on pourrait également filmer à 24 images par seconde, tout en obturant très rapidement à 1/1000 par exemple. Toutefois, le flou cinétique induit par le temps de pose offre un certain confort visuel. A cadence égale, les jeux-vidéos apparaissent généralement plus saccadés que les films. Car chaque image calculée par l'ordinateur est un instantané, sans flou cinétique. En fait, temps de pose et cadence sont intrinsèquement liés.

Avancées technologiques[modifier | modifier le code]

Augmentation de la cadence[modifier | modifier le code]

Insertion d'image noire[modifier | modifier le code]

Interpolation de mouvement[modifier | modifier le code]

Flou cinétique[modifier | modifier le code]

Cinéma[modifier | modifier le code]

Lors de la projection sur pellicule, des images noires sont insérées à la cadence de 72 ou de 48 images par seconde afin de rendre le défilement de la bobine invisible. Même si cela introduit un léger scintillement, la persistance rétinienne est suffisante pour que les images noires soient imperceptibles. Ceci a pour autre avantage de réduire considérablement le flou cinétique. Chaque image étant affichée durant un laps de temps plus court, les mouvements oculaires produisent moins d'effet de filé. La fréquence d'affichage ne semble pas différente mais les objets en mouvement paraissent alors plus net. L'autre manière d'améliorer la fluidité d'un film consiste bien évidemment à augmenter le nombre d'images par seconde. Mais cela n'est pas toujours possible. Au cinéma, filmer à plus de 24 images par seconde aurait coûté trop cher à l'industrie avant l'ère du numérique. Et dans tous les cas, il faut adapter le matériel de diffusion en conséquence. Même aujourd'hui, où les films sont pour la plupart tournés et diffusés en numérique, le HFR a du mal s'imposer. Pourtant, certains réalisateurs comme James Cameron sont persuadés de leur avenir. Certains pensent au contraire que l'esthétisme cinématographique doit beaucoup à sa fréquence unique de 24 images par seconde et qu'il ne faut pas la sacrifier. Toutefois, le cinéma regorge d'expérimentations en tous genres. Le film Gladiator par exemple fait usage d'un temps de pose plus court lors des combats, réduisant ainsi le flou cinétique et augmentant l'impact de l'image. Wong Kar-wai est spécialiste des ralentis saccadés, à environ 12 images secondes. Le film Koyaanisqatsi est basé entièrement sur une perception déformée de l'espace et du temps, avec de multiples accélérés, ralentis, time-lapse, Hyperlapse, etc. Enfin, plus récemment, Le Hobbit : Un voyage inattendu est film qui fut diffusé dans certaines salles en 48 i/s. Il y a aussi La Jetée de Chris Marker, succession d'images fixes.

Téléviseurs[modifier | modifier le code]

Au cours de la décennie 2010, la fluidité des images est devenue un argument majeur dans le développement et la vente des téléviseurs. La fréquence d'affichage disponible a grandement augmentée et des technologies sont apparues pour réduire le flou cinétique. La plus simple, dénommée BFI consiste à reproduire ce qui existe déjà en projection cinématographique : insérer des images noires en coupant par intermittence le rétroéclairage de la dalle. Souvent efficace, la technologie introduit néanmoins un peu de scintillement et fait baisser le niveau de luminosité de l'écran. Une autre technologie vient en complément de la première : l'interpolation d'image. Le téléviseur calcule alors des images intermédiaires, en prédisant la direction du mouvement des objets à l'image. Bien que la fluidité soit drastiquement améliorée par cette technologie, elle introduit toujours un grand nombre d'artefacts plus ou moins désagréables selon la scène. Toutefois, de grands progrès ont été effectués et les algorithmes se montrent de plus en plus intelligents. Très appréciée pour les retransmissions sportives, elle l'est généralement moins par les cinéphiles pour qui l'effet Soap-opera est dérangeant.

Jeux-vidéos[modifier | modifier le code]

La fluidité dans les jeux-vidéo dépend avant tout des ressources matérielles disponibles. Plus long est le temps de calcul, plus détaillée est l'image et plus lente est la cadence d'affichage. La conception d'un jeu-vidéo est donc affaire de compromis et d'optimisation en fonction de la puissance de calcul des ordinateurs qui ne cesse de croître. Sur ordinateur, il est généralement possible d'ajuster la qualité graphique du jeu afin de gagner en rapidité de calcul. Sur console en revanche, la fluidité est déterminée à l'avance par l'éditeur. Les joueurs en ligne sont généralement friands d'un grand nombre d'images par seconde même si c'est au détriment de la qualité, car c'est le gage d'un certain avantage sur l'adversaire. 60 fps est un minimum dans ce domaine. En ce qui concerne les jeux solos, 30 fps est une valeur courante sur console. La plupart des jeux intègrent désormais un algorithme de flou cinétique pour estomper les saccades.



Certains téléviseurs revendiquent parfois des fréquences de rafraîchissement allant jusqu'à 480 Hz, mais ne supportent en réalité que 60 Hz ou 120 Hz

Sur un moniteur informatique, on peut choisir de synchroniser l'animation avec la fréquence de rafraîchissement de l'écran (V-Sync) afin d'éviter le phénomène de déchirement de l'image appelé tearing en anglais.


Si le nombre d'images par seconde au moment de la projection est supérieur à celui du tournage, on obtient un accéléré. À l'inverse, si le nombre d'images par seconde au moment de la projection est inférieur à celui du tournage, on obtient un ralenti.

Voir aussi[modifier | modifier le code]

Lien externe[modifier | modifier le code]

{{Portail|informatique|cinéma|animation}} Catégorie:Unité de mesure informatique Catégorie:Technique cinématographique Catégorie:Unité de fréquence