David Denysiak / Concepts  / Observation

Observation

À mon époque…

Dans les années 90 est apparu un logiciel de lancer de rayon : POV-Ray.

Ce logiciel qui existe toujours, consiste à décrire textuellement une scène en 3D à partir de formes géométriques de base à l’époque (cube, cylindre, tore, fonctions géométriques, etc.) :

sphere {
<0, 1, 2>, 2
texture { pigment { color Yellow } }
}

et définir des caractéristiques associées à ces formes (réflectivité, réfraction, émissivité, texture, couleur, etc.).

On définit des sources de lumière avec leurs caractéristiques :

light_source {
<2, 4, -3>
color White
}

On définit la position de la caméra dans l’espace, où celle-ci regarde :

camera {
location <0, 2, -3>
look_at <0, 1, 2>
}

Et on définit enfin la surface d’impression (le cadre sur lequel sera rendu l’image).

ll faut maitriser bien entendu le positionnement dans l’espace, les transformations (rotation, translation, etc) tout cela de manière matricielle, les effets atmosphériques et bien d’autres paramètres pour aboutir à un rendu.

Une fois tous les paramètres fixés on peut lancer le rendu. Celui-ci consiste à émettre des rayons (d’où le nom du mode de rendu : ray-tracing) depuis les sources de lumières, dans toutes les directions. Chaque rayon va parcourir l’espace et potentiellement toucher des composants définis dans la scène. Lorsque cela se produit le rayon se charge des caractéristiques associées au composant et rebondir sur ou traverser l’objet pour aller ailleurs. Lorsqu’un rayon finit par rencontrer la surface d’impression, un pixel caractérisé par les informations collectées par le rayon va s’imprimer sur celle-ci.

La technique était, dans les années 90, chronophage. Les rayons partant dans toutes les directions, de nombreux pour ne pas dire la grande majorité ne rencontraient jamais la surface d’impression. De nombreuses minutes de calcul perdues. Pour peu que l’on se trompait sur un paramètre, on obtenait une image noire après des heures d’attente. Pour produire une petite image de 320×240, cela pouvait prendre une dizaine d’heure en fonction de la complexité de la scène. Maintenant cette technique se réalise presque en temps réel sur les cartes graphiques de dernière génération.

À partir du moment où l’on commençait à maitriser le logiciel, il n’y avait pas de meilleure qualité d’image déjà à l’époque, et encore aujourd’hui, ce type de rendu est le meilleur rendu qui soit, car il ne fait que reproduire ce qui se passe dans la vraie vie !

"Glasses" by Gilles Tran (2006)

Transposition à l’observation d’un modèle

Ce n’est peut-être que lorsque j’ai débuté à peindre à l’un des ateliers des Beaux-Arts de la ville de Paris que j’ai réellement commencé à appréhender ce que je voyais.

Étonnement je n’avais jamais vraiment fait le lien avec le logiciel que j’utilisais adolescent et l’environnement qui nous entoure. On apprend tout le fonctionnement de l’univers à l’école, puis à l’université, mais lorsque l’on se retrouve devant une toile blanche et qu’il faut transcrire dessus ce que l’on voit d’un modèle qui pose, c’est totalement différent.

À ces cours du soir de peinture, vous pouvez voir des peintres qui s’évertuent à peindre des corps roses car la peau c’est globalement rose. Mais si on s’attarde à regarder la scène, une peau ce n’est pas rose, la couleur globale est une interprétation du cerveau qui moyenne ce qu’il voit. La difficulté est donc de s’atteler à faire abstraction de ce mécanisme inné pour identifier les différentes composantes de la scène.

La retranscription des couleurs sur la toile n’est que la seconde parte du travail finalement. Une scène est un assemblage de couleurs, qui lorsqu’on s’en éloigne va vous permettre de distinguer les éléments de la scène.

C’est un petit peu vers ce que j’essaye de tendre lorsque je peints. Réussir à poser des couleurs dont l’assemblage va faire ressortir la scène globale. Travail complexe lorsqu’on a le nez posé sur la toile.

No Comments

Post a Comment