Nouveautés de la R14, méthodes pour créer et animer des personnages 3D....
– Bonjour, Gaétan, tu es directeur technique chez 3DWeave depuis les débuts de la société, en 2002, peux tu nous préciser ce que recouvre ce poste ?
Il s’agit globalement d’avoir un œil technique sur la réalisation de nos projets, ça concerne l’anticipation sur des demandes spécifiques des clients pour établir des devis adaptés en fonction de la complexité des éléments à produire, donc du temps de production à prévoir. Cela implique également la supervision des projets en cours de conception, avec notamment le soutien technique permanent pour l’équipe 3D Weave, ainsi que la recherche de solutions et méthodes spécifiques en cas de besoin sur Cinema 4D. Enfin, il est indispensable d’être à l’affût des évolutions technologiques concernant nos outils de production, mais également de garder un œil sur les outils en devenir, le développement de nouvelles technologies liées à la production numérique.
– Tu réalises la plupart des personnages sur-mesure et mascottes des projets de 3DWeave, quelles étapes suis-tu ?
Tout commence par une recherche de design du personnage, je propose plusieurs versions sous forme de croquis, et avec les remarques du client, j’arrive à un croquis de référence. A partir de là, je passe à la modélisation dans Cinema 4D en utilisant ce croquis comme base de travail pour mettre en volume le personnage en restant le plus fidèle à l’idée de base validée. Après la modélisation vient la phase de texturage qui fait appel à Photoshop ou à BodyPaint 3D qui permet un dépliage UV et une peinture direct sur les objets 3D. Enfin, la dernière étape consiste à « boner » et « rigger » le personnage, c’est-à-dire créer un squelette d’animation placé dans la modélisation, et ajouter des contrôleurs sur ce squelette pour l’animer comme une marionnette virtuelle. En fonction du personnage à réaliser, je termine sa conception par des morphings de visage pour permettre de le faire parler ou de lui donner des expressions faciales variées.
– Quels sont les erreurs les plus fréquentes des débutants en matière de création de personnage ?
Très souvent les plus gros soucis concernent l’étape de modélisation. En effet quand on modélise un personnage qui doit être animé par la suite, il faut que la modélisation soit adaptée aux déformations prévues. La structure du maillage est très importante, la répartition des polygones générés lors de la modélisation, doit être cohérente pour d’une part obtenir un aspect de personnage qui soit « propre » et surtout fidèle aux besoins du client, et d’autre part pour avoir une densité suffisante de polygones aux endroits des pliages (genoux, coudes, épaules, etc.) de façon à bien contrôler les déformations sur ces parties spécifiques et souvent délicates à maitriser.
L’autre erreur du débutant c’est de modéliser « généreusement » sans se soucier d’optimiser le maillage, il faut éviter autant que possible l’abus de polygones quand ce n’est pas utile, ça ne fait que compliquer les choses par la suite. La règle c’est de modéliser l’objet 3D avec une structure de polygones NECESSAIRE ET SUFFISANTE, c’est-à-dire juste ce qu’il faut pour contrôler les formes et les détails, mais pas trop pour ne pas alourdir et compliquer le travail.
Plus on a un maillage dense et plus c’est compliquer de retravailler celui-ci, il faut donc avancer méthodiquement, ajouter des polygones quand c’est strictement nécessaire.
– Peux-tu expliquer aux béotiens qui nous lisent, comment animes-tu les doigts, par exemple ?
Pour la gestion des doigts il y a 2 méthodes :
- soit on anime manuellement les phalanges « à l’ancienne »
c’est-à-dire en cinématique directe. C’est le cas quand on a pas le temps de
mettre en place un rigging des doigts et que ceux-ci ont peu de présence ou d’actions
à faire dans le projet, ou alors également quand on veut des formes de doigt
très spécifiques, on a une liberté totale, si on souhaite par exemple faire des
nœuds avec les doigts ! ;-)
- sinon on créé des contrôles pour plier chaque doigt indépendamment, ce qui
permet de reproduire quasiment l’intégralité des mouvements des mains. Pour
cela le plus simple et rapide à mettre en place c’est la propriété
« morphing de pose » qui se place sur l’articulation du poignet par
exemple, et qui doit être configurée pour prendre en compte les rotations,
ainsi que la hiérarchie. De cette façon on crée 1 pose pour chaque doigt,
celui-ci sera défini en état « plié » à 100% du morphing. (on fait
tourner manuellement chaque phalange pour créer cet état plié, le morphing
mémorisera la hiérarchie des articulation des doigts).
Une fois les 5 poses créées, on met la propriété de morphing en mode
« animation » et on peut animer les morphings des 5 doigts via les 5
curseurs des attributs du tag de morphing, permettant ainsi toutes les
combinaisons possible d’expressions de main.
On peut ajouter également au besoin, pour chaque doigt, un morphing pour permettre d’écarter ou de serrer les doigts les uns contre les autres.
Enfin, en passant par Xpresso, on peut piloter ces morphings avec des DU personnalisées (Données Utilisateur) qui s’ajouteront aux contrôleurs du corps du personnage (DU de contrôle des doigts ajouté sur les contrôleurs de position des mains par exemple), dans un sélecteur visuel par exemple, ou alors simplement sous forme d’affichage frontal des curseurs de morphings.
– Comment réalises-tu les vêtements ?
En ce qui concerne la modélisation, cela dépend du type de
vêtement.
Quand il s’agit de vêtements près du corps, je copie le personnage nu, je ne
garde que le maillage correspondant au vêtement à créer (exemple : pour un
T-Shirt, je garde le buste et la partie haute des bras), ensuite je retravaille
ce maillage pour qu’il prenne forme d’un vêtement qui soit par-dessus la peau
du personnage. L’avantage de travailler sur la base du maillage du personnage
nu, c’est qu’on a une structure polygonale identique, ce qui veut dire que lors
des déformations du personnage (par squelette d’animation notamment) le corps
du personnage se déformera de la même façon que ses vêtements.
Pour des vêtements avec un style très spécifique, ou des vêtements amples, on les modélise entièrement sur le personnage qui sert de référence.
Une fois les vêtements modélisés et texturés, il faut les associer au personnage pour que ceux-ci se déforment via le squelette. Pour cela, si le personnage nu est déjà lié à une squelette d’animation, on peut utiliser l’outil VAMP de C4D, celui-ci permet de définir l’objet source (personnage nu déjà lié au squelette) et l’objet cible (le vêtement à lier au squelette). VAMP va projeter les influences de déformation du personnage nu sur la modélisation du vêtement, ainsi le vêtement se déformera à l’identique du personnage de base. De cette façon on peut « coller » n’importe quel accessoire vestimentaire à un personnage déjà riggé.
A noter également que C4D dispo d’un système nommé Clothilde
pour simuler les textiles, et également pour aider à la mise en forme de
vêtements sur des personnages.
La simulation dynamique est intéressante dans le cas de vêtements amples ou
« libres » comme des robes, des capes de super-héros, etc… la
difficulté par contre est de paramétrer correctement les propriétés dynamiques
des tissus (élasticité, rigidité, flexion, etc…) ainsi que les détections de
collisions de façon à obtenir un résultat satisfaisant en animation. Cela prend
du temps en réglage et en tests, en sachant que tout ce qui est simulé
dynamiquement n’est pas contrôlable manuellement, mais dépendants de conditions
de base (gravités, vents, forces de rebonds en cas de collision) donc une fois
l’animation lancée, on n'a plus de contrôle sur ce qui se passe, on est juste
spectateur, en espérant que les mouvements de tissus parviennent au résultat
souhaité.
– Comment réalises-tu les expressions du visage ?
Pour les expressions faciales, j’utilise dans un premier
temps des morphings de chaque partie du visage. La propriété « morphing de
pose » est très puissante et rapide à mettre en place, on créé une pose
puis on déforme le maillage qui doit correspondre à la déformation maximale de
cette pose. Par exemple pour animer le sourcil droit qui monte (expression
d’étonnement ou de peur), on créé la pose « sourcil droit haut » puis
on déforme le maillage correspondant au sourcil en question pour le mettre en
position haute maximale. Le morphing va donc permettre de contrôler ce
mouvement de sourcil de 0% (sourcil dans sa position initiale) à 100% (sourcil
en position haute maximale).
En procédant ainsi pour chaque partie du visage, on va se retrouver avec une
multitude de pose de morphings (sourcils droit/gauche en état haut/bas,
paupières droite/gauche en état ouverte/fermée, joues droite/gauche en état creusée/gonflée, bouche
souriante/triste, etc.)
L’idéal est de distinguer les morphings droit et gauche du
visage, de façon à pouvoir augmenter les possibilités d’expressions faciales du
personnage (par exemple, si il doute, il peut avoir un sourcil levé et l’autre
baissé, ce qui peut aussi exprimer une expression de charmeur dans le style
James Bond !)
De la même manière, on peut aussi gérer la bouche avec la gestion droite/gauche
de celle-ci afin de pouvoir créer des rictus et des sourires en coin.
Avec cette palette de déformations de visage, il sera donc possible de créer une quantité illimitée d’expressions faciales.
Si le personnage doit parler en étant synchronisé sur une bande son (voix off), on ajoutera des morphings supplémentaires pour la bouche afin de lui donner des formes de prononciations spécifiques (phonèmes), ainsi on aura la possibilité de réaliser une animation des lèvres cohérentes (technique du lipsync, ou synchronisation labiale).
Pour animer tous ces morphings on peut créer ensuite un tableau de bord en affichage frontal par exemple, qui va permettre de mixer automatiquement les morphings, on utilisera pour cela Xpresso pour gérer les DU qui piloteront chaque morphing.
– Y’a-t-il une méthode permettant d’automatiser les animations faciales ?
On peut bien sûr créer des systèmes d’animations procédurales
qui agiront sur des paramètres de morphings.
A partir du moment où on a mis en place tous les morphings
de visage, on peut ensuite les piloter via Xpresso.
En effet, Xpresso dispose de générateurs aléatoires de type « bruit »
pour lesquels on peut définir la fréquence (vitesse d’animation du motif
mathématique). La valeur produite par ce genre de générateur varie en fonction
du temps, exactement comme un cycliste qui monte et descend des montagnes. On
peut donc utiliser cette valeur pour la cadrer sur une amplitude de 0% à 100%
puis la connecter à n’importe quel morphing (ouverture des paupières par
exemple, ou ouverture de la bouche si on veut donner l’impression qu’un
personnage parle tout seul). De cette façon, quand on lance l’animation dans
C4D, les morphings sont animés automatiquement par Xpresso, pas besoin d’enregistrer
de clés d’animation, et on peut modifier à volonté la vitesse du mouvement
(fréquence) ainsi que l’amplitude si on le souhaite (de 0% à 100%, on peut
demander à avoir un mouvement de morphing de seulement 0% à 50% par exemple).
Avec cette méthode on peut configurer des générateurs aléatoires paramétrés pour chaque partie du visage (paupières, bouche, sourcils) et quand on lance l’animation, tout le visage s’anime automatiquement.
Bien entendu, ce système a pour avantage de laisser C4D faire l’animation à notre place, c’est un gros gain de temps mais c’est à réserver pour les cas où les personnages sont des figurants, ou alors des personnages avec des comportements simples et relativement neutres.
Dans le cas d’animations de personnages pour lesquels on cherche un jeu d’acteur spécifique, et éventuellement une animation de bouche calée sur une bande son (lipsync), l’animation manuelle traditionnelle reste incontournable.
– Qu’en est-il de la capture de mouvement ?
On peut utiliser des captures de mouvements dans C4D (importation de fichiers BVH, puis association à la modélisation d’un personnage) mais ça reste encore assez laborieux…
Il n’y a pas encore d’outils de motion capture interne et propre à C4D, la plupart du temps il faut réaliser la motion capture via des logiciels autres comme Motion Builder par exemple, puis passer par un format 3D de passerelle vers C4D (format FBX ou Collade DAE par exemple) mais il est rare de récupérer un personnage 3D animé identique à l’original, soit il faut refaire les influences, ou alors le squelette et le personnage ne sont pas liés ensemble une fois ouverts dans C4D, donc il faut refaire ce lien.
La réalisation de motion captures spécifiques demandent une infrastructure adaptée, un matériel particulier parfois couteux, ou un budget alloués pour réaliser cela en passant par un prestataire…
Mais on commence à voir arriver des solutions à bas coûts, et pour de petits projets, depuis l’arrivée du capteur Kinect pour la Xbox.
En effet depuis avril 2011, il est possible d’utiliser un
capteur Kinect sur un PC, et de pouvoir exploiter toutes les possibilités de ce
périphérique de capture. Microsoft, a mis à disposition un kit de développement
pour PC (SDK) pour développer des applications basé sur la Kinect. Ce
périphérique est à la fois une caméra couleur (comme une webcam) mais également
une caméra infra-rouge qui évalue les volumes se trouvant devant elle par
mesures de distances. Elle peut identifier une silhouette et y associer
automatiquement un squelette virtuel. L’analyse de cette silhouette, permet de
générer un squelette 3D animé en temps réel, chaque articulation du squelette
peut être utilisée pour déclencher une action, par exemple le poignet droit contrôle
le pointeur de la souris de l’écran du PC, et le poignet gauche permet de faire
défiler des images horizontalement…
A noter également que la Kinect est capable d’identifier plusieurs personnes dans son champ de vision, donc de gérer plusieurs squelettes virtuels simultanément (au moins 4).
Cette technologie est très abordable en terme de prix et en terme matériel puisqu’on peut l’emmener partout avec un simple ordinateur portable, et le lieu de capture n’a pas de contrainte.
Certains logiciels 3D ont déjà pu bénéficier de plugins réalisés pour animer en temps réel un personnage 3D. Il est donc tout à fait envisageable de développer une passerelle directe entre le capteur Kinect et Cinema 4D.
Bien sûr ce système ne rivalisera jamais avec un vrai studio de motion capture, mais c’est une alternative très interessante pour animer rapidement des personnages sur des productions à petits budgets.
– Quelle est la différence entre un os et une articulation ?
Avant C4D 12, les squelettes d’animation étaient construits avec des objets déformants « os » qui permettaient de créer des chaînes (bras, jambe), l’ensemble de ces os étaient dans une hiérarchie (squelette) qui devait impérativement être dans le même groupe que la géométrie du personnage, ou comme objet enfant de celle-ci, puisque ces os fonctionnaient comme des déformateurs classiques.
Quand on définissait une chaîne d’os, il était très difficile de retravailler la morphologie car en réduisant la longueur d’un os, il fallait ensuite repositionner l’os suivant à son extrémité, c’était très laborieux.
Avec la notion d’ « articulations » ou « joints », il suffit de placer les articulations là où se trouvent les points de pivot du personnage (genoux, coude, épaule, etc.) les os sont en fait maintenant des liens permanents entre chaque articulation, c’est C4D qui se charge de matérialiser ces os, l’utilisateur se contente d’agir sur les objets « articulations ». Ainsi pour modifier la morphologie d’un squelette, il suffit maintenant de simplement déplacer un objet articulation, les os qui y sont attachés s’adaptent en permanence pour toujours être en chaîne.
Contrairement aux anciens os, les articulations ne sont pas des déformateurs, ce ne sont que des axes qui sont organisés en hiérarchie, le squelette d’os est généré dynamiquement en mémoire par C4D. Cela permet d’avoir un squelette qui n’a plus de contrainte de hiérarchie par rapport à la géométrie du personnage à déformer, le squelette peut être placé n’importe où dans les hiérarchies du projet. Cette structure d’articulation est lié à la géométrie via un objet déformant « Peau » ainsi qu’une propriété « influences » appliquée à la géométrie, celle-ci contient les influences de déformation du squelette sur le maillage de point à déformer.
En ce qui concerne le rigging, c’est-à-dire le contrôle du squelette avec des objets de manipulation des chaînes cinématiques, il y a assez peu de différences entre un squelette ancien et un squelette actuel (exemple : contrôle d’une jambe complète via un contrôleur au niveau du pied, orientation de la jambe via un objet « pôle » pour que le genou se plie dans la bonne direction).
Donc pour résumer la différence entre « os » et « articulations » est que l’adaptation d’un squelette est extrêmement facilitée avec les articulations, le squelette d’os déformants est désormais géré en interne par C4D.
L’autre avantage des articulations c’est qu’on peut la manipuler en rotation, mais également en déplacement, ce qui permet d’étirer très facilement des membres si on souhaite animer une personnage « cartoon » ou bien si on a besoin de tricher un peu pour une posture de personnage qui poserait problème.
– Sur la mascotte très connue d’Ernie le hérisson pour Mapa Spontex, il y a un mélange de poil et de piques, comment cela est-il généré ?
En effet, le hérisson est composé en fait de plusieurs zones
de fourrures ainsi qu’une zone de piquants sur le dos.
La tête, le museau, le ventre, les oreilles et chaque patte sont des objets
« Hair » distincts, appliqués sur des sélections de polygones, avec
parfois des textures de poils différents, mais également une
« coiffure » des cheveux guides adaptées pour chaque partie du corps
(longueur des poils, forme, densité). On peut donc contrôler précisément
l’aspect des poils pour chaque partie du corps du hérisson, ce qui est ainsi
beaucoup plus souple que si on avait 1 seul objet Hair pour toute la fourrure
de l’animal.
Pour les piquants sur le dos, j’utilise un objet Hair appliqué à une sélection de polygone, sauf que je n’utilise pas les textures de poils par défaut, mais un objet (un petit ensemble de 4 ou 5 piquants de formes et d’inclinaisons légèrement variées). C’est ce petit « motif » que Hair utilise pour le dupliquer sur la surface de polygones. En modifiant ce motif de piquants (modification de leur texture ou de leur forme) toute la répartition de piquant du hérisson se corrige automatiquement.
On peut donc utiliser Hair pour autre chose que de l’herbe ou des poils/cheveux, on peut l’utiliser pour répartir des objets 3D sur des surfaces également.
Bien entendu, le hérisson est composé d’un squelette
d’animation pour lui donner toute sorte de posture, les fourrures, ainsi que
les piquants sont liés aux polygones, donc lorsque l’animal bouge, toute sa
fourrure et ses piquants bougent également.
– Quels sont les limites de l’outil 3D pour ce type de projet ?
La difficulté d’un animal à fourrure avec un aspect réaliste, mais qui doit être capable de prendre des postures quasi humaine, c’est que la morphologie de l’animal ne se prête pas forcément à certaines postures, ce qui crée parfois des aberrations au niveau des pliures des membres, de la forme globale de l’animal, donc également des problèmes sur l’aspect de la fourrure qui se répartit mal.
Donc pour chaque image à produire, il faut souvent avoir
recours à la retouche Photoshop, ce travail peut parfois représenter 50% de
l’image calculée par C4D pour certaines poses (ajout de fourrure si il y a des
trous, idem pour les piquants, ajustements des couleurs de poils à certains
endroits, dégagement des yeux….). Il est plus rapide de finaliser l’image à la
tablette graphique en quelques minutes que d’essayer de passer des heures dans
C4D pour essayer de modifier les réglages de fourrure qui risqueraient de créer
de nouveaux problèmes là où il n’y en avait pas au départ...
Donc dans ce genre de cas, il faut garder à l’esprit que la priorité c’est le résultat final et pas la méthode utilisée. L’image 3D sera la base, et ensuite le travail de post-production prend la suite pour corriger les défauts et améliorer le visuel final. Il ne faut surtout pas s’entêter à vouloir absolument obtenir un visuel définitif à la sortie de C4D, le travail de retouche en post-production est souvent assez simple et rapide pour compenser les problèmes des rendus 3D bruts.
– Y’a-t-il des problèmes de pérennités/compatibilité de format pour les personnages ?
La version 12 de C4D a été un changement très important dans
la gestion des personnages animés, notamment concernant les squelettes qui sont
désormais construits sur la base d’articulations et non plus d’os, ce qui
change également la façon donc les chaînes sont gérées en cinématique inverse.
Avant on définissait un squelette avec des objets déformants « os »
qui avait une longueur définie, maintenant on crée simplement les points
d’articulation (« joints » en version anglaise) et le lien entre les
articulations est un sorte d’os dynamique, qui est simplement une référence
visuelle, C4D crée ces os lui-même, l’utilisateur ne se concentre que sur les
articulations (hanche -> genou -> cheville / épaule->coude->poignet
)
Et puis depuis C4D 12, le lien entre le squelette et les géométries ne se fait plus par la hiérarchie mais par un objet déformant « Peau » ainsi qu’une propriété « influence » qui, ensemble, permettent d’avoir un squelette totalement indépendant de la hiérarchie des objets du projet. Avant il fallait que le squelette d’os soit dans le même groupe que la modélisation du personnage pour que celui-ci soit affecté par les déformations.
Et puis le système de morphing a également été changé radicalement, puisqu’avant C4D 12 il fallait faire des copies de l’objet polygonal (personnage), chaque copie était déformée pour créer un morphing spécifique, la propriété de morphing pointait vers ces copies pour permettre ensuite de mixer les différentes géométries. Depuis C4D 12, la propriété « morphing de pose » regroupe différentes anciennes fonctionnalités, et stocke directement les déformations en mémoire, et non pas sous forme de copies du personnage (ce qui alourdissait considérablement le fichier C4D).
Ce sont donc tous ces changements qui ont créés une rupture avec les anciens personnages conçus dans C4D11 et versions antérieures. La conversion d’un ancien personnage dans une version 12 ou supérieure, est très souvent inefficace. Il faut se contenter de conserver la modélisation du personnage et ses textures, et ensuite refaire intégralement un squelette en version « articulations » avec également la gestion adaptées des chaîne cinématiques et contrôleurs d’animation, et également refaire les morphings.
– Avec C-Motion,
Cinema4D annonçait un outil plus intuitif pour animer les
« animaux », qu’en est-il vraiment ?
L’outil « Personnage » de C4D 13 est un système de création automatique de squelette (bipède, quadrupède, oiseau, insecte, reptile, etc.) est intéressant car il s’agit de présets de squelettes que l’utilisateur peut adapter rapidement à la morphologie de son personnage, et ensuite avoir tous les contrôleurs (rigging) déjà mis en place pour animer celui-ci. Donc ça réduit forcément le temps nécessaire pour configurer une créature animable, si on compare avec la création manuelle intégrale du squelette, puis toute la configuration des contrôleurs à la main également.
Ce système de gestion de personnage est associé également à un outil d’animation procédurale (C-Motion) de ces squelettes prédéfinis. Ainsi l’utilisateur ayant utilisé par exemple un squelette de type « insecte » pour animer son araignée en générant 8 pattes animables, va pouvoir définir un parcours avec un simple tracé spline, puis indiquer au système d’animation qu’à l’image 0 l’animal doit être au début de la spline, et à l’image 300, elle doit arriver à la fin de la trajectoire. Et C4D anime les pattes de la créature pour que celle-ci bouge de façon parfaitement réaliste et cohérente ! On peut également activer un mode de collision permettant à la créature de marcher sur une surface accidentée, les pattes se placeront parfaitement sur toute forme de terrain.
Faire ce travail à la main, notamment avec 8 pattes à animer, serait un travail terriblement fastidieux pour arriver à un résultat similaire qui ne demande que quelques clics !
Cela fonctionne bien sûr pour un personnage bipède également, on peut le faire marcher sur n’importe quelle trajectoire (ou bien le faire marcher sur place avec une animation qui reboucle parfaitement), avec des réglages permettant de modifier sa démarche (balancement des épaules ou du bassin, amplitude des pas, amplitude de balancement des bras, etc…)
Mais comme toute animation mathématique, cela reste un mouvement « fermé », la créature marche et c’est tout. Si on veut ensuite animer la créature pour faire des actions spécifiques autres que la marche, là il faut de toute façon passer par l’animation classique à la main.
Ce système d’animation automatique convient donc à des animations de 2eme plans (pour des figurants), le personnage principal restera majoritairement animé à la main de toute manière.
Par contre cela ouvre la porte aux utilisateurs novices en animation de personnages, qui sont un peu effrayé par la difficulté et la complexité de créer un squelette intégralement, et le configurer pour l’animation. Avec cet assistant, l’animation de créature se démocratise.
– L’actualité, c’est aussi la version R14 de Cinema4D. Quels sont les nouveautés ?
Et oui, la R14 arrive !
On y trouve un système de sculpture à la Zbrush, qui permet donc, à partir d’un maillage de base léger en polygones, de le subdiviser dynamiquement, puis de sculpter l’objet pour y ajouter du détail, pour cela on peut utiliser tous les outils de base de la sculpture réelle, l’objet se comporte comme de l’argile, c’est vraiment une petite révolution ! Chaque action de sculpture peut être associé à un calque, comme dans Photoshop, on peut donc activer/désactiver à volonté des effets sculptés (par exemple ajouter/enlever une cicatrice, des rides, une fossette au menton, etc…). Ensuite on peut soit convertir l’objet final en maillage (forcément extrêmement lourd car très subdivisé) ou bien générer un mapping de déplacement qui s’appliquera au maillage initial faible, mais avec un résultat final hyper détaillé (utilisant le sub-polygon displacement de C4D, c’est-à-dire une subdivision de l’objet lors du rendu, pour avoir un maillage très fin et détaillé lors du déplacement des point via la texture en niveau de gris représentant les effets de sculpture).
L’autre évolution importante à noter dans C4D 14 c’est l’amélioration du système de magnétisme qui désormais intègre les mêmes outils que les logiciels de CAO, ce qui manquait terriblement à C4D. On peut donc placer et incliner automatiquement des objets sur des polygones en pente (exemple : poser des fenêtres type Velux sur une toiture inclinée). On peut aussi avoir des lignes guides de magnétisme pour positionner un objet dans l’alignement d’autres objets (exemple : une maison en L, donc on veut placer des poteaux de clôtures alignés sur chaque mur afin de fermer la zone rectangulaire de la propriété). Bref, ces améliorations qui semblent mineures sont en fait très efficaces en gain de temps, et facilitent beaucoup les modélisations techniques (architecture, mécanique, industrie).
On notera également un système d’aide au placement de camera
pour l’intégration d’objet 3D dans une photo utilisée en arrière-plan. On place
des lignes de référence sur les lignes de perspectives de la photo, puis
l’outil va positionner et orienter la camera 3D précisément pour reproduire les
conditions de prise de vue réelle, et ainsi caler parfaitement la perspective
de la scène 3D sur la perspective de la photo. Avant il fallait compter sur un
plugin nommé PhotoMatch pour faire cela, ou bien faire ce calage de perspective
à la main (ou plutôt à l’œil) ce qui pouvait prendre du temps et manquer un peu
de précision…
Ce qui est regrettable c’est que cet outil ne puisse pas être utilisé sur une
video, ce qui permettrait d’intégrer des éléments 3D directement dans une
video, sans avoir à passer par des process lourds et par des logiciels de
tracking (MatchMover, Boujou) notamment sur des projets à petits budgets avec
des délais restreints.
On a aussi un système qui permet de passer d’une caméra à
l’autre avec un mouvement de transition. Si on place plusieurs caméra dans une
scène 3D, on peut passer de l’une à l’autre de manière directe, le changement
de vue est instantané, on passe de la camera A à la caméra B d’un seul coup.
Dans C4D 14, ce passage peut être réalisé avec une transition automatique, comme si la caméra A était animée et venait se placer à la position/rotation de la caméra B.
Là encore c’est intéressant en terme de gain de temps pour ne pas avoir besoin d’animer les transitions de caméra soi-même, ça facilite beaucoup la mise en scène du projet.
Enfin on constate également une accélération du rendu en
illumination globale qui peut utiliser un « map de radiosité » qui
permet de conserver un aspect de rendu optimal tout en réduisant
considérablement le temps de calcul.
Les effets caustiques et les effets de translucidité (Sub Surface Scattering)
ont également été revus, ils sont désormais presque 2 fois plus rapides à
calculer qu’avant.
– Quels sont les points positifs et négatifs des mises à jours en général (exemples) ?
Le point positif des updates de C4D c’est bien sûr qu’à chaque fois certains bugs disparaissent, et de nouveaux outils apparaissent. Les « petites » mises à jours de C4D (patchs) ont comme particularité de ne pas seulement corriger des problèmes identifiés, mais également apporte de nouvelles fonctionnalités et des améliorations, c’est à chaque fois la surprise !
En ce qui concerne les « grosses » mise à jour d’une release 13 à une release 14 par exemple, on peut se retrouver devant des problèmes de compatibilités parfois très gênantes en production. Par exemple un personnage animable avec ses systèmes de contrôleurs de squelettes, de morphings de visage, peut ne plus fonctionner du tout dans une nouvelle version de C4D, notamment si les outils de gestions de personnage ont été re-développés, avec de nouveaux paramètres supplémentaires, d’anciens paramètres supprimés, ou des outils fusionnés en 1 seul. Souvent le personnage importé dans la nouvelle version de C4D n’est plus opérationnel, ou seulement en partie, ce qui est dommageable lorsque, comme à 3D Weave, nous avons constitué un stock important de personnages animés, une majorité d’entre eux nécessite d’être entièrement bonés et riggés dans la nouvelle version de C4D avec également les morphings à refaire entièrement, ainsi que les systèmes Xpressos.
On a eu ce souci de compatibilité de personnage lors du passage à C4D 12, cette version a eu de nombreux changements très importants sur la gestion des systèmes d’animation de personnages. Dans les versions suivantes, les changements concernant les personnages sont donc désormais mineurs, le logiciel évolue mais dans d’autres domaines. Donc j’imagine qu’on va pouvoir continuer à exploiter nos personnages « animables » actuels pendant encore quelques versions de C4D…
Donc à chaque nouvelle version de C4D, nous avons comme premier test d’importer un personnage animable pour voir déjà si il se comporte correctement. Il est donc difficile de capitaliser sur nos stocks de personnages, et le temps passé dessus, quand une nouvelle version de C4D implique de devoir les corriger ou au pire refaire toute la gestion du squelette…
– Tu es également l’auteur de 2 DVD de tutos édités par Elephorm, à quand de nouveaux tutos?
Et bien avec l’arrivée de C4D 14, peut-être que la modélisation en sculpture serait une bon sujet de travail, avec une application en modélisation classique (création d’une scène avec un travail sur les textures et le rendu), et une application sur la réalisation d’un personnage animable utilisant par exemple le système de rigging automatisé intégré dans C4D 13, et son système d’animation procédural également. On tient déjà ici de quoi faire une bon gros DVD.
– Un petit mot pour conclure ?
Heu… fourchette.
Merci Gaétan !