top of page

Pourquoi et Comment Optimiser les Données pour la Modélisation 3D ?

Dernière mise à jour : 3 oct.

La création d’application 3D nécessite l’utilisation et le traitement de données. Nos clients peuvent disposer d’une partie de ces données, dans divers formats.

Cela soulève alors à chaque fois les questions suivantes : ces données client sont-elles utilisables directement, nécessitent-elles une passe de traitements ou bien sont-elles inexploitables en tant que telles ?


Pour y répondre, il faut notamment prendre en compte les deux critères suivants :

  • L’application est-elle une application temps-réel ?

  • Quel est l’environnement cible (un PC, un casque de réalité virtuelle ou augmentée, une tablette/un smartphone, le web) ?

La réponse à ces deux questions va déterminer la forme que doivent prendre les données dans l’application : leur taille/leur poids, le nombre de polygones de ces données, leur format, etc.


Aujourd’hui, les modèles fournis par la majorité des clients sont issus de logiciels de type “surfacique”. Cette modélisation surfacique vise principalement les étapes de conception du produit où l’accent est davantage porté sur l’esthétique et le style qu’aux aspects techniques du produit. Elle présente en effet les qualités nécessaires pour avoir une meilleure visualisation et présentation, les objets apparaissant ainsi plus réalistes. Mais ces données sont inexploitables pour réaliser la plupart des demandes clients du fait du manque d’optimisation.


C’est pourquoi, l’équipe d’infographie 3D (re)modélise à partir de ces données 3D pour les optimiser. Nous présentons donc ici, de manière succincte, pourquoi est-il capital d’optimiser les données et comment le faire.


Les Etapes Clés pour Optimiser les Données 3D dans la Modélisation 3D


La modélisation 3D fournis est relativement “dense”, c’est-à-dire qu’ils ont plusieurs millions de polygones (la plupart du temps des triangles, toutefois cela peut être des formes plus complexes parfois). Cela est notamment dû aux mesures précises, aux détails esthétiques et techniques.


Or, le poids de ces polygones peut alourdir, voire entraver l’expérience finale (configurateur web, expérience 3D/VR/AR, showroom interactif etc.) s’ils ne sont pas optimisés. En effet, plus il y aura de polygones, plus gourmands seront les calculs de lumières et de process, et plus lente sera la simulation.


Optimiser englobe donc un double objectif :

  • Atténuer la quantité de calculs nécessaire,

  • Améliorer l’aspect visuel de l’expérience finale.


Alors comment l’équipe d’infographie 3D chez LS GROUP (ex Light And Shadows) va optimiser les données 3D ?

Optimisation de la data


Dans un premier temps, l’équipe d’infographistes 3D va appliquer ce que l’on appelle l’optimisation topologique ou la retopologie. Cette étape consiste à alléger considérablement le poids d’un modèle 3D en réduisant le nombre de polygones.


Au départ, nous avons un modèle, dit high poly, un modèle haute définition renfermant un nombre incroyablement grand de polygones pouvant aller jusqu’à plusieurs dizaines de millions de polygones. La retopologie va supprimer la matière là où elle n’est pas nécessaire pour ne conserver que l’essentiel des formes, sans altérer les propriétés et caractéristiques (gabarit, surface, etc.) et la qualité du modèle 3D. Le résultat de cette première étape d’optimisation est un modèle dit low poly.


Exemple de modélisation 3D de qualité high poly
High poly model of a bumper (input) - LS GROUP

Exemple de modélisation 3D de qualité low poly
Low poly model of a bumper (output) - LS GROUP

Dans cet exemple, le pare-chocs en high poly est composé de près de 92 000 polygones.

Il s’agit d’un modèle peu exploitable pour nos besoins. Par ailleurs, en observant plus en détail, on remarque des motifs hétérogènes avec des enchevêtrements d’arêtes (image en dessous). L’équipe infographie 3D chez L&S va donc retoper le maillage et remodéliser la donnée 3D afin que les polygones soient les plus homogènes possibles et soient plus faciles à exploiter. Ici, nous avions réussi à réduire le nombre de poly jusqu’à 4 000 (soit une baisse de -95.65 % !).


Exemple de modélisation 3D de qualité high poly
Zoom on the original 3D model of the bumper - LS GROUP

Exemple de modélisation 3D de qualité low poly
Zoom on the retopo model of the bumper - LS GROUP

UV et préparation au texturage


Après la retopologie, il est nécessaire de préparer le texturage du modèle 3D. Un des prérequis est de pouvoir « aplatir » ce dernier : Il faut arriver à ce que l’ensemble des polygones du modèle tienne dans un plan/une image, afin de créer la « peau » qui, une fois texturée, habillera parfaitement le modèle.


Pour cela, il est d’usage de recourir à l’UV ou l’UV mapping. C’est un processus permettant d’appliquer ou coller une texture 2D (une image) sur un modèle en 3D via un dépliage, d’une manière similaire aux patrons de découpe utilisés dans le domaine de la couture. Par ailleurs, « UV » fait référence aux vecteurs U et V qui définissent le plan 2D/image. Concrètement, l’UV va faire le lien entre un maillage de surface et la façon dont une texture d’image est appliquée sur cette surface. Cette étape de dépliage du modèle est impossible avec les modèles fournis en entrée, de par le nombre de polygones et la complexité de leur agencement. D’où ici aussi, la nécessité de réduire le nombre de polygones.


En outre, le meilleur moyen de faire correspondre la peau texturée avec les données 3D est d’avoir des polygones qui sont des quads, soit quatre côtés. Cela permet de faire correspondre plus facilement chaque quad à un morceau d’image.


Dans les images ci-dessous, on observe que la technique utilisée pour le dépliage UV sur la donnée high poly en entrée donne un résultat complètement étiré et déformé. Alors qu’en utilisant la même technique, mais sur la donnée sur la donnée low poly en sortie, le résultat est plus correct et plus propre (homogène et sans déformation).

Exemple de modélisation 3D de qualité high/lowpoly
UV unfolding (input VS output) - LS GROUP

Pour vérifier les opérations de dépliage, et pour illustrer ici l’impact d’un bon ou mauvais dépliage sur nos modèles 3D, nous utilisons un checker (ou damier) qui va permettre d’observer les possibles déformations.


Un bon dépliage donnera un damier dont les lignes sont propres et les proportions homogènes. C’est le cas ici pour le dépliage du modèle optimisé low poly. À l’inverse, un mauvais dépliage donnera un damier déformé, avec des lignes cassées et des proportions hétérogènes, comme pour le dépliage du modèle high poly non optimisé.


Exemple de modélisation 3D de qualité
UV Checker (input) - LS GROUP

Exemple de modélisation 3D de qualité
UV Checker (output) - LS GROUP

Optimiser nécessite donc un certain travail :

  • Un premier traitement des données en entrée pour les vérifier et faire en sorte qu’elles soient bien exploitables (il faut parfois faire une première réduction de polygones, réagencer l’arbre de construction du modèle, etc.),

  • Le travail des infographistes de (re)modélisation et texturage.

Les données sont alors prêtes pour être intégrées dans l’application visée !

___________ Envie d’en savoir plus sur la technologie 3D ?

Light & Shadows est convaincu du potentiel des technologies 3D. Nous nous efforçons de mieux répondre aux besoins de chacun de nos clients, afin de leur offrir une expérience virtuelle mémorable. Vous pouvez trouver toutes les informations sur l’intégration des technologies 3D dans le processus marketing en téléchargeant notre livre blanc (version française). N’hésitez pas à nous contacter pour des informations plus spécifiques sur la façon dont nous pouvons vous aider à tirer profit des nouvelles technologies !

Comments


bottom of page