
Depuis la création du projet AiBy4, plusieurs thèses impliquant l’intelligence artificielle ont été soutenues à Nantes Université et ses partenaires. Vous les trouverez ci-dessous répertoriées en différentes catégories :

Thème Santé du futur
La compréhension des mécanismes cellulaires à l’œuvre au sein des organismes vivants repose généralement sur l’étude de leur expression génétique. Cependant, les gènes sont impliqués dans des processus de régulation complexes et leur mesureest difficile à réaliser. Dans ce contexte, la modélisation qualitative des réseaux de régulation génétique vise à établir la fonction de chaque gène à partir de la modélisation discrète d’un réseau d’interaction dynamique. Dans cette thèse, nous avons pour objectif de mettre en place cette approche de modélisation à partir des données de séquençage single-cell. Ces données se révèlent en effet intéressantes pour la modélisation qualitative, car elles apportent une grande précision et peuvent être interprétées de manière dynamique. Nous développons ainsi une méthode d’inférence de modèles qualitatifs basée sur l’apprentissage automatique de programmes logiques. Cette méthode est mise en œuvre sur des données single-cell et nous proposons plusieurs approches pour interpréter les modèles résultants en les confrontant avec des connaissances préétablies
La popularité de l’imagerie TEP à l’yttrium 90 va grandissante. Cependant, la probabilité qu’une désintégration d’un noyau d’yttrium 90 mène à l’émission d’un positon n’est que de 3,2 × 10-5, et les images reconstruites sont par conséquent caractérisées par un niveau de bruit élevé, ainsi que par un biais positif dans les régions de faible activité. Pour corriger ces problèmes, les méthodes classiques consistent à utiliser des algorithmes pénalisés, ou autorisant des valeurs négatives dans l’image. Cependant, une étude comparant et combinant ces différentes méthodes dans le contexte spécifique de l’yttrium 90 manquait encore à l’appel au début de cette thèse. Cette dernière vise donc à combler ce manque. Malheureusement, les méthodes autorisant les valeurs négatives ne peuvent pas être utilisées directement dans le cadre d’une étude dosimétrique, et cette thèse commence donc par proposer une nouvelle méthode de post-traitement des images, visant à en supprimer les valeurs négatives en en conservant les valeurs moyennes le plus localement possible. Une analyse complète multi-objectifs de ces différentes méthodes est ensuite proposée. Cette thèse se termine en posant les prémices de ce qui pourra devenir un algorithme permettant de proposer un jeu d’hyper-paramètres de reconstruction adéquats, à partir des seuls sinogrammes.
L’objectif de ces travaux est de fournir un modèle permettant la prédiction de la survie et l’identification de biomarqueurs dans le contexte du myélome multiple (MM) à l’aide de l’imagerie TEP (Tomographie à émission de positons) et de données cliniques. Cette thèse fut divisée en deux parties : La première permet d’obtenir un modèle basé sur les forêts de survie aléatoires (RSF). La seconde est basée sur l’adaptation de l’apprentissage profond à la survie et à nos données. Les contributions principales sont les suivantes : 1) Production d’un modèle basé sur les RSF et les images TEP permettant la prédiction d’un groupe de risque pour les patients atteints de MM.2) Détermination de biomarqueurs grâce à ce modèle3) Démonstration de l’intérêt des radiomiques TEP 4) Extension de l’état de l’art des méthodes d’adaptation de l’apprentissage profond à une petite base de données et à de petitesimages 5) Étude des fonctions de coût utilisées en survie. De plus, nous sommes, à notre connaissance, les premiers à investiguer l’utilisation des RSF dans le contexte du MM et des images TEP, à utiliser du pré-entraînement auto-supervisé avec des images TEP et, avec une tâche de survie, à adapter la fonction de coût triplet à la survie et à adapter un réseau de neurones convolutionnels à la survie du MM à partir de lésions TEP.

Thème Industrie du futur
“Suivi du cancer du sein métastasé via le recalage et la segmentation d’images TEP en utilisant des méthodes conventionnelles et des réseaux convolutifs entrainés et non-entrainés” “Longitudinal monitoring of metastatic breast cancer through PET image registration and segmentation based on conventional as well as trained and untrained convolutional networks”
L’attention visuelle est l’un des mécanismes les plus importants déployés par le système visuel humain pour réduire la quantité d’informations que le cerveau doit traiter. De plus en plus d’efforts ont été consacrés à l’étude de l’attention visuelle sur des images naturelles (image 2D). Cependant, peu de travaux ont été mené sur des contenus 3D, correspondant à des données plus complexes car elles incluent des informations sur la géométrie et les attributs d’apparence. C’est cette problématique de l’attention visuelle sur les contenus 3D qui a principalement guidé notre démarche pour ces travaux de thèse. Nos travaux sont principalement divisés en trois parties correspondants à trois niveaux conceptuels différents. La première partie de cette thèse correspond à un concept de bas niveau où nous proposons de prédire ce qui attire l’attention des individus lorsqu’ils observent des objets 3D en étudiant la validité des modèles et des hypothèses faites dans l’imagerie 2D. Ceci est très utile dans certains scénarios tels que le streaming interactif ou la visualisation des contenus 3D dans des applications de réalité virtuelle ou augmentée. La deuxième partie correspond à un concept de niveau intermédiaire où nous introduisons une mesure perceptuelle de la complexité de l’attention qui est extraite à partir de l’information de la saillance. La mesure que nous proposons est utilisée dans l’évaluation de la qualité des contenus 3D ainsi que dans la caractérisation de ces contenus. La troisième partie traite un concept de plus haut niveau lié à la préférence de point de vue des objets graphiques 3D où nous montrons la pertinence d’un indicateur de complexité attentionelle, introduit dans la deuxième partie du manuscrit. Tout au long de la thèse, nous avons construit plusieurs bases de données d’objets 3D colorés et nous avons réalisé une série d’expériences subjectives pour différentes tâches, y compris des expériences de crowdsourcing comme alternatives aux expériences menées au laboratoire.
Cette thèse explore l’optimisation perceptuelle et la réduction de la complexité afin d’améliorer les schémas de compression vidéo dans un contexte d’encodage temps réel. Le travail est divisé en trois parties qui proposent plusieurs types d’amélioration. La première contribution introduit un filtre de prétraitement perceptuel basé sur un modèle du système visuel humain. Ce filtre est paramétrable pour plusieurs conditions de visualisation, nous proposons des réglages optimisés pour deux conditions standards. Une étude sur la précision de différentes métriques de qualité visuelle dans le cadre spécifique de la mesure des performances de pré-filtrage est également menée. La deuxième partie de la thèse propose une méthodologie basée sur la classification par apprentissage automatique pour prédire et sélectionner de manière adaptative la meilleure résolution d’encodage dans un scénario de codage en une passe. À cette fin, trois classificateurs différents ont été considérés : Support Vector Machine, Random Forest (RF) et Multi-Layer Perceptron. Dans le but d’évaluer et piloter le gain perceptuel à un débit donné, plusieurs métriques de qualité visuelle ont ensuite été caractérisées et comparées. Ceci a été mené pour plusieurs niveaux de qualité du point de vue de l’incertitude de la qualité subjective de la vérité terrain. En outre, une nouvelle métrique basée sur RF, perceptuellement plus précise, a été introduite pour la formation des classificateurs. Le troisième ensemble de contributions se concentre sur la prise en charge de la partie de codage la plus complexe du nouveau standard Versatile Video Coding (VVC) : les critères de décision pour le partitionnement Multi-Type Tree. Une nouvelle méthode de décision de partitionnement basée Apprentissage Machine est proposée couvrant tous les types de partitionnement en intra et inter et particulièrement appropriée pour un encodeur matériel temps réel. Une approche basée CNN a ainsi été utilisée, avec des classificateurs pour différents niveaux, formes et types de partitionnement. Cette méthode est finalement évaluée par rapport à une approche exhaustive et démontre des performances prometteuses qui sont soigneusement analysées.
On cherche à prédire l’occurrence de la transformation martensitique dans les alliages de titane en fonction de leur composition, dans la perspective de concevoir des alliages dits « TRIP » (TRansformation-Induced Plasticity). Des pistes sont évoquées pour adapter la méthode aux alliages à haute entropie. Un modèle s’appuyant sur la thermodynamique prédictive et sur l’évaluation de la contribution de l’énergie élastique permet de prévoir la température de début de transformation martensitique (Ms). On propose une explication à la rétention sous trempe de la phase de haute température beta, qui serait plus vraisemblablement due au caractère thermiquement activé de la germination de la martensite qu’à une Ms inférieure à la température ambiante. Par ailleurs, on s’appuie sur la théorie phénoménologique de la cristallographie de la martensite (PTMC) pour suggérer une explication à l’inhibition de la martensite dans des conditions qui lui sont thermo-élastiquement favorables. On constate en effet que la formation de martensite pourrait être rendue irréalisable par l’impossibilité d’accommoder la transformation via une déformation à plan invariant. On utilise finalement un algorithme génétique pour illustrer l’approche par des cas théoriques de conception visant à trouver des alliages escomptés présenter un effet TRIP tout en en maximisant le durcissement par solution solide et en minimisant l’impact environnemental ou le risque géo-stratégique associés à leur production. On montre aussi des cas de conception d’alliages à partir d’alliages recyclés, ou de conception de paires d’alliages pour une « structure bi-métal en couches » réalisable par fabrication additive.
Dans le contexte de l’industrie du futur, les réseaux cognitifs sont une solution pour améliorer la fiabilité des réseaux informatiques et industriels. Ils sont capables d’optimiser automatiquement les différents paramètres protocolaires afin d’accomplir un ou plusieurs objectifs de qualité de service. Très peu de réseaux cognitifs ont été implémentés en totalité. La plupart des auteurs ont préféré se concentrer sur l’amélioration d’une fonctionnalité comme le routage. Dans cette thèse, nous suivons cette approche en proposant d’évaluer et d’améliorer l’algorithme Q-routing, algorithme de routage conçu par Boyan et Littman en 1994 et inspiré de Q-learning. Nous proposons une implémentation de Q-routing et des améliorations pour résoudre deux problèmes : les optimums locaux causés par la stratégie gloutonne de Q-routing et l’estimation du délai. Les optimums locaux privent Q-routing des routes ayant été congestionnées même momentanément. Pour résoudre ce problème, nous proposons deux approches inspirées des travaux sur l’apprentissage par renforcement. Par ailleurs, la qualité de l’estimation du délai est importante car elle est utilisée pour calculer la métrique de routage. Nous proposons d’utiliser une méthode de filtrage afin d’améliorer la qualité de l’estimation du délai de transmission. Nous évaluons notre implémentation et nos améliorations sur le simulateur réseau Qualnet incluant des topologies sans-fil et dans des scénarios avec mobilité. Nous montrons que Q-routing peut livrer plus de paquets et plus rapidement que le protocole de routage standardisé OLSRv2.
Les nouveaux contenus hyperréalistiques nécessitent le développement de nouveaux protocoles et modèles pour quantifier l’expérience utilisateur. L’étude du déploiement de l’attention visuelle est considérée comme un moyen intéressant pour comprendre et améliorer la qualité d’expérience (QoE). Dans ce contexte, des méthodes basées saillance, ne considérant que l’information spatiale, ont principalement été utilisées. Dans cette thèse, nous nous proposons donc d’étudier le déploiement de l’attention visuelle, en considérant la dimension dynamique des comportements oculaires, et ses applications possibles en QoE. Dans un premier temps, nous présentons un nouveau cadre méthodologique basé sur des modèles de Markov cachés permettant la classification et la mesure de similarité des chemins oculaires pour différentes dimensions de la QoE (mémorabilité, fidélité visuelle). Au-delà de la comparaison des comportements attentionnels, cette thèse s’intéresse également à la mesure expérimentale du déploiement de l’attention visuelle, en particulier dans un contexte d’études en crowdsourcing sans oculomètre. Nous avons ainsi adapté et testé la métaphore “Bubble- View” pour l’évaluation de l’influence des opérateurs de mappage de tons sur le déploiement de l’attention visuelle. Finalement, les outils présentés dans cette thèse pour la mesure, la modélisation et la comparison du déploiement de l’attention visuelle ont été appliqués à la prédiction de la préférence d’images mappées à partir d’une métrique basée sur un algorithme d’apprentissage automatique.
Les problèmes de quantification d’incertitudes des modèles numériques nécessitent de nombreuses simulations, souvent très coûteuses (en temps de calcul et/ou en mémoire). C’est pourquoi il est essentiel de construire des modèles approchés qui sont moins coûteux à évaluer. En pratique, si la réponse d’un modèle numérique est représentée par une fonction, on cherche à en construire une approximation.L’objectif de cette thèse est de construire l’approximation d’une fonction qui soit contrôlée tout en utilisant le moins d’évaluations possible de la fonction.Dans un premier temps, nous proposons une nouvelle méthode basée sur les moindres carrés pondérés pour construire l’approximation d’une fonction dans un espace vectoriel. Nous prouvons que la projection vérifie une propriété de stabilité numérique presque sûrement et une propriété de quasi-optimalité en espérance. En pratique on observe que la taille de l’échantillon est plus proche de la dimension de l’espace d’approximation que pour les autres techniques de moindres carrés pondérées existantes.Pour l’approximation en grande dimension et afin d’exploiter de potentielles structures de faible dimension, nous considérons dans cette thèse des approximations dans des formats de tenseurs basés sur des arbres. Ces formats admettent une paramétrisation multilinéaire avec des paramètres formant un réseau de tenseurs de faible ordre et sont ainsi également appelés réseaux de tenseurs basés sur des arbres. Dans cette thèse, nous proposons un algorithme pour construire l’approximation de fonctions dans des formats de tenseurs basés sur des arbres. Il consiste à construire une hiérarchie de sous-espaces imbriqués associés aux différents niveaux de l’arbre. La construction de ces espaces s’appuie sur l’analyse en composantes principales étendue aux fonctions multivariées et sur l’utilisation de la nouvelle méthode des moindres carrés pondérés. Afin de réduire le nombre d’évaluations nécessaires pour construire l’approximation avec une certaine précision, nous proposons des stratégies adaptatives pour le contrôle de l’erreur de discrétisation, la sélection de l’arbre, le contrôle des rangs et l’estimation des composantes principales.
Les bâtiments en maçonnerie ont souvent une géométrie non-standard, caractérisée par des arcs, des voûtes et des dômes. C’est également le cas des structures du patrimoine bâti historique, qui sont souvent des cibles symboliques et privilégiées des actions violentes, telles que des explosions. L’objectif principal de ce travail est de mettre en lumière le comportement dynamique et les modes de ruine des structures maçonnées avec soit un comportement monolithique soit une géométrie non-standard, vis-à-vis d’explosions. Ceci est d’abord accompli grâce à des outils analytiques simplifiés et à des simulations numériques détaillées reposant sur la Méthode aux Éléments Discrets (ED). Ensuite, une approche de modélisation macroscopique simplifiée, utilisant la Méthode aux Éléments Finis (EF), est introduite comme un outil d’ingénieur pour étudier de grands bâtiments en maçonnerie, tels que des monuments. En particulier, de nouvelles solutions analytiques pour la réponse en basculement des structures élancées et monolithiques sont dérivées et validées par rapport à des expériences existantes et à des simulations numériques détaillées. La Méthode aux ED est utilisée pour étudier la réponse des structures maçonnées non-standard, telles que des arcs et des voûtes, et l’influence de divers paramètres mécaniques. En nous appuyant sur les résultats numériques ED, nous développons une approche de modélisation aux EF macroscopique, basée sur des techniques simplifiées de upscaling et un modèle de fissuration étalé, afin de prédire la réponse d’éléments structuraux en maçonnerie à grande échelle. Le modèle proposé prévoit un comportement isotrope et permet de prendre en compte le phénomène d’adoucissement, qui affecte fortement la réponse du matériau. Dans le but de développer des modèles de matériaux plus précis et détaillés de l’approche mentionnée ci-dessus, une nouvelle classe de réseaux de neurones artificiels (ANNs) est également proposée comme un outil robuste, basé sur la thermodynamique, pour dériver des modèles constitutifs, au niveau du point matériel, dans le cadre d’analyses physiques multi-échelle. Les réseaux de neurones artificiels basés sur la thermodynamique (TANNs) sont appliqués – et leur supériorité par rapport aux approches ANNs classiques est prouvée – pour le cas des matériaux présentant un comportement d’adoucissement. Enfin, nous proposons de nouvelles lois de similitude pour la réponse des structures en maçonnerie soumises à des explosions. Notre objectif est de concevoir de futurs essais expérimentaux à échelle réduite, qui sont d’une importance capitale pour améliorer la connaissance actuelle et corroborer les modèles proposés.
Cette thèse s’intéresse au potentiel et à la prévision des temps d’attente concernant le covoiturage sur un territoire en utilisant des méthodes d’apprentissage statistique. Cinq thèmes principaux sont abordés dans le présent manuscrit. Le premier présente des techniques de régression quantile afin de prédire des temps d’attente. Le deuxième détaille la construction d’un processus de travail empruntant des outils des Systèmes d’Information Géographique (SIG) afin d’exploiter pleinement les données issues du covoiturage. Dans un troisième temps nous construisons un modèle hiérarchique bayésien en vue de prédire des flux de trafic et des temps d’attente. En quatrième partie nous proposons une méthode de construction d’une loi a priori informative par transfert bayésien dans le but d’améliorer les prédictions des temps d’attente pour une situation de jeu de données court. Enfin, le dernier thème se concentre sur la mise en production et l’exploitation industrielle du modèle hiérarchique bayésien.
Les problèmes de type Pick & Place (PAP) sont très étudiés dans la littérature, mais, à notre connaissance, très peu de travaux étudient les systèmes de PAP dans un contexte industriel. L’objectif de cette thèse est la résolution d’un problème industriel de type PAP au sein d’un centre de tri postal, où des bacs remplis de courriers arrivent dynamiquement et dans un ordre inconnu, et où des opérateurs placent ces bacs dans des chariots en fonction de leur destination. Compte tenu de la diversité importante des destinations journalières, un équilibre doit être trouvé en temps réel entre les flux traités par les humains et par le robot. Ce problème a été résolu en quatre phases. En premier lieu, des modèles à base de connaissance ont été proposés à partir de l’expérience de l’opérateur logistique. Le résultat de l’application de ces modèles sur une simulation du système réel est considéré comme une borne inférieure de la performance du système. En second lieu, un modèle mathématique du système a été établi, le relâchement de plusieurs contraintes permettant de traiter le problème comme un problème d’ordonnancement classique. Les résultats de cet ordonnancement, inapplicables sur le terrain, nous ont conduits à investiguer l’utilisation d’heuristiques en ligne. Une troisième étape a été de proposer un modèle heuristique, à base de règles dynamiques, évaluée en simulation. Enfin, un modèle multiagents, intégrant ces règles de décisions, a été développé afin de valider l’applicabilité d’un tel système de pilotage sur le système réel.
Les technologies de fabrication additive (FA) donnent de plus en plus de liberté de conception aux concepteurs et aux ingénieurs pour concevoir et définir des géométries et des compositions de matériaux très complexes. En raison d’un traitement couche par couche, les contraintes, méthodes, outils et processus de conception en FA sont différents de ceux des processus de fabrication traditionnels. Les méthodes et outils de conception traditionnels ne peuvent pas répondre aux besoins de la conception en FA. Par conséquent, un nouveau domaine de recherche, la conception pour la FA (Design for AM – DfAM), a émergé pour répondre à ce besoin. Cependant, les méthodes de DfAM existantes sont soit des lignes directrices, soit des outils de calculs, qui ont une prise en compte limitée des contraintes couplées le long de la chaîne de traitement numérique de la FA et peinent à garantir la fabricabilité de la conception en FA. Pour contribuer à l’obtention d’une conception qualifiée en FA, ce travail de thèse se concentre sur trois problèmes existants typiques dans le domaine du DfAM : premièrement, com-ment assurer la fabricabilité dans le processus d’optimisation topologique ? Deuxièmement, comment concevoir des structures de supports allégées, faciles à retirer pour le post-traitement et de diffusion de chaleur conviviales pour assurer la précision de la forme et améliorer la rugosité de surface des pièces imprimées ? Enfin, comment éviter les pertes de précision lors de la préparation de l’impression de structures en treillis complexes et assurer leur fabricabilité lors de la conception ?Pour résoudre les trois problèmes identifiés, ce travail de thèse propose un ensemble de nouvelles méthodes de conception générative constructive : 1. Méthode de conception générative basée sur un modèle CSG pour assurer la fabricabilité dans l’optimisation de la topologie de la structure allégée ; 2. Méthode de conception générative constructive basée sur des modèles pour optimiser la conception de la structure de supports et 3. Conception constructive inversée basée sur les « parcours d’outils » pour obtenir directement des modèles de traitement de structures poreuses ou de réseaux complexes correspondants avec des « parcours d’outils » pour obtenir directement des modèles de traitement de structures poreuses ou de réseaux complexes correspondants avec des « parcours d’outils » d’impression qualifiés. Les trois méthodes proposées intègrent les contraintes de processus de FA, réalisent un contrôle paramétrique et économisent des coûts de calcul dans le processus de conception pour obtenir un ensemble de solutions de conception candidates avec une fabrication garantie. Un ensemble d’études comparatives avec les méthodes DfAM existantes et quelques études de cas expérimentaux dans des applications médicales ont démontré les avantages des méthodes proposées. Ces méthodes constructives peuvent avoir un grand potentiel d’application pour être adoptées comme outils de conception et de prise de décision pour d’autres applications industrielles lorsqu’un DfAM qualifié est requis.
Dans le contexte général de l’industrie 4.0, une entreprise de fabrication moderne dispose de nombreuses données numériques qui pourraient être utilisées pour rendre les machines-outils plus intelligentes et faciliter la prise de décision en matière de gestion opérationnelle. Cette thèse vise à proposer un système d’aide à la décision pour les machines-outils intelligentes et connectées par l’exploration des données. L’une des premières étapes de l’approche d’exploration de données est la sélection précise de données pertinentes. Pour ce faire, les données brutes doivent être classées dans différents groupes de contexte. Cette thèse propose un algorithme d’apprentissage automatique non-supervisé, par mélanges gaussiens (GMM), pour la classification contextuelle. Basé sur les informations contextuelles, différents incidents d’usinage peuvent être détectés en temps réel. Il s’agit notamment de broutement, de bris d’outil et de sur-vibration. Cette thèse présente un ensemble de règles métiers pour la détection du broutement, de bris d’outil et de sur-vibration. Le contexte opérationnel a été décrypté lorsque des incidents se produisent, sur la base de la classification contextuelle qui explique les types d’usinage et d’engagement des outils. Ensuite, les nouveaux indicateurs clés de performance (KPIs) pertinents et appropriés peuvent être proposés sur la base de ces informations contextuelles combinés avec les incidents détectés afin de soutenir la prise de décision pour la gestion opérationnelle. Cette thèse propose de nouveaux opérateurs d’agrégation et de nouveaux KPIs pertinents pour les différents besoins des départements.

Thème By Human
L’attention visuelle est l’un des mécanismes les plus importants déployés par le système visuel humain pour réduire la quantité d’informations que le cerveau doit traiter. De plus en plus d’efforts ont été consacrés à l’étude de l’attention visuelle sur des images naturelles (image 2D). Cependant, peu de travaux ont été mené sur des contenus 3D, correspondant à des données plus complexes car elles incluent des informations sur la géométrie et les attributs d’apparence. C’est cette problématique de l’attention visuelle sur les contenus 3D qui a principalement guidé notre démarche pour ces travaux de thèse. Nos travaux sont principalement divisés en trois parties correspondants à trois niveaux conceptuels différents. La première partie de cette thèse correspond à un concept de bas niveau où nous proposons de prédire ce qui attire l’attention des individus lorsqu’ils observent des objets 3D en étudiant la validité des modèles et des hypothèses faites dans l’imagerie 2D. Ceci est très utile dans certains scénarios tels que le streaming interactif ou la visualisation des contenus 3D dans des applications de réalité virtuelle ou augmentée. La deuxième partie correspond à un concept de niveau intermédiaire où nous introduisons une mesure perceptuelle de la complexité de l’attention qui est extraite à partir de l’information de la saillance. La mesure que nous proposons est utilisée dans l’évaluation de la qualité des contenus 3D ainsi que dans la caractérisation de ces contenus. La troisième partie traite un concept de plus haut niveau lié à la préférence de point de vue des objets graphiques 3D où nous montrons la pertinence d’un indicateur de complexité attentionelle, introduit dans la deuxième partie du manuscrit. Tout au long de la thèse, nous avons construit plusieurs bases de données d’objets 3D colorés et nous avons réalisé une série d’expériences subjectives pour différentes tâches, y compris des expériences de crowdsourcing comme alternatives aux expériences menées au laboratoire.
Cette thèse explore l’optimisation perceptuelle et la réduction de la complexité afin d’améliorer les schémas de compression vidéo dans un contexte d’encodage temps réel. Le travail est divisé en trois parties qui proposent plusieurs types d’amélioration. La première contribution introduit un filtre de prétraitement perceptuel basé sur un modèle du système visuel humain. Ce filtre est paramétrable pour plusieurs conditions de visualisation, nous proposons des réglages optimisés pour deux conditions standards. Une étude sur la précision de différentes métriques de qualité visuelle dans le cadre spécifique de la mesure des performances de pré-filtrage est également menée. La deuxième partie de la thèse propose une méthodologie basée sur la classification par apprentissage automatique pour prédire et sélectionner de manière adaptative la meilleure résolution d’encodage dans un scénario de codage en une passe. À cette fin, trois classificateurs différents ont été considérés : Support Vector Machine, Random Forest (RF) et Multi-Layer Perceptron. Dans le but d’évaluer et piloter le gain perceptuel à un débit donné, plusieurs métriques de qualité visuelle ont ensuite été caractérisées et comparées. Ceci a été mené pour plusieurs niveaux de qualité du point de vue de l’incertitude de la qualité subjective de la vérité terrain. En outre, une nouvelle métrique basée sur RF, perceptuellement plus précise, a été introduite pour la formation des classificateurs. Le troisième ensemble de contributions se concentre sur la prise en charge de la partie de codage la plus complexe du nouveau standard Versatile Video Coding (VVC) : les critères de décision pour le partitionnement Multi-Type Tree. Une nouvelle méthode de décision de partitionnement basée Apprentissage Machine est proposée couvrant tous les types de partitionnement en intra et inter et particulièrement appropriée pour un encodeur matériel temps réel. Une approche basée CNN a ainsi été utilisée, avec des classificateurs pour différents niveaux, formes et types de partitionnement. Cette méthode est finalement évaluée par rapport à une approche exhaustive et démontre des performances prometteuses qui sont soigneusement analysées.
Le nombre de documents scientifiques dans les bibliothèques numériques ne cesse d’augmenter. Les mots-clés, permettant d’enrichir l’indexation de ces documents ne peuvent être annotés manuellement étant donné le volume de document à traiter. La production automatique de mots-clés est donc un enjeu important. Le cadre évaluatif le plus utilisé pour cette tâche souffre de nombreuses faiblesses qui rendent l’évaluation des nouvelles méthodes neuronales peu fiables. Notre objectif est d’identifier précisément ces faiblesses et d’y apporter des solutions selon trois axes. Dans un premier temps, nous introduisons KPTimes, un jeu de données du domaine journalistique. Il nous permet d’analyser la capacité de généralisation des méthodes neuronales. De manière surprenante, nos expériences montrent que le modèle le moins performant est celui qui généralise le mieux. Dans un deuxième temps, nous effectuons une comparaison systématique des méthodes états de l’art grâce à un cadre expérimental strict. Cette comparaison indique que les méthodes de référence comme TF#IDF sont toujours compétitives et que la qualité des mots-clés de référence a un impact fort sur la fiabilité de l’évaluation. Enfin, nous présentons un nouveau protocole d’évaluation extrinsèque basé sur la recherche d’information. Il nous permet d’évaluer l’utilité des mots-clés, une question peu abordée jusqu’à présent. Cette évaluation nous permet de mieux identifier les mots-clés importants pour la tâche de production automatique de motsclés et d’orienter les futurs travaux.
Des formats multimédias immersifs ont émergé comme un puissant canevas dans de nombreuses disciplines pour offrir une expérience utilisateur hyperréaliste. Ils peuvent prendre de nombreuses formes, telles que des images HDR, des champs lumineux, des nuages de points et des vidéos volumétriques. L’objectif de cette thèse est de proposer de nouvelles méthodologies pour l’évaluation de la qualité de tels contenus. La première partie de la thèse porte sur l’évaluation subjective de la qualité d’image. Plus précisément, nous proposons une stratégie de sélection de contenu et d’observateurs, ainsi qu’une analyse approfondie de la fiabilité des plateformes de crowdsourcing pour collecter des données subjectives à grande échelle. Nos résultats montrent une amélioration de la fiabilité des annotations subjectives collectées et répondent aux exigences liées en crowdsourcing à la reproduction d’expériences menés en laboratoire. La deuxième partie contribue à l’évaluation objective de la qualité avec une métrique de qualité d’image basée sur l’apprentissage automatique utilisant les informations de seuil de discrimination, et une métrique de qualité d’image pour les champs lumineux sans référence basée sur des représentations d’images planes épipolaires. Enfin, nous étudions l’impact des méthodologies d’agrégation temporel sur les performances des métriques de qualité objective pour les vidéos volumétriques. Dans l’ensemble, nous démontrons comment nos résultats peuvent être utilisés pour améliorer l’optimisation des outils de traitement pour les contenus multimédias immersifs.

Thème For Human
L’attention visuelle est l’un des mécanismes les plus importants déployés par le système visuel humain pour réduire la quantité d’informations que le cerveau doit traiter. De plus en plus d’efforts ont été consacrés à l’étude de l’attention visuelle sur des images naturelles (image 2D). Cependant, peu de travaux ont été mené sur des contenus 3D, correspondant à des données plus complexes car elles incluent des informations sur la géométrie et les attributs d’apparence. C’est cette problématique de l’attention visuelle sur les contenus 3D qui a principalement guidé notre démarche pour ces travaux de thèse. Nos travaux sont principalement divisés en trois parties correspondants à trois niveaux conceptuels différents. La première partie de cette thèse correspond à un concept de bas niveau où nous proposons de prédire ce qui attire l’attention des individus lorsqu’ils observent des objets 3D en étudiant la validité des modèles et des hypothèses faites dans l’imagerie 2D. Ceci est très utile dans certains scénarios tels que le streaming interactif ou la visualisation des contenus 3D dans des applications de réalité virtuelle ou augmentée. La deuxième partie correspond à un concept de niveau intermédiaire où nous introduisons une mesure perceptuelle de la complexité de l’attention qui est extraite à partir de l’information de la saillance. La mesure que nous proposons est utilisée dans l’évaluation de la qualité des contenus 3D ainsi que dans la caractérisation de ces contenus. La troisième partie traite un concept de plus haut niveau lié à la préférence de point de vue des objets graphiques 3D où nous montrons la pertinence d’un indicateur de complexité attentionelle, introduit dans la deuxième partie du manuscrit. Tout au long de la thèse, nous avons construit plusieurs bases de données d’objets 3D colorés et nous avons réalisé une série d’expériences subjectives pour différentes tâches, y compris des expériences de crowdsourcing comme alternatives aux expériences menées au laboratoire.
Malgré les avantages de la fabrication additive (FA), de nombreux problèmes liés au pilotage de sa chaine de valeur doivent être résolus pour en tirer le maximum d’avantages. Le pilotage de la chaine de valeur renvoie à des processus d’aide à la décision variés comme le choix du procédé, la stratégie de supportage, paramètres machine, ou encore l’estimation du coût et la prédiction des défauts pièces potentiels, etc. C’est dans ce contexte que les travaux de cette thèse s’inscrivent en proposant un système pour
l’aide à la décision et la traçabilité dans les processus de FA par fusion sur lit de poudre. Pour ce faire, les techniques d’ingénierie des connaissances sont mises à contribution afin de tirer profit de la grande masse de données générée tout au long de l’affaire FA mais aussi exploiter l’expertise humaine dans le domaine. La structure de la base de connaissances est conçue sous forme d’une ontologie de domaine pour la FA et associé à un moteur d’inférence à base de règles. Le pilotage de la chaine de valeur est
focalisé sur la génération des processus et sur l’aide à la réalisation des devis en amont d’un projet FA. La base de connaissances ainsi intégrée dans le système d’aide à la décision permet de faire l’estimation de certains paramètres d’entrée au modèle du coût en vue d’exécuter un chiffrage du devis en cours. L’historique issu de la traçabilité
permet de comparer l’estimer au réel, et d’améliorer la phase d’estimation des paramètres influençant par raisonnement de similarité. L’approche proposée a été appliquée sur cinq cas d’études industriels mis à disposition par un partenaire du projet SOFIA. L’accompagnement de l’expert industriel a permis de consolider le modèle proposé en cohérence avec la réalité du terrain.