Depuis la création du projet AiBy4, plusieurs thèses impliquant l’intelligence artificielle ont été soutenues à Nantes Université et ses partenaires. Vous les trouverez ci-dessous répertoriées en différentes catégories :
Thème Santé du futur
Grâce aux progrès scientifiques et technologiques, la Médecine de Précision (MP) est désormais prometteuse pour la personnalisation de la décision médicale. L’objectif est de fournir des mesures spécifiques pour une prise en charge individualisée du patient. Les solutions développées à cette fin sont nombreuses, cependant, leur adoption dans les services de santé est limitée par des enjeux liés en particulier aux données et aux méthodes sous-jacentes.
Cette thèse s’intéresse aux mécanismes du dialogue humain-machine à travers la visualisation et l’interaction avec les données et les algorithmes pour fournir des solutions de MP raisonnables et compréhensibles par l’humain. En collaboration avec des neurologues, nous avons conçu et développé un système d’aide à la décision clinique appelé MS-Vista, fondé sur les principes de la MP. MS-Vista offre une interface humain-machine d’interaction avec les données permettant de contextualiser les patients atteints de sclérose en plaques. Il permet d’examiner la qualité et la quantité des données. Il fournit également des visuels de projection de données illustrant les avantages potentiels de chaque option thérapeutique. Il s’agit d’aider à la personnalisation de la décision et à la communication médecin-patient. Les retours positifs fournis par les neurologues, notamment du fait que MS-Vista intègre leur raisonnement, nous a conduit par la suite à concevoir une approche hybride de prédiction basée sur la collaboration humain-algorithme. En impliquant les médecins dans le processus d’apprentissage, cette approche permet d’améliorer la performance du modèle de prédiction en combinant l’intelligence humaine et artificielle.
La façon dont les humains se déplacent dans un environnement donne est liée a certaines de leurs caractéristiques démographiques et cliniques, comme leur age ou leur statut cognitif. Dans cette thèse, nous avons cherche a quantifier l’interaction entre le profil des navigateurs et leur comportement spatial via trois approches complémentaires. Nous avons notamment utilise les données issues d’un jeu vidéo de navigation spatiale – Sea Hero Quest – donnant accès aux trajectoires de millions de joueurs aux profils démographiques varies. La première approche propose une architecture de modèle a réseaux de neurones parallèles, afin de prendre en compte la nature spatio-temporelle des trajectoires. La seconde associe a chaque trajectoire une entropie calculée à partir de la distribution des trajectoires, pour prendre en compte le contexte et identifier la singularité du navigateur. La troisième permet de produire un groupement joint sur d’un coté les données comportementales et de l’autre démographiques. Les expérimentations que nous avons menées nous ont permis de valider les résultats obtenus antérieurement avec des métriques et des méthodes d’analyse simples, mais également de les compléter, en explicitant par exemple la nature des effets de l’âge et du genre sur le comportement spatial. Ces travaux permettront aux neuroscientifiques de mieux comprendre les facteurs sous-tendant les différences individuelles en terme de sens de l’orientation.
à venir
La transplantation rénale est le meilleur traitement de suppléance pour l’insuffisance rénale chronique terminale. Cependant, des défis majeurs liés au rejet et l’échec chronique restent à relever. L’objectif de ma thèse est de contribuer à l’identification de facteurs génétiques pour mieux comprendre les mécanismes de rejet/perte chroniques et améliorer la prise en charge des transplantés rénaux. Nous avons mis en place KiT-GENIE, l’une des plus grandes cohortes génétiques de transplantation rénale à ce jour qui s’organise sur une triple couche de données homogènes (cliniques, biologiques et génétiques) de donneurs et receveurs (D/R). KiT-GENIE inclut 4 217 individus (n=1 945 D et 2 272 R dont 1 969 paires D/R), 8M de SNPs et plus de 200 variables cliniques. L’analyse statistique de ces données a permis d’établir la « carte d’identité » de KiT-GENIE avec une description précise et complète des individus et des variables de la cohorte. Les résultats des GWAS menées sur les receveurs et les donneurs séparément ne montrent aucune association statistiquement significative entre variants et retour en dialyse au-delà de 1 an post-transplantation. Néanmoins, un signal approchant le seuil de significativité a été identifié dans le génome des receveurs au niveau du locus 11p14.1 qui a précédemment été associé avec la fonction rénale. Pour aller plus loin, la réalisation d’une méta-analyse ou l’analyse simultanée des génomes du donneur et du receveur pourraient identifier de potentiels facteurs de risque pour la perte du greffon. KiT-GENIE offre l’opportunité unique d’approfondir l’étude des interactions donneurs-receveurs mais également d’explorer d’autres phénotypes d’intérêts tels que la fonction rénale du donneur ou encore la récidive de certaines maladies rénales sur le greffon.
Le Glioblastome Multiforme est la tumeur cérébrale gliale la plus fréquente et la plus mortelle chez l’Homme. Les mathématiques ont l’opportunité de pouvoir innover la prise en charge des patients dans la démarche actuelle de médecine personnalisée. Cette thèse propose deux contributions majeures autour de cette thématique. Une premièrecontribution porte sur la modélisation et la simulation la plus réaliste possible de la propagation des cellules tumorales du Glioblastome Multiforme chez un patient après son diagnostic. Ce travail modélise le phénomène d’angiogenèse induite par la tumeur. Un schéma et algorithme numérique sont utilisés pour conserver la positivité des solutions. Enfin, les simulations sont comparées aux connaissances issues de la médecine. Une seconde contribution porte sur l’estimationdes paramètres des modèles de type réactiondiffusion. La méthode développée permet de résoudre des problèmes inverses en résolvant deux systèmes d’équations aux dérivées partielles avec une contrainte fonctionnelle, et non avec des outils statistiques. La résolution numérique d’un tel problème est donnée et évaluée sur deux exemples de modèles avecdes données synthétiques. La méthode permet ainsi de déterminer des paramètres d’un modèle avec des données éparses en temps.
L’analyse de larges quantités de données biomédicales permet d’obtenir une meilleure précision des résultats et aide les chercheurs et les cliniciens à établir de bonnes diagnostiques et prendre les bonnes décisions. Les collaborations nationales et internationales qui explorent la médecine de précision se fondent sur des analyses sur des données provenant de populations variées et nombreuses. Les analyses biomédicales actuelles sont sujets à des problèmes en terme de protection de données.Dans cette thèse multidisciplinaire, nous contribuons à la résolution de ces problèmes par le développement d’analyses de données biomédicales distribuées ainsi que par leur déploiement dans des infrastructures informatiques et leur intégration dans des outils médicaux réels. Dans le cadre d’une application de transplantation rénale, nous proposons une nouvelle solution de contextualisation distribuée qui aide les cliniciens à évaluer les problèmes rénaux de patients. Pour la même application nous proposons également une nouvelle version distribuée de l’analyse factorielle des données mixtes (FAMD) pour la réduction des dimensions. Dans le cadre des données HLA, nous proposons un nouveau modèle distribué et sécurisé pour l’estimation de fréquences appliquées sur des bases de données HLA. Nous proposons également un nouveau algorithme pour l’estimation distribuée de la fréquence d’haplotypes HLA en utilisant l’algorithme EM. Toutes nos contributions ont été déployées sur une infrastructure réelle de nuage géodistribués et évaluées sur des données réelles ou réalistes. Les expérimentations ont montré de (très) bons résultats en terme de performances comparés aux solutions centralisées.
La génomique humaine a rapidement évolué cette dernière décennie grâce aux avancées technologiques de génotypage et de séquençage, permettant l’essor des études d’associations en génome entier. Ces études ont mis en avant la région du Complexe Majeur d’Histocompatibilité (CMH) comme impliquée dans de nombreuses pathologies infectieuses et autoimmunes, et notamment le système HLA, molécules centrales de l’immunité. La diversité génétique de la région du CMH complexifie son étude détaillée. Ainsi des méthodes d’inférence statistique du HLA à partir de polymorphismes simples de l’ADN se sont développées. Ce travail s’articule autour du SNP-HLA Reference Consortium (SHLARC) qui vise à récolter des données génétiques diverses afin d’améliorer les méthodes d’imputation HLA qui sont actuellement optimisées pour des populations européennes. L’accès à une infrastructure de calcul dédiée est nécessaire pour créer rapidement des modèles d’imputation HLA, et leur performance dépend du nombre de polymorphismes et d’individus disponibles. De plus, en exploitant des algorithmes de réduction de dimension, comme l’UMAP, pour synthétiser les distances génétiques entre les individus, il est possible de créer des modèles d’imputation HLA spécifiques d’une population génétique qui améliorent la prédiction dans les populations d’ancestralité composite ou peu représentées. Le SHLARC ouvre ainsi la porte à l’imputation HLA pour toutes les populations génétiques. En conséquence, il facilite la conduite d’études d’association HLA. Avec d’autres pans de l’analyse HLA, il permet d’identifier les mécanismes biologiques exacts à l’origine du du lien entre le HLA et des pathologies.
L’un des traitements les plus courants de l’infertilité est la fécondation in vitro (FIV). Cette procédure consiste notamment a cultiver des embryons en milieu contrôle et a en évaluer la qualité après plusieurs jours de croissance. La technologie time-lapse permet un suivi continu des embryons et génère une grande quantité d’images qui a déjà été exploitée par des applications d’apprentissage profonds. Une limitation importante au développement de ces solutions est la nature opaque des modèles proposes qui pose des problèmes éthiques déjà soulevés par la communauté. Nous avons développe une base de données annotées par plusieurs experts pour permettre a la communauté de comparer les algorithmes développes et d’arriver a un consensus. Pour rendre les décisions des réseaux plus transparentes et explicables, nous avons travaille sur un nouveau mécanisme d’attention artificielle non-paramétrique (BR-NPA). Nous comparons cette proposition avec l’état de l’art de l’attention visuelle artificielle du point de vue de la fiabilité des cartes de saillance produites a l’aide de métriques objectives. Nous discutons des limites de ces metriques et proposons d’autres metriques complémentaires. Ce travail montre l’intérêt des modèles d’attention spatiale pour améliorer l’interprétabilité des modèles d’apprentissages profonds, dans le but d’aider les biologistes travaillant dans le domaine de la FIV mais aussi tous les praticiens utilisant des modèles de classification d’images dans leur travail quotidien.
Les patientes atteintes d’un cancer du sein métastatique reçoivent un traitement tout au long de leur vie et sont suivies très régulièrement afin d’estimer l’efficacité de leurs traitements. Pour évaluer la réponse au traitement, les médecins utilisent des critères d’interprétation des images comme RECIST ou PERCIST. Ces critères se limitent à l’évaluation quantitative d’une partie des tumeurs. La segmentation de toutes les tumeurs et leur caractérisation grâce à plusieurs paramètres (ou biomarqueurs) permettraient l’évaluation plus précise de la réponse au traitement des patientes. Cela permettrait aussi de prédire différentes informations sur les lésions (sous-type moléculaire) ou sur les patientes (survie sans progression, survie globale). Au cours de cette thèse, nous avons développé une méthode permettant la segmentation sur plusieurs acquisitions de toutes les lésions chez des patientes atteintes d’un cancer du sein métastatique. Les segmentations obtenues ont permis l’extraction de différents biomarqueurs que nous avons ensuite utilisés pour évaluer automatiquement la réponse thérapeutique des patientes. Enfin, nous avons utilisé l’apprentissage profond pour prédire le sous-type moléculaire des lésions métastatiques.
Cette thèse s’inscrit dans le contexte du projet e-Gait dont l’objectif est de développer un nouvel outil de mesure basé sur l’utilisation de systèmes numériques pour quantifier les troubles de la démarche de patients atteints de maladie neurodégénative, et plus particulièrement la Sclérose En Plaques (SEP). La solution adoptée consiste à mesurer les rotations en trois dimensions de la hanche au cours de la marche à l’aide d’un système de capteurs inertiels placé à la ceinture. Ces rotations sont représentées sous la forme d’une séquence de quaternions unitaires. Des méthodes adaptées à ce type de données sont présentées pour en extraire des informations relatives à la démarche de l’individu. Un algorithme est proposé pour segmenter le signal en cycles de marche. Dans une première approche, la démarche individuelle est représentée sous forme de paramètres spatiotemporels. Dans une seconde, elle est représentée sous la forme d’une unique séquence de quaternions unitaire appelée “Signature de Marche” (SdM). Des méthodes de classification non supervisée et semi-supervisée sont adaptées pour permettre d’identifier des groupes de patients présentant des déficits de la marche similaires à partir de leur SdM.
Quels sont les points communs et les différences entre notre façon de percevoir notre environnement et celles des réseaux de neurones profonds ? Nous étudions cette question au travers d’un cas d’application concret, la détection des lésions issues de la maladie de Crohn dans des vidéos capsules endoscopiques. Dans un premier temps, nous avons développé une base de données, soigneusement annotée par plusieurs experts, que nous avons rendu publique afin de compenser le manque de données permettant l’évaluation et l’entraînement des algorithmes d’apprentissage profond dans ce domaine. Dans un second temps, pour rendre les réseaux plus transparents lors de leur prise de décision et leurs prédictions plus explicables, nous avons travaillé sur l’attention artificielle et établissons un parallèle entre celle-ci et l’attention visuelle humaine. Nous avons enregistré les mouvements oculaires de sujets de différents niveaux d’expertise lors d’une tâche de classification et montrons que les réseaux de neurones profonds, dont les performances sur la tâche de classification sont plus proches de celles des experts que de celles des novices, ont également un comportement attentionnel plus proche de ces premiers. Au travers de ce manuscrit, nous espérons fournir des outils permettant le développement d’algorithmes d’aide au diagnostic, ainsi qu’un moyen d’évaluer les méthodes d’attention artificielle. Ce travail permet d’approfondir les liens entre attention humaine et artificielle, dans le but d’aider les experts médicaux dans leur formation et d’aider au développement de nouvelles architectures d’algorithmes.
La médecine de précision redéfinit le système de soins en proposant une adaptation systématique à chaque individu. A l’aide de données en population, cette forme de médecine a pour objectif d’optimiser les soins médicaux d’un individu, par exemple en accompagnant les soignants dans la prise de décision grâce à des applications informatiques. Ce travail s’articule autour de 2 applications de médecine de précision pour la transplantation permettant d’améliorer la prise en charge des patients. Premièrement, la construction de la suite web Easy-HLA permet de simplifier l’analyse des génotypes HLA, molécules essentielles de la réponse immunitaire. Le coeur des algorithmes d’Easy-HLA est une base de données de plus de 600 000 haplotypes HLA et leurs fréquences. Deuxièmement, la création de l’application KiTapp aide à améliorer le suivi des patients après une transplantation rénale. KiTapp est pensé comme un outil d’aide à la décision pour les cliniciens. Cet outil se base sur l’exploitation des données de la DIVAT à l’aide d’algorithmes de contextualisation et cristallise la notion de POI/POR. Easy-HLA et KiTapp permettent de représenter, comparer et analyser systématiquement une information individuelle dans le contexte d’une population analogue. La médecine de demain tend vers une médecine de précision basée sur l’analyse en temps réel de données multiparamétriques avec pour point de départ le patient, en s’appuyant sur des outils informatiques devenus incontournables.
Le nombre de documents scientifiques dans les bibliothèques numériques ne cesse d’augmenter. Les mots-clés, permettant d’enrichir l’indexation de ces documents ne peuvent être annotés manuellement étant donné le volume de document à traiter. La production automatique de mots-clés est donc un enjeu important. Le cadre évaluatif le plus utilisé pour cette tâche souffre de nombreuses faiblesses qui rendent l’évaluation des nouvelles méthodes neuronales peu fiables. Notre objectif est d’identifier précisément ces faiblesses et d’y apporter des solutions selon trois axes. Dans un premier temps, nous introduisons KPTimes, un jeu de données du domaine journalistique. Il nous permet d’analyser la capacité de généralisation des méthodes neuronales. De manière surprenante, nos expériences montrent que le modèle le moins performant est celui qui généralise le mieux. Dans un deuxième temps, nous effectuons une comparaison systématique des méthodes états de l’art grâce à un cadre expérimental strict. Cette comparaison indique que les méthodes de référence comme TF#IDF sont toujours compétitives et que la qualité des mots-clés de référence a un impact fort sur la fiabilité de l’évaluation. Enfin, nous présentons un nouveau protocole d’évaluation extrinsèque basé sur la recherche d’information. Il nous permet d’évaluer l’utilité des mots-clés, une question peu abordée jusqu’à présent. Cette évaluation nous permet de mieux identifier les mots-clés importants pour la tâche de production automatique de motsclés et d’orienter les futurs travaux.
La compréhension des mécanismes cellulaires à l’œuvre au sein des organismes vivants repose généralement sur l’étude de leur expression génétique. Cependant, les gènes sont impliqués dans des processus de régulation complexes et leur mesureest difficile à réaliser. Dans ce contexte, la modélisation qualitative des réseaux de régulation génétique vise à établir la fonction de chaque gène à partir de la modélisation discrète d’un réseau d’interaction dynamique. Dans cette thèse, nous avons pour objectif de mettre en place cette approche de modélisation à partir des données de séquençage single-cell. Ces données se révèlent en effet intéressantes pour la modélisation qualitative, car elles apportent une grande précision et peuvent être interprétées de manière dynamique. Nous développons ainsi une méthode d’inférence de modèles qualitatifs basée sur l’apprentissage automatique de programmes logiques. Cette méthode est mise en œuvre sur des données single-cell et nous proposons plusieurs approches pour interpréter les modèles résultants en les confrontant avec des connaissances préétablies
La popularité de l’imagerie TEP à l’yttrium 90 va grandissante. Cependant, la probabilité qu’une désintégration d’un noyau d’yttrium 90 mène à l’émission d’un positon n’est que de 3,2 × 10-5, et les images reconstruites sont par conséquent caractérisées par un niveau de bruit élevé, ainsi que par un biais positif dans les régions de faible activité. Pour corriger ces problèmes, les méthodes classiques consistent à utiliser des algorithmes pénalisés, ou autorisant des valeurs négatives dans l’image. Cependant, une étude comparant et combinant ces différentes méthodes dans le contexte spécifique de l’yttrium 90 manquait encore à l’appel au début de cette thèse. Cette dernière vise donc à combler ce manque. Malheureusement, les méthodes autorisant les valeurs négatives ne peuvent pas être utilisées directement dans le cadre d’une étude dosimétrique, et cette thèse commence donc par proposer une nouvelle méthode de post-traitement des images, visant à en supprimer les valeurs négatives en en conservant les valeurs moyennes le plus localement possible. Une analyse complète multi-objectifs de ces différentes méthodes est ensuite proposée. Cette thèse se termine en posant les prémices de ce qui pourra devenir un algorithme permettant de proposer un jeu d’hyper-paramètres de reconstruction adéquats, à partir des seuls sinogrammes.
L’objectif de ces travaux est de fournir un modèle permettant la prédiction de la survie et l’identification de biomarqueurs dans le contexte du myélome multiple (MM) à l’aide de l’imagerie TEP (Tomographie à émission de positons) et de données cliniques. Cette thèse fut divisée en deux parties : La première permet d’obtenir un modèle basé sur les forêts de survie aléatoires (RSF). La seconde est basée sur l’adaptation de l’apprentissage profond à la survie et à nos données. Les contributions principales sont les suivantes : 1) Production d’un modèle basé sur les RSF et les images TEP permettant la prédiction d’un groupe de risque pour les patients atteints de MM.2) Détermination de biomarqueurs grâce à ce modèle3) Démonstration de l’intérêt des radiomiques TEP 4) Extension de l’état de l’art des méthodes d’adaptation de l’apprentissage profond à une petite base de données et à de petitesimages 5) Étude des fonctions de coût utilisées en survie. De plus, nous sommes, à notre connaissance, les premiers à investiguer l’utilisation des RSF dans le contexte du MM et des images TEP, à utiliser du pré-entraînement auto-supervisé avec des images TEP et, avec une tâche de survie, à adapter la fonction de coût triplet à la survie et à adapter un réseau de neurones convolutionnels à la survie du MM à partir de lésions TEP.
“Suivi du cancer du sein métastasé via le recalage et la segmentation d’images TEP en utilisant des méthodes conventionnelles et des réseaux convolutifs entrainés et non-entrainés” “Longitudinal monitoring of metastatic breast cancer through PET image registration and segmentation based on conventional as well as trained and untrained convolutional networks”
Thème Industrie du futur
Percevoir ou comprendre les environnements environnants est indispensable pour construire des systèmes d’aide à la conduite ou des véhicules autonomes. Dans cette thèse, nous étudions l’approche de fusion de capteurs pour le problème de localisation et de cartographie simultanées (SLAM) avec des capteurs visuels et de distance complémentaires. Afin de prendre des décisionsconservatrices et d’augmenter la sécurité de manoeuvre des véhicules autonomes, l’analyse d’incertitude de l’estimation de la pose est également mise en oeuvre. Le système SLAM traditionnel suppose des scènes statiques, ce qui est vulnérable dans le contexte d’environnements extérieurs dynamiques. Ainsi, nous introduisons une approche basée sur les données pour exploiter les informations sémantiques qui interprètent la séquence de mesure à travers les cadres, ce qui distingue efficacement les objets en mouvement des objets statiques. Nous testons les algorithmes proposé sur des données réelles de trafic urbain et d’aires de stationnement, qui présente des résultats prometteurs.
L’Internet des Objets entraînent par son nombre de terminaux une explosion du trafic de données. Pour augmenter la qualité globale de réseau, il est possible d’analyser intelligemment le trafic réseau afin de détecter d’éventuel comportement suspect ou malveillant. Les modèles d’apprentissage automatique et d’apprentissage profond permettent de traiter ce très grand volume de données. Néanmoins, il existe certaines limites dans la littérature, notamment la confidentialité des données, le surapprentissage (manques de diversité dans les données) ou tout simplement le manque de jeu de données labellisées. Dans cette thèse, nous proposons de nouveaux modèles s’appuyant sur l’apprentissage automatique et l’apprentissage profond afin de traiter une grande quantité de données tout en préservant la confidentialité. Notre première approche utilise un modèle d’ensemble. Les résultats montrent une diminution du surapprentissage, tout en augmentant de 10% la précision comparé à des modèles de l’état de l’art. Notre seconde contribution s’attache aux problèmes de disponibilité des données labellisées. Nous proposons un modèle d’apprentissage semisupervisé capable d’améliorer la précision de 11% par rapport à un modèle supervisé équivalent. Enfin, nous proposons un système de détection d’attaque s’appuyant sur l’apprentissage fédéré. Nommé FLUIDS, il permet de réduire la surcharge réseau de 75% tout en préservant de très haute performance et la confidentialité.
Nous proposons des méthodes statistiques mêlant approche bayésienne et deep learning pour la prévision de consommation électrique individuelle. Les travaux sont réalisés en partenariat avec EDF. Deux types de méthodologies sont developpées : l’une faisant usage de réseaux de neurones bayésiens et l’autre utilisant du deep learning pour de la réduction de dimension avant clustering en vue d’appliquer des modèles bayésiens plus classiques sur les clusters. Dans un premier temps, nous présentons une méthodologie d’estimation d’un modèle de régression à plusieurs sorties en grande dimension avec des réseaux de neurones. Celleci est appliquée à la prédiction de courbes de charges individuelles de clients non résidentiels. Dans un second temps, nous présentons une méthodologie de transfer learning bayésien adaptée à des données de panel. Nous l’appliquons à la problématique de prévision de consommation à la fin du mois de clients résidentiels en situation d’historique court, pour des clusters de clients. Ces clusters de clients sont obtenus avec des réseaux de neurones.
à venir
L’objectif de ce travail est de concevoir des alliages originaux pour le remplacement de la Stellite 6, un alliage à base de cobalt, utilisé dans l’industrie du nucléaire. Notre démarche consiste en une alternance d’approches numériques et expérimentales. Plusieurs critères de conception d’alliages ont été choisis, concernant les propriétés mécaniques (dureté, résistance à l’usure) ou la microstructure et les propriétés qui en découlent (phases en présence, résistance à la corrosion, effet TRIP). Leur modélisation a fait appel à plusieurs méthodes numériques, telles que la fouille de données (processus gaussien, algorithme de comparaison de paires) et la thermodynamique prédictive (méthode Calphad). L’optimisation des compositions des alliages a été opérée par un algorithme génétique multiobjectifs avec contraintes. Sur la base de ces résultats numériques, plusieurs alliages ont été élaborés et caractérisés expérimentalement (MEB, MET, DRX, essais mécaniques et d’usure). Plusieurs étapes de conception et de validation expérimentale ont été nécessaires afin de parvenir à la définition d’alliages prometteurs avec, notamment, une résistance à l’usure proche de celle de la Stellite 6. Riches en Fe et Cr, dopés au C, leur originalité vient d’un renforcement par le bore. Les résultats expérimentaux apportent aussi une validation de la démarche de conception d’alliages développée dans ce travail.
La fabrication intelligente est un domaine de recherche prometteur pour l’amélioration de la productivité et de la compétitivité dans l’industrie, par l’exploitation des données numériques obtenues lors de procédés de fabrication, tel que l’usinage à grande vitesse. Les réseaux bayésiens ont fait leurs preuves en matière de classification et de diagnostic, et ils ont notamment l’intérêt d’être grandement interprétables. Cette thèse présente une architecture générique de réseaux bayésiens pour le diagnostic à partir de capteurs, incluant un mécanisme de sélection de variables basé sur l’information mutuelle. Le co-training est un champ émergent des algorithmes d’apprentissage à partir de données, et l’exploration de cette famille d’algorithmes est jusqu’à présent essentiellement limitée à un apprentissage supervisé ou semisupervisé. Ce manuscrit propose plusieurs stratégies de co-training non-supervisées utilisables par tout modèle probabiliste, et détaille leur utilisation sur plusieurs jeux de données. L’ensemble des contributions théoriques est mis à profit dans un cas d’usage sur l’usinage à grande vitesse, dans lequel deux réseaux bayésiens avec la structure générique proposée permettent d’exploiter les données de capteurs d’une électrobroche en conditions réelles d’utilisation, et dont les paramètres sont appris grâce aux stratégies de co-training non-supervisées.
L’objectif de cette thèse est de proposer une nouvelle architecture dédiée à la détection de défauts dans les procédés de fabrication. Cette dernière repose sur la combinaison des techniques d’apprentissage automatique (ML) avec une Ontologie générique. L’architecture est évolutive dans le sens où de nouveaux défauts peuvent être découverts par le ML et ajoutés en tant que nouvelles connaissances dans l’ontologie de façon périodique. Cela facilite la détection des défauts dans les contextes industriels, où les défauts sont généralement rares. D’autres part, l’inspection périodique des connaissances capturées itérativement par l’Ontologie nous permet de définir des connaissances plus génériques. Celles-ci permettront dans un premier temps d’améliorer la détection de défauts dans des contextes connus et puis, dans un second temps, de reconnaître les défauts connus dans de nouveaux contextes industriels. Ces tâches sont liées aux domaines de l’apprentissage par transfert et de l’adaptation au domaine, appliquées ici pour induire de nouvelles connaissances dans l’Ontologie, et augmenter les performances du système de détection de défauts. Des expériences sur des données UCI ainsi que sur des données issues des opérations de vissage réelles nous ont permis de valider la fiabilité et la robustesse de l’approche.
Les développements récents dans le domaine des procédés de fabrication additive (FA) métallique pour la production de produits industriels à hautes performances restent limités par la disponibilité d’alliages pouvant être traités ou imprimables de manière fiable. Jusqu’à présent, la plupart des alliages imprimés par FA sont des alliages commerciaux qui ont été préalablement optimisés pour différents procédés de fabrication. L’une des ambitions du domaine serait donc de concevoir de nouveaux alliages spécifiquement adaptés aux procédés de FA, permettant de minimiser les défauts des produits finaux et d’optimiser leurs propriétés. Ceci impliquerait une optimisation de certaines caractéristiques du matériau permettant de réduire la présence des défauts actuellement observés tels que la fissuration à chaud, la porosité, la rugosité de surface, les contraintes et distorsions résiduelles, etc.Dans le cadre de cette thèse, une conception de nouvelles nuances d’alliages austénitiques, optimisées spécifiquement pour la FA, est proposée. La démarche repose sur un ensemble d’outils de calcul comprenant des algorithmes bayésiens d’apprentissage automatique combinés à des calculs de diagrammes de phases par la méthode CALPHAD et à des modèles physiques, intégrés dans un algorithme génétique multi-objectifs. Dans ce contexte, plusieurs critères dépendants du matériau sont examinés et leur effet sur les défauts mentionnés est étudié. Ensuite, la mise en œuvre d’un algorithme génétique a produit un ensemble d’alliages optimaux. Une validation expérimentale est alors réalisée sur une composition sélectionnée. L’alliage sélectionné est étudié à l’état coulé puis de poudre atomisée, et sous forme d’échantillons construits par fusion laser sélective (SLM). L’imprimabilité de l’alliage est évaluée et comparée aux alliages commerciaux existants.
L’attention visuelle est l’un des mécanismes les plus importants déployés par le système visuel humain pour réduire la quantité d’informations que le cerveau doit traiter. De plus en plus d’efforts ont été consacrés à l’étude de l’attention visuelle sur des images naturelles (image 2D). Cependant, peu de travaux ont été mené sur des contenus 3D, correspondant à des données plus complexes car elles incluent des informations sur la géométrie et les attributs d’apparence. C’est cette problématique de l’attention visuelle sur les contenus 3D qui a principalement guidé notre démarche pour ces travaux de thèse. Nos travaux sont principalement divisés en trois parties correspondants à trois niveaux conceptuels différents. La première partie de cette thèse correspond à un concept de bas niveau où nous proposons de prédire ce qui attire l’attention des individus lorsqu’ils observent des objets 3D en étudiant la validité des modèles et des hypothèses faites dans l’imagerie 2D. Ceci est très utile dans certains scénarios tels que le streaming interactif ou la visualisation des contenus 3D dans des applications de réalité virtuelle ou augmentée. La deuxième partie correspond à un concept de niveau intermédiaire où nous introduisons une mesure perceptuelle de la complexité de l’attention qui est extraite à partir de l’information de la saillance. La mesure que nous proposons est utilisée dans l’évaluation de la qualité des contenus 3D ainsi que dans la caractérisation de ces contenus. La troisième partie traite un concept de plus haut niveau lié à la préférence de point de vue des objets graphiques 3D où nous montrons la pertinence d’un indicateur de complexité attentionelle, introduit dans la deuxième partie du manuscrit. Tout au long de la thèse, nous avons construit plusieurs bases de données d’objets 3D colorés et nous avons réalisé une série d’expériences subjectives pour différentes tâches, y compris des expériences de crowdsourcing comme alternatives aux expériences menées au laboratoire.
Cette thèse explore l’optimisation perceptuelle et la réduction de la complexité afin d’améliorer les schémas de compression vidéo dans un contexte d’encodage temps réel. Le travail est divisé en trois parties qui proposent plusieurs types d’amélioration. La première contribution introduit un filtre de prétraitement perceptuel basé sur un modèle du système visuel humain. Ce filtre est paramétrable pour plusieurs conditions de visualisation, nous proposons des réglages optimisés pour deux conditions standards. Une étude sur la précision de différentes métriques de qualité visuelle dans le cadre spécifique de la mesure des performances de pré-filtrage est également menée. La deuxième partie de la thèse propose une méthodologie basée sur la classification par apprentissage automatique pour prédire et sélectionner de manière adaptative la meilleure résolution d’encodage dans un scénario de codage en une passe. À cette fin, trois classificateurs différents ont été considérés : Support Vector Machine, Random Forest (RF) et Multi-Layer Perceptron. Dans le but d’évaluer et piloter le gain perceptuel à un débit donné, plusieurs métriques de qualité visuelle ont ensuite été caractérisées et comparées. Ceci a été mené pour plusieurs niveaux de qualité du point de vue de l’incertitude de la qualité subjective de la vérité terrain. En outre, une nouvelle métrique basée sur RF, perceptuellement plus précise, a été introduite pour la formation des classificateurs. Le troisième ensemble de contributions se concentre sur la prise en charge de la partie de codage la plus complexe du nouveau standard Versatile Video Coding (VVC) : les critères de décision pour le partitionnement Multi-Type Tree. Une nouvelle méthode de décision de partitionnement basée Apprentissage Machine est proposée couvrant tous les types de partitionnement en intra et inter et particulièrement appropriée pour un encodeur matériel temps réel. Une approche basée CNN a ainsi été utilisée, avec des classificateurs pour différents niveaux, formes et types de partitionnement. Cette méthode est finalement évaluée par rapport à une approche exhaustive et démontre des performances prometteuses qui sont soigneusement analysées.
On cherche à prédire l’occurrence de la transformation martensitique dans les alliages de titane en fonction de leur composition, dans la perspective de concevoir des alliages dits « TRIP » (TRansformation-Induced Plasticity). Des pistes sont évoquées pour adapter la méthode aux alliages à haute entropie. Un modèle s’appuyant sur la thermodynamique prédictive et sur l’évaluation de la contribution de l’énergie élastique permet de prévoir la température de début de transformation martensitique (Ms). On propose une explication à la rétention sous trempe de la phase de haute température beta, qui serait plus vraisemblablement due au caractère thermiquement activé de la germination de la martensite qu’à une Ms inférieure à la température ambiante. Par ailleurs, on s’appuie sur la théorie phénoménologique de la cristallographie de la martensite (PTMC) pour suggérer une explication à l’inhibition de la martensite dans des conditions qui lui sont thermo-élastiquement favorables. On constate en effet que la formation de martensite pourrait être rendue irréalisable par l’impossibilité d’accommoder la transformation via une déformation à plan invariant. On utilise finalement un algorithme génétique pour illustrer l’approche par des cas théoriques de conception visant à trouver des alliages escomptés présenter un effet TRIP tout en en maximisant le durcissement par solution solide et en minimisant l’impact environnemental ou le risque géo-stratégique associés à leur production. On montre aussi des cas de conception d’alliages à partir d’alliages recyclés, ou de conception de paires d’alliages pour une « structure bi-métal en couches » réalisable par fabrication additive.
Dans le contexte de l’industrie du futur, les réseaux cognitifs sont une solution pour améliorer la fiabilité des réseaux informatiques et industriels. Ils sont capables d’optimiser automatiquement les différents paramètres protocolaires afin d’accomplir un ou plusieurs objectifs de qualité de service. Très peu de réseaux cognitifs ont été implémentés en totalité. La plupart des auteurs ont préféré se concentrer sur l’amélioration d’une fonctionnalité comme le routage. Dans cette thèse, nous suivons cette approche en proposant d’évaluer et d’améliorer l’algorithme Q-routing, algorithme de routage conçu par Boyan et Littman en 1994 et inspiré de Q-learning. Nous proposons une implémentation de Q-routing et des améliorations pour résoudre deux problèmes : les optimums locaux causés par la stratégie gloutonne de Q-routing et l’estimation du délai. Les optimums locaux privent Q-routing des routes ayant été congestionnées même momentanément. Pour résoudre ce problème, nous proposons deux approches inspirées des travaux sur l’apprentissage par renforcement. Par ailleurs, la qualité de l’estimation du délai est importante car elle est utilisée pour calculer la métrique de routage. Nous proposons d’utiliser une méthode de filtrage afin d’améliorer la qualité de l’estimation du délai de transmission. Nous évaluons notre implémentation et nos améliorations sur le simulateur réseau Qualnet incluant des topologies sans-fil et dans des scénarios avec mobilité. Nous montrons que Q-routing peut livrer plus de paquets et plus rapidement que le protocole de routage standardisé OLSRv2.
Les nouveaux contenus hyperréalistiques nécessitent le développement de nouveaux protocoles et modèles pour quantifier l’expérience utilisateur. L’étude du déploiement de l’attention visuelle est considérée comme un moyen intéressant pour comprendre et améliorer la qualité d’expérience (QoE). Dans ce contexte, des méthodes basées saillance, ne considérant que l’information spatiale, ont principalement été utilisées. Dans cette thèse, nous nous proposons donc d’étudier le déploiement de l’attention visuelle, en considérant la dimension dynamique des comportements oculaires, et ses applications possibles en QoE. Dans un premier temps, nous présentons un nouveau cadre méthodologique basé sur des modèles de Markov cachés permettant la classification et la mesure de similarité des chemins oculaires pour différentes dimensions de la QoE (mémorabilité, fidélité visuelle). Au-delà de la comparaison des comportements attentionnels, cette thèse s’intéresse également à la mesure expérimentale du déploiement de l’attention visuelle, en particulier dans un contexte d’études en crowdsourcing sans oculomètre. Nous avons ainsi adapté et testé la métaphore “Bubble- View” pour l’évaluation de l’influence des opérateurs de mappage de tons sur le déploiement de l’attention visuelle. Finalement, les outils présentés dans cette thèse pour la mesure, la modélisation et la comparison du déploiement de l’attention visuelle ont été appliqués à la prédiction de la préférence d’images mappées à partir d’une métrique basée sur un algorithme d’apprentissage automatique.
Les problèmes de quantification d’incertitudes des modèles numériques nécessitent de nombreuses simulations, souvent très coûteuses (en temps de calcul et/ou en mémoire). C’est pourquoi il est essentiel de construire des modèles approchés qui sont moins coûteux à évaluer. En pratique, si la réponse d’un modèle numérique est représentée par une fonction, on cherche à en construire une approximation.L’objectif de cette thèse est de construire l’approximation d’une fonction qui soit contrôlée tout en utilisant le moins d’évaluations possible de la fonction.Dans un premier temps, nous proposons une nouvelle méthode basée sur les moindres carrés pondérés pour construire l’approximation d’une fonction dans un espace vectoriel. Nous prouvons que la projection vérifie une propriété de stabilité numérique presque sûrement et une propriété de quasi-optimalité en espérance. En pratique on observe que la taille de l’échantillon est plus proche de la dimension de l’espace d’approximation que pour les autres techniques de moindres carrés pondérées existantes.Pour l’approximation en grande dimension et afin d’exploiter de potentielles structures de faible dimension, nous considérons dans cette thèse des approximations dans des formats de tenseurs basés sur des arbres. Ces formats admettent une paramétrisation multilinéaire avec des paramètres formant un réseau de tenseurs de faible ordre et sont ainsi également appelés réseaux de tenseurs basés sur des arbres. Dans cette thèse, nous proposons un algorithme pour construire l’approximation de fonctions dans des formats de tenseurs basés sur des arbres. Il consiste à construire une hiérarchie de sous-espaces imbriqués associés aux différents niveaux de l’arbre. La construction de ces espaces s’appuie sur l’analyse en composantes principales étendue aux fonctions multivariées et sur l’utilisation de la nouvelle méthode des moindres carrés pondérés. Afin de réduire le nombre d’évaluations nécessaires pour construire l’approximation avec une certaine précision, nous proposons des stratégies adaptatives pour le contrôle de l’erreur de discrétisation, la sélection de l’arbre, le contrôle des rangs et l’estimation des composantes principales.
Les bâtiments en maçonnerie ont souvent une géométrie non-standard, caractérisée par des arcs, des voûtes et des dômes. C’est également le cas des structures du patrimoine bâti historique, qui sont souvent des cibles symboliques et privilégiées des actions violentes, telles que des explosions. L’objectif principal de ce travail est de mettre en lumière le comportement dynamique et les modes de ruine des structures maçonnées avec soit un comportement monolithique soit une géométrie non-standard, vis-à-vis d’explosions. Ceci est d’abord accompli grâce à des outils analytiques simplifiés et à des simulations numériques détaillées reposant sur la Méthode aux Éléments Discrets (ED). Ensuite, une approche de modélisation macroscopique simplifiée, utilisant la Méthode aux Éléments Finis (EF), est introduite comme un outil d’ingénieur pour étudier de grands bâtiments en maçonnerie, tels que des monuments. En particulier, de nouvelles solutions analytiques pour la réponse en basculement des structures élancées et monolithiques sont dérivées et validées par rapport à des expériences existantes et à des simulations numériques détaillées. La Méthode aux ED est utilisée pour étudier la réponse des structures maçonnées non-standard, telles que des arcs et des voûtes, et l’influence de divers paramètres mécaniques. En nous appuyant sur les résultats numériques ED, nous développons une approche de modélisation aux EF macroscopique, basée sur des techniques simplifiées de upscaling et un modèle de fissuration étalé, afin de prédire la réponse d’éléments structuraux en maçonnerie à grande échelle. Le modèle proposé prévoit un comportement isotrope et permet de prendre en compte le phénomène d’adoucissement, qui affecte fortement la réponse du matériau. Dans le but de développer des modèles de matériaux plus précis et détaillés de l’approche mentionnée ci-dessus, une nouvelle classe de réseaux de neurones artificiels (ANNs) est également proposée comme un outil robuste, basé sur la thermodynamique, pour dériver des modèles constitutifs, au niveau du point matériel, dans le cadre d’analyses physiques multi-échelle. Les réseaux de neurones artificiels basés sur la thermodynamique (TANNs) sont appliqués – et leur supériorité par rapport aux approches ANNs classiques est prouvée – pour le cas des matériaux présentant un comportement d’adoucissement. Enfin, nous proposons de nouvelles lois de similitude pour la réponse des structures en maçonnerie soumises à des explosions. Notre objectif est de concevoir de futurs essais expérimentaux à échelle réduite, qui sont d’une importance capitale pour améliorer la connaissance actuelle et corroborer les modèles proposés.
Cette thèse s’intéresse au potentiel et à la prévision des temps d’attente concernant le covoiturage sur un territoire en utilisant des méthodes d’apprentissage statistique. Cinq thèmes principaux sont abordés dans le présent manuscrit. Le premier présente des techniques de régression quantile afin de prédire des temps d’attente. Le deuxième détaille la construction d’un processus de travail empruntant des outils des Systèmes d’Information Géographique (SIG) afin d’exploiter pleinement les données issues du covoiturage. Dans un troisième temps nous construisons un modèle hiérarchique bayésien en vue de prédire des flux de trafic et des temps d’attente. En quatrième partie nous proposons une méthode de construction d’une loi a priori informative par transfert bayésien dans le but d’améliorer les prédictions des temps d’attente pour une situation de jeu de données court. Enfin, le dernier thème se concentre sur la mise en production et l’exploitation industrielle du modèle hiérarchique bayésien.
Les problèmes de type Pick & Place (PAP) sont très étudiés dans la littérature, mais, à notre connaissance, très peu de travaux étudient les systèmes de PAP dans un contexte industriel. L’objectif de cette thèse est la résolution d’un problème industriel de type PAP au sein d’un centre de tri postal, où des bacs remplis de courriers arrivent dynamiquement et dans un ordre inconnu, et où des opérateurs placent ces bacs dans des chariots en fonction de leur destination. Compte tenu de la diversité importante des destinations journalières, un équilibre doit être trouvé en temps réel entre les flux traités par les humains et par le robot. Ce problème a été résolu en quatre phases. En premier lieu, des modèles à base de connaissance ont été proposés à partir de l’expérience de l’opérateur logistique. Le résultat de l’application de ces modèles sur une simulation du système réel est considéré comme une borne inférieure de la performance du système. En second lieu, un modèle mathématique du système a été établi, le relâchement de plusieurs contraintes permettant de traiter le problème comme un problème d’ordonnancement classique. Les résultats de cet ordonnancement, inapplicables sur le terrain, nous ont conduits à investiguer l’utilisation d’heuristiques en ligne. Une troisième étape a été de proposer un modèle heuristique, à base de règles dynamiques, évaluée en simulation. Enfin, un modèle multiagents, intégrant ces règles de décisions, a été développé afin de valider l’applicabilité d’un tel système de pilotage sur le système réel.
Les technologies de fabrication additive (FA) donnent de plus en plus de liberté de conception aux concepteurs et aux ingénieurs pour concevoir et définir des géométries et des compositions de matériaux très complexes. En raison d’un traitement couche par couche, les contraintes, méthodes, outils et processus de conception en FA sont différents de ceux des processus de fabrication traditionnels. Les méthodes et outils de conception traditionnels ne peuvent pas répondre aux besoins de la conception en FA. Par conséquent, un nouveau domaine de recherche, la conception pour la FA (Design for AM – DfAM), a émergé pour répondre à ce besoin. Cependant, les méthodes de DfAM existantes sont soit des lignes directrices, soit des outils de calculs, qui ont une prise en compte limitée des contraintes couplées le long de la chaîne de traitement numérique de la FA et peinent à garantir la fabricabilité de la conception en FA. Pour contribuer à l’obtention d’une conception qualifiée en FA, ce travail de thèse se concentre sur trois problèmes existants typiques dans le domaine du DfAM : premièrement, com-ment assurer la fabricabilité dans le processus d’optimisation topologique ? Deuxièmement, comment concevoir des structures de supports allégées, faciles à retirer pour le post-traitement et de diffusion de chaleur conviviales pour assurer la précision de la forme et améliorer la rugosité de surface des pièces imprimées ? Enfin, comment éviter les pertes de précision lors de la préparation de l’impression de structures en treillis complexes et assurer leur fabricabilité lors de la conception ?Pour résoudre les trois problèmes identifiés, ce travail de thèse propose un ensemble de nouvelles méthodes de conception générative constructive : 1. Méthode de conception générative basée sur un modèle CSG pour assurer la fabricabilité dans l’optimisation de la topologie de la structure allégée ; 2. Méthode de conception générative constructive basée sur des modèles pour optimiser la conception de la structure de supports et 3. Conception constructive inversée basée sur les « parcours d’outils » pour obtenir directement des modèles de traitement de structures poreuses ou de réseaux complexes correspondants avec des « parcours d’outils » pour obtenir directement des modèles de traitement de structures poreuses ou de réseaux complexes correspondants avec des « parcours d’outils » d’impression qualifiés. Les trois méthodes proposées intègrent les contraintes de processus de FA, réalisent un contrôle paramétrique et économisent des coûts de calcul dans le processus de conception pour obtenir un ensemble de solutions de conception candidates avec une fabrication garantie. Un ensemble d’études comparatives avec les méthodes DfAM existantes et quelques études de cas expérimentaux dans des applications médicales ont démontré les avantages des méthodes proposées. Ces méthodes constructives peuvent avoir un grand potentiel d’application pour être adoptées comme outils de conception et de prise de décision pour d’autres applications industrielles lorsqu’un DfAM qualifié est requis.
Dans le contexte général de l’industrie 4.0, une entreprise de fabrication moderne dispose de nombreuses données numériques qui pourraient être utilisées pour rendre les machines-outils plus intelligentes et faciliter la prise de décision en matière de gestion opérationnelle. Cette thèse vise à proposer un système d’aide à la décision pour les machines-outils intelligentes et connectées par l’exploration des données. L’une des premières étapes de l’approche d’exploration de données est la sélection précise de données pertinentes. Pour ce faire, les données brutes doivent être classées dans différents groupes de contexte. Cette thèse propose un algorithme d’apprentissage automatique non-supervisé, par mélanges gaussiens (GMM), pour la classification contextuelle. Basé sur les informations contextuelles, différents incidents d’usinage peuvent être détectés en temps réel. Il s’agit notamment de broutement, de bris d’outil et de sur-vibration. Cette thèse présente un ensemble de règles métiers pour la détection du broutement, de bris d’outil et de sur-vibration. Le contexte opérationnel a été décrypté lorsque des incidents se produisent, sur la base de la classification contextuelle qui explique les types d’usinage et d’engagement des outils. Ensuite, les nouveaux indicateurs clés de performance (KPIs) pertinents et appropriés peuvent être proposés sur la base de ces informations contextuelles combinés avec les incidents détectés afin de soutenir la prise de décision pour la gestion opérationnelle. Cette thèse propose de nouveaux opérateurs d’agrégation et de nouveaux KPIs pertinents pour les différents besoins des départements.
Thème By Human
Grâce aux progrès scientifiques et technologiques, la Médecine de Précision (MP) est désormais prometteuse pour la personnalisation de la décision médicale. L’objectif est de fournir des mesures spécifiques pour une prise en charge individualisée du patient. Les solutions développées à cette fin sont nombreuses, cependant, leur adoption dans les services de santé est limitée par des enjeux liés en particulier aux données et aux méthodes sous-jacentes.
Cette thèse s’intéresse aux mécanismes du dialogue humain-machine à travers la visualisation et l’interaction avec les données et les algorithmes pour fournir des solutions de MP raisonnables et compréhensibles par l’humain. En collaboration avec des neurologues, nous avons conçu et développé un système d’aide à la décision clinique appelé MS-Vista, fondé sur les principes de la MP. MS-Vista offre une interface humain-machine d’interaction avec les données permettant de contextualiser les patients atteints de sclérose en plaques. Il permet d’examiner la qualité et la quantité des données. Il fournit également des visuels de projection de données illustrant les avantages potentiels de chaque option thérapeutique. Il s’agit d’aider à la personnalisation de la décision et à la communication médecin-patient. Les retours positifs fournis par les neurologues, notamment du fait que MS-Vista intègre leur raisonnement, nous a conduit par la suite à concevoir une approche hybride de prédiction basée sur la collaboration humain-algorithme. En impliquant les médecins dans le processus d’apprentissage, cette approche permet d’améliorer la performance du modèle de prédiction en combinant l’intelligence humaine et artificielle.
La façon dont les humains se déplacent dans un environnement donne est liée a certaines de leurs caractéristiques démographiques et cliniques, comme leur age ou leur statut cognitif. Dans cette thèse, nous avons cherche a quantifier l’interaction entre le profil des navigateurs et leur comportement spatial via trois approches complémentaires. Nous avons notamment utilise les données issues d’un jeu vidéo de navigation spatiale – Sea Hero Quest – donnant accès aux trajectoires de millions de joueurs aux profils démographiques varies. La première approche propose une architecture de modèle a réseaux de neurones parallèles, afin de prendre en compte la nature spatio-temporelle des trajectoires. La seconde associe a chaque trajectoire une entropie calculée à partir de la distribution des trajectoires, pour prendre en compte le contexte et identifier la singularité du navigateur. La troisième permet de produire un groupement joint sur d’un coté les données comportementales et de l’autre démographiques. Les expérimentations que nous avons menées nous ont permis de valider les résultats obtenus antérieurement avec des métriques et des méthodes d’analyse simples, mais également de les compléter, en explicitant par exemple la nature des effets de l’âge et du genre sur le comportement spatial. Ces travaux permettront aux neuroscientifiques de mieux comprendre les facteurs sous-tendant les différences individuelles en terme de sens de l’orientation.
L’Internet des Objets entraînent par son nombre de terminaux une explosion du trafic de données. Pour augmenter la qualité globale de réseau, il est possible d’analyser intelligemment le trafic réseau afin de détecter d’éventuel comportement suspect ou malveillant. Les modèles d’apprentissage automatique et d’apprentissage profond permettent de traiter ce très grand volume de données. Néanmoins, il existe certaines limites dans la littérature, notamment la confidentialité des données, le surapprentissage (manques de diversité dans les données) ou tout simplement le manque de jeu de données labellisées. Dans cette thèse, nous proposons de nouveaux modèles s’appuyant sur l’apprentissage automatique et l’apprentissage profond afin de traiter une grande quantité de données tout en préservant la confidentialité. Notre première approche utilise un modèle d’ensemble. Les résultats montrent une diminution du surapprentissage, tout en augmentant de 10% la précision comparé à des modèles de l’état de l’art. Notre seconde contribution s’attache aux problèmes de disponibilité des données labellisées. Nous proposons un modèle d’apprentissage semisupervisé capable d’améliorer la précision de 11% par rapport à un modèle supervisé équivalent. Enfin, nous proposons un système de détection d’attaque s’appuyant sur l’apprentissage fédéré. Nommé FLUIDS, il permet de réduire la surcharge réseau de 75% tout en préservant de très haute performance et la confidentialité.
à venir
L’extraction de lexique bilingue (BLI) a pour objectif la création, de manière automatique à partir de corpus bilingues, de lexiques entre deux langues. Le BLI est utilisé le plus souvent en domaine général, où les lexiques extraits peuvent par exemple servir en traduction automatique ou en recherche d’information. Les systèmes de BLI fonctionnent alors sur de grandes quantités de données et les résultats semblent hautement satisfaisants. Cependant, les données d’évaluation contiennent de nombreuses erreurs, ce qui pourrait conduire à une remise en question des systèmes. Un second contexte d’utilisation plus marginal du BLI est celui des domaines de spécialité, où l’objectif est l’obtention de traductions absentes des dictionnaires classiques. Les corpus spécialisés (qui ne concernent qu’un seul sujet) sont peu fournis en données et il est compliqué pour les systèmes de BLI d’obtenir d’aussi bons résultats qu’en domaine général. Il faut donc chercher à adapter les approches pour prendre en compte cette particularité. Dans cette thèse, nous améliorons les résultats obtenus en BLI en domaine de spécialité en proposant l’utilisation de techniques de sélection de données. Puis, nous nous intéressons au processus d’évaluation en domaine général et plus particulièrement à certains biais présents dans les données d’évaluation comme la surprésence de paires de mots très fréquents ou graphiquement identiques et proposons un processus d’évaluation plus précis et unifié qui prend en compte ces faiblesses dans les données.
Quels sont les points communs et les différences entre notre façon de percevoir notre environnement et celles des réseaux de neurones profonds ? Nous étudions cette question au travers d’un cas d’application concret, la détection des lésions issues de la maladie de Crohn dans des vidéos capsules endoscopiques. Dans un premier temps, nous avons développé une base de données, soigneusement annotée par plusieurs experts, que nous avons rendu publique afin de compenser le manque de données permettant l’évaluation et l’entraînement des algorithmes d’apprentissage profond dans ce domaine. Dans un second temps, pour rendre les réseaux plus transparents lors de leur prise de décision et leurs prédictions plus explicables, nous avons travaillé sur l’attention artificielle et établissons un parallèle entre celle-ci et l’attention visuelle humaine. Nous avons enregistré les mouvements oculaires de sujets de différents niveaux d’expertise lors d’une tâche de classification et montrons que les réseaux de neurones profonds, dont les performances sur la tâche de classification sont plus proches de celles des experts que de celles des novices, ont également un comportement attentionnel plus proche de ces premiers. Au travers de ce manuscrit, nous espérons fournir des outils permettant le développement d’algorithmes d’aide au diagnostic, ainsi qu’un moyen d’évaluer les méthodes d’attention artificielle. Ce travail permet d’approfondir les liens entre attention humaine et artificielle, dans le but d’aider les experts médicaux dans leur formation et d’aider au développement de nouvelles architectures d’algorithmes.
L’attention visuelle est l’un des mécanismes les plus importants déployés par le système visuel humain pour réduire la quantité d’informations que le cerveau doit traiter. De plus en plus d’efforts ont été consacrés à l’étude de l’attention visuelle sur des images naturelles (image 2D). Cependant, peu de travaux ont été mené sur des contenus 3D, correspondant à des données plus complexes car elles incluent des informations sur la géométrie et les attributs d’apparence. C’est cette problématique de l’attention visuelle sur les contenus 3D qui a principalement guidé notre démarche pour ces travaux de thèse. Nos travaux sont principalement divisés en trois parties correspondants à trois niveaux conceptuels différents. La première partie de cette thèse correspond à un concept de bas niveau où nous proposons de prédire ce qui attire l’attention des individus lorsqu’ils observent des objets 3D en étudiant la validité des modèles et des hypothèses faites dans l’imagerie 2D. Ceci est très utile dans certains scénarios tels que le streaming interactif ou la visualisation des contenus 3D dans des applications de réalité virtuelle ou augmentée. La deuxième partie correspond à un concept de niveau intermédiaire où nous introduisons une mesure perceptuelle de la complexité de l’attention qui est extraite à partir de l’information de la saillance. La mesure que nous proposons est utilisée dans l’évaluation de la qualité des contenus 3D ainsi que dans la caractérisation de ces contenus. La troisième partie traite un concept de plus haut niveau lié à la préférence de point de vue des objets graphiques 3D où nous montrons la pertinence d’un indicateur de complexité attentionelle, introduit dans la deuxième partie du manuscrit. Tout au long de la thèse, nous avons construit plusieurs bases de données d’objets 3D colorés et nous avons réalisé une série d’expériences subjectives pour différentes tâches, y compris des expériences de crowdsourcing comme alternatives aux expériences menées au laboratoire.
Cette thèse explore l’optimisation perceptuelle et la réduction de la complexité afin d’améliorer les schémas de compression vidéo dans un contexte d’encodage temps réel. Le travail est divisé en trois parties qui proposent plusieurs types d’amélioration. La première contribution introduit un filtre de prétraitement perceptuel basé sur un modèle du système visuel humain. Ce filtre est paramétrable pour plusieurs conditions de visualisation, nous proposons des réglages optimisés pour deux conditions standards. Une étude sur la précision de différentes métriques de qualité visuelle dans le cadre spécifique de la mesure des performances de pré-filtrage est également menée. La deuxième partie de la thèse propose une méthodologie basée sur la classification par apprentissage automatique pour prédire et sélectionner de manière adaptative la meilleure résolution d’encodage dans un scénario de codage en une passe. À cette fin, trois classificateurs différents ont été considérés : Support Vector Machine, Random Forest (RF) et Multi-Layer Perceptron. Dans le but d’évaluer et piloter le gain perceptuel à un débit donné, plusieurs métriques de qualité visuelle ont ensuite été caractérisées et comparées. Ceci a été mené pour plusieurs niveaux de qualité du point de vue de l’incertitude de la qualité subjective de la vérité terrain. En outre, une nouvelle métrique basée sur RF, perceptuellement plus précise, a été introduite pour la formation des classificateurs. Le troisième ensemble de contributions se concentre sur la prise en charge de la partie de codage la plus complexe du nouveau standard Versatile Video Coding (VVC) : les critères de décision pour le partitionnement Multi-Type Tree. Une nouvelle méthode de décision de partitionnement basée Apprentissage Machine est proposée couvrant tous les types de partitionnement en intra et inter et particulièrement appropriée pour un encodeur matériel temps réel. Une approche basée CNN a ainsi été utilisée, avec des classificateurs pour différents niveaux, formes et types de partitionnement. Cette méthode est finalement évaluée par rapport à une approche exhaustive et démontre des performances prometteuses qui sont soigneusement analysées.
Le nombre de documents scientifiques dans les bibliothèques numériques ne cesse d’augmenter. Les mots-clés, permettant d’enrichir l’indexation de ces documents ne peuvent être annotés manuellement étant donné le volume de document à traiter. La production automatique de mots-clés est donc un enjeu important. Le cadre évaluatif le plus utilisé pour cette tâche souffre de nombreuses faiblesses qui rendent l’évaluation des nouvelles méthodes neuronales peu fiables. Notre objectif est d’identifier précisément ces faiblesses et d’y apporter des solutions selon trois axes. Dans un premier temps, nous introduisons KPTimes, un jeu de données du domaine journalistique. Il nous permet d’analyser la capacité de généralisation des méthodes neuronales. De manière surprenante, nos expériences montrent que le modèle le moins performant est celui qui généralise le mieux. Dans un deuxième temps, nous effectuons une comparaison systématique des méthodes états de l’art grâce à un cadre expérimental strict. Cette comparaison indique que les méthodes de référence comme TF#IDF sont toujours compétitives et que la qualité des mots-clés de référence a un impact fort sur la fiabilité de l’évaluation. Enfin, nous présentons un nouveau protocole d’évaluation extrinsèque basé sur la recherche d’information. Il nous permet d’évaluer l’utilité des mots-clés, une question peu abordée jusqu’à présent. Cette évaluation nous permet de mieux identifier les mots-clés importants pour la tâche de production automatique de motsclés et d’orienter les futurs travaux.
Des formats multimédias immersifs ont émergé comme un puissant canevas dans de nombreuses disciplines pour offrir une expérience utilisateur hyperréaliste. Ils peuvent prendre de nombreuses formes, telles que des images HDR, des champs lumineux, des nuages de points et des vidéos volumétriques. L’objectif de cette thèse est de proposer de nouvelles méthodologies pour l’évaluation de la qualité de tels contenus. La première partie de la thèse porte sur l’évaluation subjective de la qualité d’image. Plus précisément, nous proposons une stratégie de sélection de contenu et d’observateurs, ainsi qu’une analyse approfondie de la fiabilité des plateformes de crowdsourcing pour collecter des données subjectives à grande échelle. Nos résultats montrent une amélioration de la fiabilité des annotations subjectives collectées et répondent aux exigences liées en crowdsourcing à la reproduction d’expériences menés en laboratoire. La deuxième partie contribue à l’évaluation objective de la qualité avec une métrique de qualité d’image basée sur l’apprentissage automatique utilisant les informations de seuil de discrimination, et une métrique de qualité d’image pour les champs lumineux sans référence basée sur des représentations d’images planes épipolaires. Enfin, nous étudions l’impact des méthodologies d’agrégation temporel sur les performances des métriques de qualité objective pour les vidéos volumétriques. Dans l’ensemble, nous démontrons comment nos résultats peuvent être utilisés pour améliorer l’optimisation des outils de traitement pour les contenus multimédias immersifs.
Thème For Human
Grâce aux progrès scientifiques et technologiques, la Médecine de Précision (MP) est désormais prometteuse pour la personnalisation de la décision médicale. L’objectif est de fournir des mesures spécifiques pour une prise en charge individualisée du patient. Les solutions développées à cette fin sont nombreuses, cependant, leur adoption dans les services de santé est limitée par des enjeux liés en particulier aux données et aux méthodes sous-jacentes.
Cette thèse s’intéresse aux mécanismes du dialogue humain-machine à travers la visualisation et l’interaction avec les données et les algorithmes pour fournir des solutions de MP raisonnables et compréhensibles par l’humain. En collaboration avec des neurologues, nous avons conçu et développé un système d’aide à la décision clinique appelé MS-Vista, fondé sur les principes de la MP. MS-Vista offre une interface humain-machine d’interaction avec les données permettant de contextualiser les patients atteints de sclérose en plaques. Il permet d’examiner la qualité et la quantité des données. Il fournit également des visuels de projection de données illustrant les avantages potentiels de chaque option thérapeutique. Il s’agit d’aider à la personnalisation de la décision et à la communication médecin-patient. Les retours positifs fournis par les neurologues, notamment du fait que MS-Vista intègre leur raisonnement, nous a conduit par la suite à concevoir une approche hybride de prédiction basée sur la collaboration humain-algorithme. En impliquant les médecins dans le processus d’apprentissage, cette approche permet d’améliorer la performance du modèle de prédiction en combinant l’intelligence humaine et artificielle.
La façon dont les humains se déplacent dans un environnement donne est liée a certaines de leurs caractéristiques démographiques et cliniques, comme leur age ou leur statut cognitif. Dans cette thèse, nous avons cherche a quantifier l’interaction entre le profil des navigateurs et leur comportement spatial via trois approches complémentaires. Nous avons notamment utilise les données issues d’un jeu vidéo de navigation spatiale – Sea Hero Quest – donnant accès aux trajectoires de millions de joueurs aux profils démographiques varies. La première approche propose une architecture de modèle a réseaux de neurones parallèles, afin de prendre en compte la nature spatio-temporelle des trajectoires. La seconde associe a chaque trajectoire une entropie calculée à partir de la distribution des trajectoires, pour prendre en compte le contexte et identifier la singularité du navigateur. La troisième permet de produire un groupement joint sur d’un coté les données comportementales et de l’autre démographiques. Les expérimentations que nous avons menées nous ont permis de valider les résultats obtenus antérieurement avec des métriques et des méthodes d’analyse simples, mais également de les compléter, en explicitant par exemple la nature des effets de l’âge et du genre sur le comportement spatial. Ces travaux permettront aux neuroscientifiques de mieux comprendre les facteurs sous-tendant les différences individuelles en terme de sens de l’orientation.
L’intelligence Artificielle fait partie de notre quotidien. Les modèles développés sont de plus en plus complexes. Les régulations telles que la Loi Pour une République Numérique orientent les développements logiciels vers plus d’éthique et d’explicabilité. Comprendre le fonctionnement des modèles profonds a un intérêt technique et humain. Les solutions proposées par la communauté sont nombreuses, et il n’y a pas de méthode miracle répondant à toutes les problématiques. Nous abordons la question suivante : comment intégrer l’explicabilité dans un projet d’IA basé sur des techniques d’apprentissage profond? Après un état de l’art présentant la richesse de la littérature du domaine, nous présentons le contexte et les prérequis de nos travaux. Ensuite nous présentons un protocole d’évaluation d’explications locales et une méthodologie modulaire de caractérisation globale du modèle. Enfin, nous montrons que nos travaux sont intégrés à leur environnement industriel. Ces travaux résultent en l’obtention d’outils concrets permettant au lecteur d’appréhender la richesse des outils d’explicabilité à sa disposition.
à venir
Ces dernières années, les pratiques d’apprentissage en ligne n’ont cessé de croitre, la pandémie mondiale du COVID- 19 a encore accéléré cette tendance. Pour atteindre l’objectif de développement durable numéro 4 : « l’éducation de qualité et tout au long de la vie », l’UNESCO fait de l’apprentissage en ligne et des REL (Ressources Educatives Libres) les aspects centraux de cette politique. Dans un contexte où le nombre de ressource et d’utilisateur est pléthorique, des algorithmes de recommandation de contenu semblent indispensables pour guider les apprenants à travers les ressources. Néanmoins, l’emploi de la recommandation à des fins pédagogiques soulève des problématiques spécifiques non étudiées jusqu’alors. De plus, le manque de jeux de données libres disponibles complexifie l’évaluation et la comparaison des approches et ne permet pas l’emploi de méthodes gourmandes en données qui semblent pourtant les plus prometteuses. Dans ce document, nous nous intéressons à la problématique de la recommandation à visée pédagogique à large-échelle et dans un contexte éducationnel non-formel où les données sont non structurées. En particulier, nous explorerons la question d’un ordre satisfaisant de consultation des ressources ainsi que celle de mise à disposition de jeux de données libres pour cette tâche.
La médecine de précision redéfinit le système de soins en proposant une adaptation systématique à chaque individu. A l’aide de données en population, cette forme de médecine a pour objectif d’optimiser les soins médicaux d’un individu, par exemple en accompagnant les soignants dans la prise de décision grâce à des applications informatiques. Ce travail s’articule autour de 2 applications de médecine de précision pour la transplantation permettant d’améliorer la prise en charge des patients. Premièrement, la construction de la suite web Easy-HLA permet de simplifier l’analyse des génotypes HLA, molécules essentielles de la réponse immunitaire. Le coeur des algorithmes d’Easy-HLA est une base de données de plus de 600 000 haplotypes HLA et leurs fréquences. Deuxièmement, la création de l’application KiTapp aide à améliorer le suivi des patients après une transplantation rénale. KiTapp est pensé comme un outil d’aide à la décision pour les cliniciens. Cet outil se base sur l’exploitation des données de la DIVAT à l’aide d’algorithmes de contextualisation et cristallise la notion de POI/POR. Easy-HLA et KiTapp permettent de représenter, comparer et analyser systématiquement une information individuelle dans le contexte d’une population analogue. La médecine de demain tend vers une médecine de précision basée sur l’analyse en temps réel de données multiparamétriques avec pour point de départ le patient, en s’appuyant sur des outils informatiques devenus incontournables.
L’attention visuelle est l’un des mécanismes les plus importants déployés par le système visuel humain pour réduire la quantité d’informations que le cerveau doit traiter. De plus en plus d’efforts ont été consacrés à l’étude de l’attention visuelle sur des images naturelles (image 2D). Cependant, peu de travaux ont été mené sur des contenus 3D, correspondant à des données plus complexes car elles incluent des informations sur la géométrie et les attributs d’apparence. C’est cette problématique de l’attention visuelle sur les contenus 3D qui a principalement guidé notre démarche pour ces travaux de thèse. Nos travaux sont principalement divisés en trois parties correspondants à trois niveaux conceptuels différents. La première partie de cette thèse correspond à un concept de bas niveau où nous proposons de prédire ce qui attire l’attention des individus lorsqu’ils observent des objets 3D en étudiant la validité des modèles et des hypothèses faites dans l’imagerie 2D. Ceci est très utile dans certains scénarios tels que le streaming interactif ou la visualisation des contenus 3D dans des applications de réalité virtuelle ou augmentée. La deuxième partie correspond à un concept de niveau intermédiaire où nous introduisons une mesure perceptuelle de la complexité de l’attention qui est extraite à partir de l’information de la saillance. La mesure que nous proposons est utilisée dans l’évaluation de la qualité des contenus 3D ainsi que dans la caractérisation de ces contenus. La troisième partie traite un concept de plus haut niveau lié à la préférence de point de vue des objets graphiques 3D où nous montrons la pertinence d’un indicateur de complexité attentionelle, introduit dans la deuxième partie du manuscrit. Tout au long de la thèse, nous avons construit plusieurs bases de données d’objets 3D colorés et nous avons réalisé une série d’expériences subjectives pour différentes tâches, y compris des expériences de crowdsourcing comme alternatives aux expériences menées au laboratoire.
Malgré les avantages de la fabrication additive (FA), de nombreux problèmes liés au pilotage de sa chaine de valeur doivent être résolus pour en tirer le maximum d’avantages. Le pilotage de la chaine de valeur renvoie à des processus d’aide à la décision variés comme le choix du procédé, la stratégie de supportage, paramètres machine, ou encore l’estimation du coût et la prédiction des défauts pièces potentiels, etc. C’est dans ce contexte que les travaux de cette thèse s’inscrivent en proposant un système pour
l’aide à la décision et la traçabilité dans les processus de FA par fusion sur lit de poudre. Pour ce faire, les techniques d’ingénierie des connaissances sont mises à contribution afin de tirer profit de la grande masse de données générée tout au long de l’affaire FA mais aussi exploiter l’expertise humaine dans le domaine. La structure de la base de connaissances est conçue sous forme d’une ontologie de domaine pour la FA et associé à un moteur d’inférence à base de règles. Le pilotage de la chaine de valeur est
focalisé sur la génération des processus et sur l’aide à la réalisation des devis en amont d’un projet FA. La base de connaissances ainsi intégrée dans le système d’aide à la décision permet de faire l’estimation de certains paramètres d’entrée au modèle du coût en vue d’exécuter un chiffrage du devis en cours. L’historique issu de la traçabilité
permet de comparer l’estimer au réel, et d’améliorer la phase d’estimation des paramètres influençant par raisonnement de similarité. L’approche proposée a été appliquée sur cinq cas d’études industriels mis à disposition par un partenaire du projet SOFIA. L’accompagnement de l’expert industriel a permis de consolider le modèle proposé en cohérence avec la réalité du terrain.