La complexité des systèmes conduit à devoir structurer, mutualiser et modéliser les flux de connaissances intra et inter disciplinaires. L’intégration des mesures, des connaissances et des modèles est capital pour concevoir des modèles communs intelligents, autonomes et évolutifs. Cette intégration se trouve confrontée à l’hétérogénéité des sources de connaissances, des formalismes utilisés dans chaque discipline impliquée (équations différentielles, graphes conceptuels, règles, cartes cognitives …), des échelles manipulées, des incertitudes (stochastiques, épistémiques, …). Un des enjeux de cet axe sera de mettre en place une démarche intégrative et générique de modélisation permettant d’assembler des morceaux de connaissances hétérogènes multi sources et multi échelles. On propose de poursuivre le développement du formalisme des livres électroniques de connaissances pour capitaliser et structurer la connaissance en le dotant de moteurs de raisonnement dans l’incertain. Les avancées technologiques et la numérisation des données entrainent une production massive de données connues ( bigdata). Leur exploitation est souvent rendue difficile (volume à explorer et/ou faute de connaissance approfondie pour systèmes complexes). Face à cette réalité, cet axe développera des méthodes et des outils de data minning, machine learning, deep learning issues de l’IA pour extraire et apprendre de la connaissance utile et exploitable à partir des données issues de l’axe END et ainsi enrichir les modèles prédictifs, basés sur de l’optimisation multi-objectifs.