Des informations générales:

Le niveau

Master

Titre

Transformation des modèles par l’exemple

SPECIALITE

Génie Logiciel

Page de garde:

Transformation des modèles par l'exemple


Sommaire:

Chapitre 1 Synthèse Bibliographique
2.1 Introduction.
Ingénierie Système : Notions et Concepts
2.2.1 Système Complexe
2.2.2 Ingénierie Système
2.2.3 Modélisation des Systèmes Complexes
2.3 Ingénierie Dirigée par les Modèles (IDM).
2.3.1 Une approche autour des modèles
2.3.2 Transformation de Modèles.
2.3.3.1 Les caractéristiques de TM
2.3.4 Techniques de transformation
2.3.5 Activités liées à l’IDM.
2.3.5.1 Réalisation de modèles
2.3.5.2 Stockage de modèles
2.3.5.3 L’exécution de modèles
2.3.5.4 Vérification de modèles
2.3.5.5 Validation
2.3.5.6 Gestion de l’évolution des modèles
2.4 les approches de l’Ingénierie dirigée par les modèles
2.4.1 L’Architecture Dirigée par les Modèles (MDA)
2.4.1.1 Standards de l’OMG
2.4.1.2 Transformations de modèles dans MDA
2.4.1.3 MOF et L’architecture à quatre niveaux
2.4.2 Modèle de Calcul Intégré (MIC)
2.4.3 Les usines logicielles (Software Factories)
2.4.4 Synthèse
2.5 Processus de Vérification en IDM
2.6 Conclusion
Chapitre 2 Transformation de modèles par l’exemple
3.1 Introduction.
3.2 Principe de TMPE
3.3 Appproches existantes
3.3.1 Approche de Varró
3.3.2 Approche de Wimmer
3.3.3 Approche de Garcia-Magarino
3.3.4 Approche de Kessentini
3.3.5 Approche de Dolques
3.3.6 Approche de Faunes
3.3.7 Approche de Baki
3.4 Synthèse et Positionnement de notre travail
3.5 Conclusion
Chapitre 3 Démarche adoptée
4.1 Introduction
4.2 Vue globale de notre approche :
4.3 Etapes de l’approche
4.4 Définition des concepts
4.4.1 Intelligence artificielle
4.4.2 Apprentissage Automatique (ML)
4.4.3 Les types d’apprentissage automatique
4.4.3.1 L’apprentissage supervisé
4.4.3.2 L’apprentissage non supervisé
4.4.3.3 L’apprentissage par renforcement
4.4.4 Apprentissage profond (Deep learning)
4.5 Création du Dataset
4.6 Réduction des dimensions du dataset
4.6.1 PCA – L’analyse de la composante principale.
4.6.2 L’analyse discriminante linéaire ou quadratique (LDA/QDA)
4.7 Sélection et transformation des attributs
4.8 Recherche des modèles
4.8.1 Arbre de décision
4.8.1.1 Avantages
4.8.1.2 Incovénients
4.8.2 Foret aléatoire (Random forest)
4.8.3 Avantages
4.8.5 Inconvénients
4.8.6 La régression logistique
4.8.7 K plus proches voisins (KNN)
4.8.7.1 Avantages:
4.8.7.2 Inconvénients :
4.8.8 Les machines à support de vecteurs (SVM)
4.8.8.1 Avantages:
4.8.8.2 Inconvénients :
4.8.9 L’algorithme de Naïve Bayes
4.8.9.1 Avantages:
4.8.9.2 Inconvénients:
4.9 Mesures d’évaluation (performances) du modèle
4.9.1 Matrice de confusion ou de contingence
4.10 Les variables de la matrice de confusion
4.11 Conclusion
Chapitre 4 Implémentation
5.1 Introduction.
5.2 Environnement de développement et Les outils techniques
5.2.1 Définition du langage Python en informatique :
5.2.2 Anaconda.
5.2.3 Jupyter :
5.3 Les bibliothèques utilisées
5.3.1 Numpy :
5.3.2 Matplotlib:
5.3.3 Pandas:
5.3.4 Scikit-learn:
5.4 Apprentissage et Paramétrage des Modèles :
5.4.1 Préparation du Dataset
5.4.2 Identification des variables de prédiction
5.4.2.1 Avantages de la séparation train / test :
5.5 Réduction des dimensions du dataset
5.5.1 Application de PCA :
5.5.2 Réduction les dimensions de dataset
5.5.3 Algorithme LDA/QDA
5.6.1 Algorithme de la régression logistique
5.6.2 Algorithme de KNN(K plus proches voisins)
5.6.3 Algorithme Arbre de décision
5.6.4 Algorithme de Naïve Bayes
5.6.5 Algorithme de Random forest
5.7 Résultats expérimentaux
5.7.1 Rapport de classification (Classification report)
5.7.2 Tableau comparatif de l’implémentation de certains modèles :
5.8 Conclusion

Télécharger:



 


Pour plus de
sources et références universitaires
(mémoires, thèses et articles
), consultez notre site principal.