Titre : |
Algorithmes D’apprentissage Des Réseaux De Neurones Artificiels : De La Rétro-Propagation Jusqu’à Levenberg-Marquardt |
Type de document : |
texte imprimé |
Auteurs : |
Mounir Bessafi, Auteur ; Nour Khelaifia, Auteur ; Selma Mili, Directeur de thèse |
Editeur : |
CONSTANTINE [ALGERIE] : Université Frères Mentouri Constantine |
Année de publication : |
2018 |
Importance : |
78 f. |
Format : |
30 cm. |
Note générale : |
Une copie electronique PDF disponible au BUC. |
Langues : |
Français (fre) |
Catégories : |
Sciences Exactes:Mathématiques
|
Tags : |
statistique appliquée |
Index. décimale : |
510 Mathématiques |
Résumé : |
L’objectif de ce mémoire et d’étudier les algorithmes d'apprentissage pour les
réseaux de neurones artificiel du premier au second ordre. Mais bien avant ça nous avons posé
la lumière sur certains éléments de base des réseaux de neurones : définitions, propriétés et
Architecture, sans oublié les concepts d'apprentissage que nous les avons expliqués en détail.
Nous avons basées sur deux critères importants: le critère de la précision et celui de la
vitesse de convergence.
La mise à jour du réseau fonctionne de manière itérative par l'ajustement graduel des poids
pour minimiser l'erreur quadratique moyenne. Le premier algorithme qui nous a permis
d'étudier ce processus particulier est le "Rétro-gradient ", y on a d’autres algorithmes qui sont
venu après pour améliorer et essayer de corriger les inconvénients du premier.
Nous avons consacré le premier chapitre aux algorithmes du premier ordre : la Rétropropagation, Momentum, Delta-bar-delta « taux d’apprentissage adaptatif » et la Descente la
plus raide
Nous avons regroupé Les algorithmes de deuxièmes ordres dans le deuxième chapitre: QuickProp, Gauss-Newton, BFGS (Quasi-Newton Rétro-propagation), la Rétro-propagation de
gradient conjugué (scg), Powell-Beale (cgb), Fletcher – Reeves (cgf), Polak – Ribière (cgp) et
Levenberg-Marquardt.
Nous avons terminé ce dernier par une comparaison entre les méthodes du premier et du
second ordre : voir le meilleur algorithme en termes d'efficacité pour minimisé l'erreur et
fournir la bonne performance dans un meilleur temp. Et nous avons remarqué que c’été celui
de Levenberg-Marquardt.
Un exemple Matlab qui a regroupé tous ces algorithmes nous a aidé a bien assimilé ce travail. |
Diplome : |
Master 2 |
Permalink : |
https://bu.umc.edu.dz/master/index.php?lvl=notice_display&id=10535 |
Algorithmes D’apprentissage Des Réseaux De Neurones Artificiels : De La Rétro-Propagation Jusqu’à Levenberg-Marquardt [texte imprimé] / Mounir Bessafi, Auteur ; Nour Khelaifia, Auteur ; Selma Mili, Directeur de thèse . - CONSTANTINE [ALGERIE] : Université Frères Mentouri Constantine, 2018 . - 78 f. ; 30 cm. Une copie electronique PDF disponible au BUC. Langues : Français ( fre)
Catégories : |
Sciences Exactes:Mathématiques
|
Tags : |
statistique appliquée |
Index. décimale : |
510 Mathématiques |
Résumé : |
L’objectif de ce mémoire et d’étudier les algorithmes d'apprentissage pour les
réseaux de neurones artificiel du premier au second ordre. Mais bien avant ça nous avons posé
la lumière sur certains éléments de base des réseaux de neurones : définitions, propriétés et
Architecture, sans oublié les concepts d'apprentissage que nous les avons expliqués en détail.
Nous avons basées sur deux critères importants: le critère de la précision et celui de la
vitesse de convergence.
La mise à jour du réseau fonctionne de manière itérative par l'ajustement graduel des poids
pour minimiser l'erreur quadratique moyenne. Le premier algorithme qui nous a permis
d'étudier ce processus particulier est le "Rétro-gradient ", y on a d’autres algorithmes qui sont
venu après pour améliorer et essayer de corriger les inconvénients du premier.
Nous avons consacré le premier chapitre aux algorithmes du premier ordre : la Rétropropagation, Momentum, Delta-bar-delta « taux d’apprentissage adaptatif » et la Descente la
plus raide
Nous avons regroupé Les algorithmes de deuxièmes ordres dans le deuxième chapitre: QuickProp, Gauss-Newton, BFGS (Quasi-Newton Rétro-propagation), la Rétro-propagation de
gradient conjugué (scg), Powell-Beale (cgb), Fletcher – Reeves (cgf), Polak – Ribière (cgp) et
Levenberg-Marquardt.
Nous avons terminé ce dernier par une comparaison entre les méthodes du premier et du
second ordre : voir le meilleur algorithme en termes d'efficacité pour minimisé l'erreur et
fournir la bonne performance dans un meilleur temp. Et nous avons remarqué que c’été celui
de Levenberg-Marquardt.
Un exemple Matlab qui a regroupé tous ces algorithmes nous a aidé a bien assimilé ce travail. |
Diplome : |
Master 2 |
Permalink : |
https://bu.umc.edu.dz/master/index.php?lvl=notice_display&id=10535 |
|