Catalogue des Mémoires de master

Titre : |
Algorithmes d’apprentissage des réseaux de neurones artificiels : de larétro propagation jusqu’à l’extreme learning machine |
Type de document : |
texte imprimé |
Auteurs : |
Anisssa Naidji, Auteur ; Merieme Siouda, Auteur ; Ahmed Chibat, Directeur de thèse |
Editeur : |
CONSTANTINE [ALGERIE] : Université Frères Mentouri Constantine |
Année de publication : |
2016 |
Importance : |
70 f. |
Format : |
30 cm. |
Note générale : |
Une copie electronique PDF disponible en BUC |
Langues : |
Français (fre) |
Catégories : |
Sciences Exactes:Mathématiques
|
Tags : |
Statistique Appliquée l’extreme leArning mAchine |
Index. décimale : |
510 Mathématiques |
Résumé : |
Le but de notre mémoire est de présenter les algorithmes d’apprentissage des réseaux de neurones artificiels : de la rétro-propagation jusqu’à l’Extreme Learning Machine.
Pour cela nous allons d’abord définir succinctement : la bonne définition du réseau, son architecture et les différents algorithmes d’entraînement avec lesquels ses paramètres doivent être ajustés.
Les différentes méthodes ont été basées sur deux critères : le critère de précision et le critère de vitesse de convergence.
L’apprentissage des réseaux de neurones se fait de manière itérative par l’ajustement graduel des poids. Le critère à minimiser est celui de l’erreur quadratique moyenne. Le premier algorithme qui permet de conduire cette opération est celui de la rétro propagation du gradient. C’est l’algorithme de base, mais ceux qui ont suivi ont apporté de plus en plus d’améliorations.
Ensuite nous exprimons les méthodes de premier ordre : la rétro propagation, Momentum, delta-bar-delta (taux d’apprentissage adaptatif), la descente la plus raide.
Nous allons discuter aussi les méthodes du second ordre : Quick-Prop, Gauss-Newton, Lenverberg-Marquardt.
Nous avons, en plus, traité la question de quel est le meilleur algorithme qui permet d’obtenir la bonne performance dans un meilleur temps.
Pour cela nous présentons l’algorithme de l’Extreme Learning Machine qui n’est pas encore largement connu, car il est actuellement au stade de la recherche. Cet algorithme permet d’obtenir une précision équivalente à celle fournie par les meilleurs algorithmes actuels. Mais il les surpasse par le fait qu’il élimine un défaut de taille : la lenteur. En effet c’est un algorithme extrêmement rapide car il est basé sur un procédé de calculs analytiques et non sur un processus d’ajustements itératifs. |
Diplome : |
Master 2 |
Permalink : |
https://bu.umc.edu.dz/master/index.php?lvl=notice_display&id=4674 |
Algorithmes d’apprentissage des réseaux de neurones artificiels : de larétro propagation jusqu’à l’extreme learning machine [texte imprimé] / Anisssa Naidji, Auteur ; Merieme Siouda, Auteur ; Ahmed Chibat, Directeur de thèse . - CONSTANTINE [ALGERIE] : Université Frères Mentouri Constantine, 2016 . - 70 f. ; 30 cm. Une copie electronique PDF disponible en BUC Langues : Français ( fre)
Catégories : |
Sciences Exactes:Mathématiques
|
Tags : |
Statistique Appliquée l’extreme leArning mAchine |
Index. décimale : |
510 Mathématiques |
Résumé : |
Le but de notre mémoire est de présenter les algorithmes d’apprentissage des réseaux de neurones artificiels : de la rétro-propagation jusqu’à l’Extreme Learning Machine.
Pour cela nous allons d’abord définir succinctement : la bonne définition du réseau, son architecture et les différents algorithmes d’entraînement avec lesquels ses paramètres doivent être ajustés.
Les différentes méthodes ont été basées sur deux critères : le critère de précision et le critère de vitesse de convergence.
L’apprentissage des réseaux de neurones se fait de manière itérative par l’ajustement graduel des poids. Le critère à minimiser est celui de l’erreur quadratique moyenne. Le premier algorithme qui permet de conduire cette opération est celui de la rétro propagation du gradient. C’est l’algorithme de base, mais ceux qui ont suivi ont apporté de plus en plus d’améliorations.
Ensuite nous exprimons les méthodes de premier ordre : la rétro propagation, Momentum, delta-bar-delta (taux d’apprentissage adaptatif), la descente la plus raide.
Nous allons discuter aussi les méthodes du second ordre : Quick-Prop, Gauss-Newton, Lenverberg-Marquardt.
Nous avons, en plus, traité la question de quel est le meilleur algorithme qui permet d’obtenir la bonne performance dans un meilleur temps.
Pour cela nous présentons l’algorithme de l’Extreme Learning Machine qui n’est pas encore largement connu, car il est actuellement au stade de la recherche. Cet algorithme permet d’obtenir une précision équivalente à celle fournie par les meilleurs algorithmes actuels. Mais il les surpasse par le fait qu’il élimine un défaut de taille : la lenteur. En effet c’est un algorithme extrêmement rapide car il est basé sur un procédé de calculs analytiques et non sur un processus d’ajustements itératifs. |
Diplome : |
Master 2 |
Permalink : |
https://bu.umc.edu.dz/master/index.php?lvl=notice_display&id=4674 |
|
Réservation
Réserver ce document
Exemplaires (1)
|
MSMTH160053 | MSMTH160053 | Document électronique | Bibliothèque principale | Mémoires | Disponible |
Documents numériques
texte intégreAdobe Acrobat PDF | | |