Catalogue des Mémoires de master
Détail de l'auteur
Auteur Ahmed Chibat |
Documents disponibles écrits par cet auteur (10)



Titre : Algorithmes d’apprentissage des réseaux de neurones artificiels : de larétro propagation jusqu’à l’extreme learning machine Type de document : texte imprimé Auteurs : Anisssa Naidji, Auteur ; Merieme Siouda, Auteur ; Ahmed Chibat, Directeur de thèse Editeur : CONSTANTINE [ALGERIE] : Université Frères Mentouri Constantine Année de publication : 2016 Importance : 70 f. Format : 30 cm. Note générale : Une copie electronique PDF disponible en BUC Langues : Français (fre) Catégories : Sciences Exactes:Mathématiques Tags : Statistique Appliquée l’extreme leArning mAchine Index. décimale : 510 Mathématiques Résumé : Le but de notre mémoire est de présenter les algorithmes d’apprentissage des réseaux de neurones artificiels : de la rétro-propagation jusqu’à l’Extreme Learning Machine.
Pour cela nous allons d’abord définir succinctement : la bonne définition du réseau, son architecture et les différents algorithmes d’entraînement avec lesquels ses paramètres doivent être ajustés.
Les différentes méthodes ont été basées sur deux critères : le critère de précision et le critère de vitesse de convergence.
L’apprentissage des réseaux de neurones se fait de manière itérative par l’ajustement graduel des poids. Le critère à minimiser est celui de l’erreur quadratique moyenne. Le premier algorithme qui permet de conduire cette opération est celui de la rétro propagation du gradient. C’est l’algorithme de base, mais ceux qui ont suivi ont apporté de plus en plus d’améliorations.
Ensuite nous exprimons les méthodes de premier ordre : la rétro propagation, Momentum, delta-bar-delta (taux d’apprentissage adaptatif), la descente la plus raide.
Nous allons discuter aussi les méthodes du second ordre : Quick-Prop, Gauss-Newton, Lenverberg-Marquardt.
Nous avons, en plus, traité la question de quel est le meilleur algorithme qui permet d’obtenir la bonne performance dans un meilleur temps.
Pour cela nous présentons l’algorithme de l’Extreme Learning Machine qui n’est pas encore largement connu, car il est actuellement au stade de la recherche. Cet algorithme permet d’obtenir une précision équivalente à celle fournie par les meilleurs algorithmes actuels. Mais il les surpasse par le fait qu’il élimine un défaut de taille : la lenteur. En effet c’est un algorithme extrêmement rapide car il est basé sur un procédé de calculs analytiques et non sur un processus d’ajustements itératifs.Diplome : Master 2 Permalink : https://bu.umc.edu.dz/master/index.php?lvl=notice_display&id=4674 Algorithmes d’apprentissage des réseaux de neurones artificiels : de larétro propagation jusqu’à l’extreme learning machine [texte imprimé] / Anisssa Naidji, Auteur ; Merieme Siouda, Auteur ; Ahmed Chibat, Directeur de thèse . - CONSTANTINE [ALGERIE] : Université Frères Mentouri Constantine, 2016 . - 70 f. ; 30 cm.
Une copie electronique PDF disponible en BUC
Langues : Français (fre)
Catégories : Sciences Exactes:Mathématiques Tags : Statistique Appliquée l’extreme leArning mAchine Index. décimale : 510 Mathématiques Résumé : Le but de notre mémoire est de présenter les algorithmes d’apprentissage des réseaux de neurones artificiels : de la rétro-propagation jusqu’à l’Extreme Learning Machine.
Pour cela nous allons d’abord définir succinctement : la bonne définition du réseau, son architecture et les différents algorithmes d’entraînement avec lesquels ses paramètres doivent être ajustés.
Les différentes méthodes ont été basées sur deux critères : le critère de précision et le critère de vitesse de convergence.
L’apprentissage des réseaux de neurones se fait de manière itérative par l’ajustement graduel des poids. Le critère à minimiser est celui de l’erreur quadratique moyenne. Le premier algorithme qui permet de conduire cette opération est celui de la rétro propagation du gradient. C’est l’algorithme de base, mais ceux qui ont suivi ont apporté de plus en plus d’améliorations.
Ensuite nous exprimons les méthodes de premier ordre : la rétro propagation, Momentum, delta-bar-delta (taux d’apprentissage adaptatif), la descente la plus raide.
Nous allons discuter aussi les méthodes du second ordre : Quick-Prop, Gauss-Newton, Lenverberg-Marquardt.
Nous avons, en plus, traité la question de quel est le meilleur algorithme qui permet d’obtenir la bonne performance dans un meilleur temps.
Pour cela nous présentons l’algorithme de l’Extreme Learning Machine qui n’est pas encore largement connu, car il est actuellement au stade de la recherche. Cet algorithme permet d’obtenir une précision équivalente à celle fournie par les meilleurs algorithmes actuels. Mais il les surpasse par le fait qu’il élimine un défaut de taille : la lenteur. En effet c’est un algorithme extrêmement rapide car il est basé sur un procédé de calculs analytiques et non sur un processus d’ajustements itératifs.Diplome : Master 2 Permalink : https://bu.umc.edu.dz/master/index.php?lvl=notice_display&id=4674 Réservation
Réserver ce document
Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MSMTH160053 MSMTH160053 Document électronique Bibliothèque principale Mémoires Disponible Documents numériques
![]()
texte intégreAdobe Acrobat PDF
Titre : L’analyse en composantes principales dans les réseaux de neurones : Prétraitement des données pour un modèle prédictif Type de document : texte imprimé Auteurs : Ikhlas Bensouilah, Auteur ; Abdessamed Bouzourane, Auteur ; Ahmed Chibat, Directeur de thèse Editeur : CONSTANTINE [ALGERIE] : Université Frères Mentouri Constantine Année de publication : 2017 Importance : 120 f. Format : 30 cm. Note générale : Une copie electronique PDF disponible en BUC Langues : Français (fre) Catégories : Sciences Exactes:Mathématiques Tags : Réseau de neurone notion de base de réseau de neurone l‟analyse en composantes principales la multicolinéarité réduction de dimension modélisation généralisation prédiction approximation successives Index. décimale : 510 Mathématiques Résumé : En statistique, l‟une des grandes questions est celle de la modélisation. Cette modélisation est surtout construite dans le but de la prédiction.
Les réseaux de neurones constituent une nouvelle méthode qui vient s‟ajouter aux méthodes de modélisation connues en statistique.
Tous les problèmes qui trouvent une solution avec les méthodes traditionnelles de la statistique trouvent également une solution de la même qualité avec les réseaux de neurones.
Chaque méthode classique possède son équivalent avec les réseaux de neurones.
 Un neurone linéaire à entrées multiples donne l‟équivalent de la régression linéaire multiple.
 Un neurone non linéaire donne l‟équivalent de la régression non linéaire.
Cependant, techniquement les réseaux de neurones peuvent produire facilement des solutions qui sont difficiles à obtenir par les méthodes classiques. Particulièrement lorsque le modèle est fortement non linéaire avec des variables nombreuses.
Les méthodes d‟apprentissages itératives permettent de déterminer les paramètres du modèle par approximation successives. Ce qui permet d‟éviter de chercher des solutions analytiques qui deviennent extrêmement difficiles à obtenir lorsque le problème est complexe.
Mais les questions qui se posent dans le cadre des méthodes traditionnelles continuent de se poser aussi dans le cadre des réseaux de neurones. Lorsque nous construisons un modèle dans un but de prédiction, la question la plus importante est celle de la généralisation : le modèle doit être le plus précis possible sur de nouvelles observations.
Ceci dépend de la qualité du modèle. Mais il dépend aussi de la qualité des données.
Un grand problème par exemple est celui où les variables explicatives sont fortement corrélées. Le modèle devient instable avec une faible capacité de généralisation. Ce problème se pose déjà dans le cadre de la régression linéaire multiple classique. Il se pose aussi dans le cadre des réseaux de neurones.
Dans notre mémoire, nous avons étudiée une méthode qui permet de corriger les effets de la multi-colinéarité. Au lieu de fournir les variables explicatives directement au réseau nous procédons d‟abord à une transformation des variables.
Nous faisons une analyse en composantes principales sur les variables explicatives. Le but n‟est pas de réduire la dimension de l‟espace des variables, comme cela se fait d‟habitude, mais plutôt d‟obtenir des variables orthogonales qui seront les nouvelles variables explicatives.
Avec ces nouvelles variables le problème de la multi-colinéarité ne se pose pas.Diplome : Master 2 Permalink : https://bu.umc.edu.dz/master/index.php?lvl=notice_display&id=3944 L’analyse en composantes principales dans les réseaux de neurones : Prétraitement des données pour un modèle prédictif [texte imprimé] / Ikhlas Bensouilah, Auteur ; Abdessamed Bouzourane, Auteur ; Ahmed Chibat, Directeur de thèse . - CONSTANTINE [ALGERIE] : Université Frères Mentouri Constantine, 2017 . - 120 f. ; 30 cm.
Une copie electronique PDF disponible en BUC
Langues : Français (fre)
Catégories : Sciences Exactes:Mathématiques Tags : Réseau de neurone notion de base de réseau de neurone l‟analyse en composantes principales la multicolinéarité réduction de dimension modélisation généralisation prédiction approximation successives Index. décimale : 510 Mathématiques Résumé : En statistique, l‟une des grandes questions est celle de la modélisation. Cette modélisation est surtout construite dans le but de la prédiction.
Les réseaux de neurones constituent une nouvelle méthode qui vient s‟ajouter aux méthodes de modélisation connues en statistique.
Tous les problèmes qui trouvent une solution avec les méthodes traditionnelles de la statistique trouvent également une solution de la même qualité avec les réseaux de neurones.
Chaque méthode classique possède son équivalent avec les réseaux de neurones.
 Un neurone linéaire à entrées multiples donne l‟équivalent de la régression linéaire multiple.
 Un neurone non linéaire donne l‟équivalent de la régression non linéaire.
Cependant, techniquement les réseaux de neurones peuvent produire facilement des solutions qui sont difficiles à obtenir par les méthodes classiques. Particulièrement lorsque le modèle est fortement non linéaire avec des variables nombreuses.
Les méthodes d‟apprentissages itératives permettent de déterminer les paramètres du modèle par approximation successives. Ce qui permet d‟éviter de chercher des solutions analytiques qui deviennent extrêmement difficiles à obtenir lorsque le problème est complexe.
Mais les questions qui se posent dans le cadre des méthodes traditionnelles continuent de se poser aussi dans le cadre des réseaux de neurones. Lorsque nous construisons un modèle dans un but de prédiction, la question la plus importante est celle de la généralisation : le modèle doit être le plus précis possible sur de nouvelles observations.
Ceci dépend de la qualité du modèle. Mais il dépend aussi de la qualité des données.
Un grand problème par exemple est celui où les variables explicatives sont fortement corrélées. Le modèle devient instable avec une faible capacité de généralisation. Ce problème se pose déjà dans le cadre de la régression linéaire multiple classique. Il se pose aussi dans le cadre des réseaux de neurones.
Dans notre mémoire, nous avons étudiée une méthode qui permet de corriger les effets de la multi-colinéarité. Au lieu de fournir les variables explicatives directement au réseau nous procédons d‟abord à une transformation des variables.
Nous faisons une analyse en composantes principales sur les variables explicatives. Le but n‟est pas de réduire la dimension de l‟espace des variables, comme cela se fait d‟habitude, mais plutôt d‟obtenir des variables orthogonales qui seront les nouvelles variables explicatives.
Avec ces nouvelles variables le problème de la multi-colinéarité ne se pose pas.Diplome : Master 2 Permalink : https://bu.umc.edu.dz/master/index.php?lvl=notice_display&id=3944 Réservation
Réserver ce document
Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MSMTH170021 MSMTH170021 Document électronique Bibliothèque principale Mémoires Disponible Documents numériques
![]()
texte intégreAdobe Acrobat PDF
Titre : Analyse discriminante de Ficher et perceptron Type de document : texte imprimé Auteurs : Kenza Berkane, Auteur ; Sara Ahli, Auteur ; Ahmed Chibat, Directeur de thèse Editeur : CONSTANTINE [ALGERIE] : Université Frères Mentouri Constantine Année de publication : 2014 Importance : 55 f. Format : 30 cm. Note générale : Une copie electronique PDF disponible en BUC Langues : Français (fre) Catégories : Sciences Exactes:Mathématiques Tags : statistique appliquée Analyse discriminante Index. décimale : 510 Mathématiques Diplome : Master 2 Permalink : https://bu.umc.edu.dz/master/index.php?lvl=notice_display&id=5334 Analyse discriminante de Ficher et perceptron [texte imprimé] / Kenza Berkane, Auteur ; Sara Ahli, Auteur ; Ahmed Chibat, Directeur de thèse . - CONSTANTINE [ALGERIE] : Université Frères Mentouri Constantine, 2014 . - 55 f. ; 30 cm.
Une copie electronique PDF disponible en BUC
Langues : Français (fre)
Catégories : Sciences Exactes:Mathématiques Tags : statistique appliquée Analyse discriminante Index. décimale : 510 Mathématiques Diplome : Master 2 Permalink : https://bu.umc.edu.dz/master/index.php?lvl=notice_display&id=5334 Réservation
Réserver ce document
Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MSMTH140014 MSMTH140014 Document électronique Bibliothèque principale Mémoires Disponible Documents numériques
![]()
texte intégreAdobe Acrobat PDF
Titre : Analyse discriminante de Fisher et méthodes neuronales non linéaires Type de document : texte imprimé Auteurs : Moufida Bioud, Auteur ; Warda Ksir, Auteur ; Ahmed Chibat, Directeur de thèse Editeur : CONSTANTINE [ALGERIE] : Université Frères Mentouri Constantine Année de publication : 2014 Importance : 58 f. Format : 30 cm. Note générale : Une copie electronique PDF disponible en BUC Langues : Français (fre) Catégories : Sciences Exactes:Mathématiques Tags : statistique appliquee Analyse discriminante Index. décimale : 510 Mathématiques Diplome : Master 2 Permalink : https://bu.umc.edu.dz/master/index.php?lvl=notice_display&id=5330 Analyse discriminante de Fisher et méthodes neuronales non linéaires [texte imprimé] / Moufida Bioud, Auteur ; Warda Ksir, Auteur ; Ahmed Chibat, Directeur de thèse . - CONSTANTINE [ALGERIE] : Université Frères Mentouri Constantine, 2014 . - 58 f. ; 30 cm.
Une copie electronique PDF disponible en BUC
Langues : Français (fre)
Catégories : Sciences Exactes:Mathématiques Tags : statistique appliquee Analyse discriminante Index. décimale : 510 Mathématiques Diplome : Master 2 Permalink : https://bu.umc.edu.dz/master/index.php?lvl=notice_display&id=5330 Réservation
Réserver ce document
Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MSMTH140011 MSMTH140011 Document électronique Bibliothèque principale Mémoires Disponible Documents numériques
![]()
texte intégreAdobe Acrobat PDF
Titre : Approximation De fonctions par les réseaux de neurones à propagation avant Type de document : texte imprimé Auteurs : Wafa Hammoudi, Auteur ; Ilhem Maâlem, Auteur ; Ahmed Chibat, Directeur de thèse Editeur : CONSTANTINE [ALGERIE] : Université Frères Mentouri Constantine Année de publication : 2015 Importance : 55 f. Format : 30 cm. Note générale : Une copie electronique PDF disponible au BUC. Langues : Français (fre) Catégories : Sciences Exactes:Mathématiques Tags : Statistique Appliquée Sciences Exactes Index. décimale : 510 Mathématiques Résumé : L’objet de notre mémoire est de présenter les réseaux de neurones artificiels comme outil
pour l’approximation des fonctions.
Nous avons abordé tous les aspects qui touchent à la question : la bonne définition du
réseau, son architecture et les différents algorithmes d’entraînement avec lesquels ses
paramètres doivent être ajustés.
Les différentes méthodes ont été présentées en respectant leurs évolutions en termes de
précision et en termes de vitesse de convergence.
L’apprentissage des réseaux de neurones se fait de manière itérative par l’ajustement
graduel des poids. Le critère à minimiser est celui de l’erreur quadratique moyenne. Le
premier algorithme qui permet de conduire cette opération est celui de la rétro propagation
du gradient. C’est l’algorithme de base, mais ceux qui ont suivi ont apporté de plus en plus
d’améliorations.
Nous avons abordé les algorithmes du premier ordre, puis ceux du deuxième ordre, pour
conclure avec les outils les plus actuels.
Nous avons, en plus, fait de la question du nombre de neurones cachés l’objet d’une
application pratique et d’une étude par simulation.Diplome : Master 2 Permalink : https://bu.umc.edu.dz/master/index.php?lvl=notice_display&id=1232 Approximation De fonctions par les réseaux de neurones à propagation avant [texte imprimé] / Wafa Hammoudi, Auteur ; Ilhem Maâlem, Auteur ; Ahmed Chibat, Directeur de thèse . - CONSTANTINE [ALGERIE] : Université Frères Mentouri Constantine, 2015 . - 55 f. ; 30 cm.
Une copie electronique PDF disponible au BUC.
Langues : Français (fre)
Catégories : Sciences Exactes:Mathématiques Tags : Statistique Appliquée Sciences Exactes Index. décimale : 510 Mathématiques Résumé : L’objet de notre mémoire est de présenter les réseaux de neurones artificiels comme outil
pour l’approximation des fonctions.
Nous avons abordé tous les aspects qui touchent à la question : la bonne définition du
réseau, son architecture et les différents algorithmes d’entraînement avec lesquels ses
paramètres doivent être ajustés.
Les différentes méthodes ont été présentées en respectant leurs évolutions en termes de
précision et en termes de vitesse de convergence.
L’apprentissage des réseaux de neurones se fait de manière itérative par l’ajustement
graduel des poids. Le critère à minimiser est celui de l’erreur quadratique moyenne. Le
premier algorithme qui permet de conduire cette opération est celui de la rétro propagation
du gradient. C’est l’algorithme de base, mais ceux qui ont suivi ont apporté de plus en plus
d’améliorations.
Nous avons abordé les algorithmes du premier ordre, puis ceux du deuxième ordre, pour
conclure avec les outils les plus actuels.
Nous avons, en plus, fait de la question du nombre de neurones cachés l’objet d’une
application pratique et d’une étude par simulation.Diplome : Master 2 Permalink : https://bu.umc.edu.dz/master/index.php?lvl=notice_display&id=1232 Réservation
Réserver ce document
Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MSMTH150037 MSMTH150037 Document électronique Bibliothèque principale Mémoires Disponible Documents numériques
![]()
texte integréAdobe Acrobat PDFArbres de décision, analyse discriminante et méthode des plus proches voisins dans la classification supervisée / Walid Bouchareb
![]()
PermalinkArchitectures neuronales adaptées à la classification et à la reconnaissance de formes. Etude des cas / Naziha Boulazazen
![]()
PermalinkPermalinkTechniques agglomératives et techniques d’optimisation dans la classification non supervisée / abdelmalek Benaimeur
![]()
PermalinkPermalink