Passer aux informations sur le produit
Apprentissage automatique avec statistiques 2e édition
Apprentissage automatique avec statistiques 2e édition
Description
Introduction au livre
Explique l'apprentissage de modèles par le biais de l'apprentissage automatique dans un cadre statistique.
Vous pouvez explorer diverses théories statistiques et découvrir leur importance dans les algorithmes d'apprentissage automatique, allant de la régression aux réseaux neuronaux.
Ce livre est recommandé à ceux qui souhaitent approfondir leur compréhension des données en allant au-delà de la simple application de modèles d'apprentissage automatique et en s'intéressant au fondement théorique de ces modèles.
  • Vous pouvez consulter un aperçu du contenu du livre.
    Aperçu
","
indice
Chapitre 1.
introduction


Chapitre 2.
Aperçu de l'apprentissage supervisé
__2.1 Introduction
__2.2 Types de variables et terminologie
__2.3 Deux approches simples de la prédiction : les moindres carrés et les plus proches voisins
____2.3.1 Modèles linéaires et moindres carrés42
____2.3.2 Méthode du plus proche voisin
____2.3.3 Des moindres carrés aux plus proches voisins
2.4 Théorie de la décision statistique
2.5 Méthodes locales en grande dimension
__2.6 Modèles statistiques, apprentissage supervisé et approximation de fonctions60
____2.6.1 Modèle statistique pour la distribution conjointe Pr(X, Y)
____2.6.2 Apprentissage supervisé
____2.6.3 Approximation de fonction
__2.7 Modèle de régression structuré
____2.7.1 Difficulté du problème
__2.8 Types d'estimateurs restreints
____2.8.1 Pénalité d'illumination et méthode de Bayes
____2.8.2 Méthode du noyau et régression locale
____2.8.3 Fonctions de base et méthodes de dictionnaire
2.9 Sélection du modèle et compromis biais-variance
__Références
__Problèmes pratiques


Chapitre 3.
Méthodes linéaires de régression
3.1 Introduction
3.2 Modèle de régression linéaire et moindres carrés
____3.2.1 Exemple : Cancer de la prostate
____3.2.2 Théorème de Gauss-Markov
3.2.3 Régression multiple à partir d'une régression univariée simple
____3.2.4 Sorties multiples
3.3 Sélection de sous-ensembles
____3.3.1 Sélection du meilleur sous-ensemble
3.3.2 Sélection par étapes avant et arrière
____3.3.3 Progression - Régression étape par étape
____3.3.4 Exemple de données sur le cancer de la prostate (suite)
3.4 Méthode de contraction
3.4.1 Régression Ridge
____3.4.2 Lasso
3.4.3 Discussion : Sélection de sous-ensembles, régression Ridge et Lasso
____3.4.4 Régression du moindre angle
3.5 Méthodes utilisant des directions d'entrée dérivées
3.5.1 Régression par composantes principales
____3.5.2 Moindres carrés partiels
3.6 Discussion : Comparaison des méthodes de sélection et de contraction
3.7 Réduction et sélection des résultats multiples
3.8 Notes complémentaires sur le lasso et les algorithmes de chemin apparentés
3.8.1 Régression progressive étape par étape
____3.8.2 Algorithme de chemin linéaire par morceaux
____3.8.3 Sélecteur Danzig
____3.8.4 Lasso groupé
____3.8.5 Propriétés supplémentaires du lasso
____3.8.6 Optimisation des coordonnées spécifiques au chemin
3.9 Considérations opérationnelles
__Références
__Problèmes pratiques


Chapitre 4.
Méthodes linéaires de classification
4.1 Introduction
4.2 Régression linéaire de la matrice indicatrice
4.3 Analyse discriminante linéaire
____4.3.1 Analyse discriminante classique
____4.3.2 Opérations pour LDA
____4.3.3 Analyse discriminante linéaire à rang réduit
4.4 Régression logistique
____4.4.1 Ajustement d'un modèle de régression logistique
____4.4.2 Exemple : Les maladies cardiaques chez les Sud-Africains
4.4.3 Approximation quadratique et inférence
____4.4.4 Régression logistique régularisée L1
____4.4.5 Régression logistique ou LDA ?
__4.5 Hyperplan de séparation
____4.5.1 Algorithme d'apprentissage du perceptron de Rosenblatt
____4.5.2 Hyperplan de séparation optimal
__Références
__Problèmes pratiques


Chapitre 5.
Extension de base et régularisation
5.1 Introduction
5.2 Polynômes par morceaux et splines
____5.2.1 Splines cubiques naturelles
____5.2.2 Exemple : Maladies cardiaques en Afrique du Sud (suite)
____5.2.3 Exemple : Reconnaissance des phonèmes
5.3 Filtrage et extraction de caractéristiques
__5.4 Splines de lissage
____5.4.1 Degrés de liberté et matrices lisses
5.5 Sélection automatique des paramètres de lissage
____5.5.1 Fixation des degrés de liberté
____5.5.2 Compromis biais-variance
5.6 Régression logistique non paramétrique
__5.7 Splines multidimensionnelles
__5.8 Espaces de Hilbert à noyau régularisé et régénéré
____5.8.1 Espace des fonctions engendrées par le noyau
____5.8.2 Exemple RKHS
__5.9 Lissage par ondelettes
____5.9.1 Base d'ondelettes et transformation en ondelettes
____5.9.2 Filtrage adaptatif par ondelettes
__Références
__Problèmes pratiques
__Annexe : Opérations sur les splines
____B - Spline
____Fonctionnement des splines de lissage


Chapitre 6.
Lissage par noyau
6.1 Lisseur à noyau unidimensionnel
____6.1.1 Régression linéaire locale
____6.1.2 Régression polynomiale locale
6.2 Choix de la largeur du noyau
6.3 Régression locale dans Rp
6.4 Modèle de régression locale structurelle dans Rp
____6.4.1 Noyau structuré
6.4.2 Fonction de régression structurée
6.5 Vraisemblance locale et autres modèles
6.6 Estimation et classification de la densité du noyau
____6.6.1 Estimation de la densité du noyau
____6.6.2 Classification par densité de noyau
____6.6.3 Classificateur bayésien simple
6.7 Fonctions de base radiales et noyaux
6.8 Modèles de mélange pour l'estimation et la classification de la densité
6.9 Considérations opérationnelles
__Références
__Problèmes pratiques


Chapitre 7.
Évaluation et sélection du modèle
__7.1 Introduction
7.2 Biais, variance et complexité du modèle
7.3 Décomposition biais-variance
____7.3.1 Exemple : Compromis biais-variance
7.4 Optimisme concernant le taux d'erreur d'entraînement
7.5 Estimations des erreurs de prédiction intra-échantillon
__7.6 Nombre de paramètres valides
7.7 Approche bayésienne et BIC
__7.8 Longueur minimale de la description
__7.9 Dimension de Bobnik-Chevnenko
____7.9.1 Exemple (suite)
__7.10 Validation croisée
____7.10.1 Validation croisée à K plis
____7.10.2 Bonnes et mauvaises façons de procéder à la validation croisée
____7.10.3 La validation croisée fonctionne-t-elle vraiment ?
__7.11 Méthode Bootstrap
____7.11.1 Exemple (suite)
__7.12 Erreur de test conditionnel ou attendu
__Références
__Problèmes pratiques


Chapitre 8.
Inférence et moyennage des modèles
8.1 Introduction
8.2 Méthodes de bootstrap et de maximum de vraisemblance
____8.2.1 Exemple de lissage
8.2.2 Estimation du maximum de vraisemblance
____8.2.3 Bootstrap vs. Maximum de vraisemblance
8.3 Méthode bayésienne
8.4 Relation entre le bootstrap et l'estimation bayésienne
__8.5 Algorithme EM
____8.5.1 Modèle de mélange à 2 composants
____8.5.2 Algorithme EM général
8.5.3 Maximisation - EM en tant que processus de maximisation
8.6 MCMC pour l'échantillonnage de la distribution a posteriori
8.7 Ensachage
8.7.1 Exemple : Arbre avec données simulées
8.8 Moyennage et empilement des modèles
8.9 Recherche probabiliste : Bumping
__Références
__Problèmes pratiques


Chapitre 9.
Modèles additifs, arbres et méthodes connexes
__9.1 Modèle additif généralisé
____9.1.1 Ajustement du modèle additif
____9.1.2 Exemple : Régression logistique additive
____9.1.3 Résumé
__9.2 Méthode arborescente
____9.2.1 Contexte
____9.2.2 Arbres de régression
____9.2.3 Arbre de classification
____9.2.4 Autres points
____9.2.5 Exemple de spam (suite)
__9.3 PRIMM : Recherche de bosses
____9.3.1 Exemple de spam (suite)
__9.4 MARS : Splines de régression adaptatives multivariées
____9.4.1 Données de spam (suite)
____9.4.2 Exemple (données simulées)
____9.4.3 Autres problèmes
__9.5 Mix de classe expert
__9.6 Données manquantes
__9.7 Considérations opérationnelles
__Références
__Problèmes pratiques


Chapitre 10.
Arbres de renforcement et d'addition
__10.1 Méthode de boosting
____10.1.1 Vue d'ensemble
__10.2 Amélioration de l'ajustement et des modèles additifs
10.3 Modélisation additive par étape directe
__10.4 Perte exponentielle et Ada Boost
__10.5 Pourquoi une perte exponentielle ?
__10.6 Fonction de perte et robustesse
__10.7 Cours « clés en main » pour l'exploration de données
__10.8 Exemple : Données de spam
__10.9 Arbre de boost
__10.10 Optimisation numérique par gradient boosting
____10.10.1 Descente la plus raide
____10.10.2 Gradient Boosting
____10.10.3 Implémentation du Gradient Boosting
__10.11 Arbre de taille appropriée pour la stimulation
__10.12 Régularisation
____10.12.1 Contraction
____10.12.2 Sous-échantillonnage
__10.13 Interprétation
____10.13.1 Importance relative des prédicteurs
____10.13.2 Diagramme de dépendance partielle
__10.14 Illustration
____10.14.1 Logement en Californie
____10.14.2 Poissons de Nouvelle-Zélande
____10.14.3 Données démographiques
__Références
__Problèmes pratiques


Chapitre 11.
réseau neuronal
__11.1 Introduction
__11.2 Traceback projectif
__11.3 Réseaux neuronaux
__11.4 Ajustement d'un réseau neuronal
11.5 Problèmes rencontrés lors de l'entraînement des réseaux de neurones
____11.5.1 Valeur initiale
____11.5.2 Surapprentissage
____11.5.3 Mise à l'échelle des variables d'entrée
____11.5.4.
Nombre d'unités et de couches cachées
____11.5.5 Valeurs minimales multiples
__11.6 Exemple : Données de simulation
__11.7 Exemple : Données de code postal
__11.8 Discussion
__11.9 Réseaux neuronaux bayésiens et le défi NIPS 2003
____11.9.1 Bayes, Boosting et Bagging
____11.9.2 Comparaison des performances
__11.10 Considérations opérationnelles
__Références
__Problèmes pratiques


Chapitre 12.
Machines à vecteurs de support et discriminants flexibles
__12.1 Introduction
__12.2 Classificateur à vecteurs de support
____12.2.1 Calcul du classificateur à vecteurs de support
____12.2.2 Exemple mixte (suite)
__12.3 Machines à vecteurs de support et noyaux
____12.3.1 Opérations SVM pour la classification
____12.3.2 SVM en tant que méthode de pénalisation
____12.3.3 Estimation de fonction et noyau de relecture
____12.3.4 Les SVM et le fléau de la dimensionnalité
____12.3.5 Algorithme de chemin pour classificateur SVM
____12.3.6 Machines à vecteurs de support pour la régression
____12.3.7 Régression et noyaux
____12.3.8 Discussion
12.4 Analyse discriminante linéaire généralisée
12.5 Analyse discriminante flexible
____12.5.1 Calcul des estimations de la FDA
__12.6 Analyse discriminante des pénalités
12.7 Analyse discriminante mixte
____12.7.1 Exemple : Données de forme d’onde
__12.8 Considérations opérationnelles
__Références
__Problèmes pratiques


Chapitre 13.
Méthode du prototype et méthode du plus proche voisin
__13.1 Vue d'ensemble
__13.2 Méthode de prototypage
____13.2.1 Clustering K-means
____13.2.2 Apprentissage de la quantification vectorielle
____13.2.3 Mélange gaussien
__13.3 Classificateur des k plus proches voisins
____13.3.1 Exemple : Étude comparative
____13.3.2 Exemple : Classification de scènes par la méthode des k plus proches voisins
____13.3.3 Métriques invariantes et distance tangente
__13.4 Méthode du plus proche voisin adaptatif
____13.4.1 Exemple
____13.4.2 Réduction globale de la dimensionnalité pour les plus proches voisins
__13.5 Considérations opérationnelles
__Références
__Problèmes pratiques


Chapitre 14.
apprentissage non supervisé
__14.1 Vue d'ensemble
14.2 Règles de l'association
____14.2.1 Analyse du panier d'achat
____14.2.2 Algorithme Apriori
____14.2.3 Exemple : Analyse du panier d'achat
____14.2.4 Apprentissage non supervisé comme apprentissage supervisé
____14.2.5 Règles d'association généralisées
____14.2.6 Choix d'une méthode d'apprentissage supervisé
____14.2.7 Exemple : Analyse du panier d’achat (suite)
14.3 Analyse de regroupement
____14.3.1 Matrice de proximité
____14.3.2 Dissimilarité fondée sur les attributs
____14.3.3 Dissimilitude individuelle
____14.3.4 Algorithmes de clustering
____14.3.5 Algorithmes combinatoires
____14.3.6 K - Moyenne
____14.3.7 K - Mélange gaussien comme regroupement moyen
____14.3.8 Exemple : Données de microarrays de tumeurs humaines
____14.3.9 Quantification vectorielle
____14.3.10 K-Médiane
____14.3.11 Questions pratiques
____14.3.12 Classification hiérarchique
__14.4 Carte auto-organisatrice
__14.5 Composantes principales, courbes principales et surfaces principales
____14.5.1 Ingrédients principaux
____14.5.2 Courbes principales et surfaces principales
____14.5.3 Regroupement spectral
____14.5.4 Composants du noyau
____14.5.5 Composante principale Lean
__14.6 Décomposition de matrices non négatives
____14.6.1 Analyse circulaire
__14.7 Analyse en composantes indépendantes et traçage projectif exploratoire
14.7.1 Variables latentes et analyse factorielle
____14.7.2 Analyse en composantes indépendantes
____14.7.3 Traçage projectif exploratoire
____14.7.4 Approche directe de l'ICA
__14.8 Mise à l'échelle multidimensionnelle
__14.9 Réduction non linéaire de la dimensionnalité et mise à l'échelle multidimensionnelle locale
__14.10 Algorithme PageRank de Google
__Références
__Problèmes pratiques


Chapitre 15.
Forêt aléatoire
__15.1 Aperçu
15.2 Définition de la forêt aléatoire
__15.3 Détails de la forêt aléatoire
____15.3.1 Échantillon hors sachet
____15.3.2 Importance des variables
____15.3.3 Tableau de proximité
____15.3.4 Forêts aléatoires et surapprentissage
__15.4 Analyse des forêts aléatoires
____15.4.1 Effets de variance et de corrélation
____15.4.2 Biais
____15.4.3 Voisin le plus proche adaptatif
__Références
__Problèmes pratiques


Chapitre 16.
apprentissage en ensemble
__16.1 Aperçu
__16.2 Chemins de boosting et de régularisation
____16.2.1 Régression pénalisée
____16.2.2 Principe du « pari sur la rareté »
____16.2.3 Chemins de régularisation, surapprentissage et marges
__16.3 Apprentissage en groupe
____16.3.1 Apprendre à bien jouer en ensemble
____16.3.2 Ensemble de règles
__Références
__Problèmes pratiques


Chapitre 17.
modèle de graphe non orienté
__17.1 Aperçu
17.2 Graphes de Markov et leurs propriétés
__17.3 Modèles graphiques non orientés pour les variables continues
____17.3.1 Estimation des paramètres lorsque la structure du graphe est connue
____17.3.2 Estimation de la structure du graphe
__17.4 Modèles de graphes non orientés pour les variables discrètes
____17.4.1 Estimation des paramètres lorsque la structure du graphe est connue
____17.4.2 Nœuds cachés
____17.4.3 Estimation de la structure du graphe
____17.4.4 Machine de Boltzmann contrainte
__Références
__Problèmes pratiques


Chapitre 18.
Problème de grande dimension : p≪N
18.1 Lorsque p est beaucoup plus grand que N
18.2 Analyse discriminante linéaire diagonale et centre de rétrécissement le plus proche
__18.3 Classificateur linéaire régularisé quadratique
____18.3.1 Analyse discriminante classique
____18.3.2 Régression logistique avec régularisation quadratique
____18.3.3 Classificateur à vecteurs de support
____18.3.4 Sélection des fonctionnalités
____18.3.5 Raccourci opérationnel lorsque p ≫ N
__18.4 Classificateur linéaire régularisé L1
____18.4.1 Application du lasso à la spectrométrie de masse des protéines
____18.4.2 Lasso fusionné pour les données fonctionnelles
18.5 Classification lorsque les caractéristiques ne peuvent être utilisées
____18.5.1 Exemple : Classification des noyaux de chaînes et des protéines
____18.5.2 Classification et autres méthodes utilisant le noyau de produit scalaire et les distances par paires
____18.5.3 Exemple : Classification abstraite
18.6 Régression multidimensionnelle : composantes principales supervisées
____18.6.1 Lien avec la modélisation des variables latentes
____18.6.2 Relation avec les moindres carrés partiels
____18.6.3 Préconditionnement pour la sélection des caractéristiques
__18.7 Évaluation des fonctionnalités et problèmes de tests multiples
____18.7.1 Taux de fausses découvertes
____18.7.2 Points de coupe asymétriques et processus SAM
____18.7.3 Interprétation bayésienne du FDR
__18.8 Références
__Problèmes pratiques
","
Image détaillée
Image détaillée 1
","
Avis de l'éditeur
★ Public cible de ce livre ★

Il a été écrit à l'intention des chercheurs et des étudiants de divers domaines tels que les statistiques, l'intelligence artificielle, l'ingénierie et la finance.
Nous supposons que les lecteurs de ce livre ont suivi au moins un cours d'introduction aux statistiques couvrant les sujets fondamentaux, notamment la régression linéaire.

Plutôt que de rédiger un guide exhaustif sur les méthodes d'apprentissage, je souhaitais expliquer quelques-unes des techniques les plus importantes.
De plus, nous expliquons les sous-concepts et les considérations nécessaires pour aider les chercheurs à évaluer les méthodes d'apprentissage.
Il est rédigé de manière intuitive, mettant l'accent sur les concepts plutôt que sur les détails mathématiques.

Nous ferons naturellement écho à notre formation et à notre expertise en tant que statisticiens.
Cependant, au cours des huit dernières années, j'ai participé à des conférences sur les réseaux neuronaux, l'exploration de données et l'apprentissage automatique, et j'ai été grandement influencé par ces domaines passionnants.



★ Structure de ce livre ★

Avant de tenter de comprendre pleinement une méthode complexe, il faut d'abord comprendre la méthode simple.
Par conséquent, nous présentons un aperçu des problèmes d'apprentissage supervisé au chapitre 2, puis nous abordons les méthodes linéaires de régression et de classification aux chapitres 3 et 4.
Le chapitre 5 explique les splines, les ondelettes et les méthodes de régularisation/pénalisation pour les prédicteurs uniques, et le chapitre 6 couvre les méthodes à noyau et la régression locale.
Toutes ces méthodes constituent un fondement important pour les techniques d'apprentissage multidimensionnelles.
L’évaluation et la sélection des modèles font l’objet du chapitre 7, qui aborde des concepts tels que le biais et la variance, le surapprentissage et la validation croisée pour la sélection des modèles.
Le chapitre 8 traite de l'inférence et de la moyenne des modèles, y compris un aperçu du maximum de vraisemblance, de l'inférence bayésienne et du bootstrapping, de l'algorithme EM, de l'échantillonnage de Gibbs et du bagging.
Le processus appelé « boosting » est traité en détail au chapitre 10.

Les chapitres 9 à 13 décrivent une série de méthodes structurelles pour l'apprentissage supervisé.
Les chapitres 9 et 11 traitent en particulier de la régression, tandis que les chapitres 12 et 13 se concentrent sur la classification.
Le chapitre 14 décrit les méthodes d'apprentissage non supervisé.
Les techniques récemment connues telles que les forêts aléatoires et l'apprentissage d'ensemble sont abordées dans les chapitres 15 et 16.
Les modèles de graphes non orientés sont abordés au chapitre 17, et enfin, les problèmes de grande dimension sont étudiés au chapitre 18.

À la fin de chaque chapitre, nous abordons les considérations informatiques importantes pour les applications d'exploration de données, notamment la façon dont les opérations évoluent en fonction du nombre d'observations et de prédicteurs.
Chaque chapitre se termine par une bibliographie fournissant des références contextuelles sur le sujet traité.

Je recommande tout d'abord de lire les chapitres 1 à 4 dans l'ordre.
Le chapitre 7 est également une lecture obligatoire car il aborde des concepts clés pertinents pour toutes les méthodes d'apprentissage.
Le reste du livre peut être lu dans l'ordre ou de manière sélective, selon les intérêts du lecteur.


★ Note de l'auteur ★

Le domaine des statistiques est constamment confronté à des problèmes issus à la fois du monde scientifique et industriel.
Au départ, ces problèmes découlaient d'expériences agricoles et industrielles et leur portée était relativement limitée.
Avec l'avènement de l'informatique et de l'ère de l'information, les problèmes statistiques ont explosé en termes de taille et de complexité.
Les défis liés au stockage, à l'organisation et à la récupération des données ont donné naissance à un nouveau domaine appelé « exploration de données ».
Les problèmes statistiques et informatiques en biologie et en pharmacologie ont donné naissance à la « bioinformatique ».
Des quantités massives de données sont générées dans de nombreux domaines, et c'est le travail des statisticiens de leur donner un sens.
Extraire les tendances et les schémas importants et comprendre ce que les données révèlent, c'est ce qu'on appelle l'apprentissage à partir des données.

Le défi que représente l'apprentissage à partir des données a engendré une révolution dans les sciences statistiques.
Étant donné le rôle central que joue l'informatique, il n'est pas surprenant que les chercheurs d'autres domaines, tels que l'informatique et l'ingénierie, se soient largement intéressés à ces nouvelles avancées.

Les problèmes d'apprentissage que nous considérons peuvent être globalement classés en deux catégories : l'apprentissage supervisé et l'apprentissage non supervisé.
L'objectif de l'apprentissage supervisé est de prédire la valeur d'une mesure de sortie à partir d'un certain nombre de mesures d'entrée.
En apprentissage non supervisé, il n'y a pas de mesure de sortie, et l'objectif est de révéler des associations et des modèles entre un ensemble de mesures d'entrée.

L'objectif de cet ouvrage est de rassembler de nombreuses idées nouvelles et importantes en matière d'apprentissage et de les expliquer dans un cadre statistique.
Bien que certains détails mathématiques soient nécessaires, nous souhaitons mettre l'accent sur la méthode et le fondement conceptuel plutôt que sur leurs propriétés théoriques.
Nous espérons donc que cet ouvrage suscitera l'intérêt non seulement des statisticiens, mais aussi des chercheurs et des praticiens de divers domaines.

Comme nous l'avons beaucoup appris de chercheurs extérieurs au domaine des statistiques, une perspective statistique peut aider les lecteurs à mieux comprendre d'autres aspects de l'apprentissage.


★ Note du traducteur ★

Ce livre est une traduction de 『Elements of Statistical Learning, Second Edition』 publié par Springer.
Les trois co-auteurs de l'ouvrage original sont tous professeurs de statistiques à l'université de Stanford, reconnus pour leurs remarquables réalisations académiques, et le livre a été cité dans de nombreux articles universitaires.


Si vous vous intéressez suffisamment à l'apprentissage automatique pour avoir ne serait-ce que lu l'introduction de ce livre, vous avez probablement déjà vu un mème amusant qui présente les statistiques comme un ensemble de concepts regroupés sous l'appellation d'apprentissage automatique.
Je suis sûr de ne pas être le seul à penser que ces mèmes ne sont pas que des blagues.
Je pense que la raison fondamentale qui m'a poussé à entreprendre la traduction de ce livre est que les statistiques sont indispensables pour mieux comprendre l'apprentissage automatique.


De nos jours, on observe une forte tendance à résoudre les problèmes sans condition grâce à l'apprentissage profond.
Mais comme le soulignent les auteurs au chapitre 1, il est important pour moi de comprendre les méthodes simples avant de m'attaquer aux plus complexes.
Bien sûr, appliquer des modèles d'apprentissage automatique aux données n'est pas difficile, même sans connaissances statistiques et mathématiques.
Mais ce livre va encore plus loin, en offrant une compréhension plus large des concepts sous-jacents aux modèles, vous permettant ainsi de développer des compétences pratiques pour résoudre des problèmes donnés et obtenir des informations plus approfondies à partir de vos données.
Je pense que ce livre sera d'une grande aide pour l'étude de divers sujets à l'avenir, notamment la théorie statistique, la régression et la classification, les noyaux et les bases, la régularisation et les modèles additifs.


Les auteurs supposent que les lecteurs possèdent au moins une compréhension de base des statistiques, mais cela ne suffira probablement pas à comprendre pleinement ce livre.
Je vous recommande d'étudier le calcul différentiel et intégral, l'algèbre linéaire, la théorie des probabilités, les statistiques et d'autres domaines qui vous semblent insuffisants lors de la lecture de ce livre.
Les errata de l'ouvrage original (https://web.stanford.edu/~hastie/ElemStatLearn/) sont basés sur les errata de la 2e édition du site web, après le 12e tirage (janvier 2017), et ne sont pas encore reflétés dans la version en ligne.
La terminologie a été normalisée sur la base des glossaires de la Société coréenne de statistique (http://www.kss.or.kr/) et de la Société coréenne de mathématiques (http://www.kms.or.kr/main.html), et pour les autres termes, nous avons essayé d'utiliser les termes les plus fréquemment utilisés trouvés par le biais de recherches sur Internet.
"]
SPÉCIFICATIONS DES PRODUITS
- Date de publication : 30 novembre 2020
Nombre de pages, poids, dimensions : 844 pages | 1 185 g | 155 × 235 × 40 mm
- ISBN13 : 9791161754727
- ISBN10 : 1161754725

Vous aimerez peut-être aussi

카테고리