
Pourquoi les machines apprennent-elles ?
Description
Introduction au livre
- Un mot du médecin
-
L'intelligence artificielle est une forme de mathématiques.Nous vivons à une époque où l'intelligence artificielle générative est essentielle.
Ce livre vous aide à utiliser l'intelligence artificielle à bon escient en expliquant son fonctionnement.
L'intelligence artificielle identifie des tendances dans les données existantes et produit de nouvelles informations.
Ce processus est mathématique.
Ce livre n'est pas facile.
Mais nous vivons à une époque où nous devons lire ce chef-d'œuvre.
18 mars 2025. Sciences naturelles PD Son Min-gyu
"chef-d'œuvre"
Geoffrey Hinton, lauréat du prix Nobel de physique 2024, le recommande vivement.
Les mathématiques fondamentales qui soutiendront le monde extraordinaire que l'IA créera et façonneront l'avenir !
L'arrivée fulgurante de ChatGPT en 2024 a rapidement captivé l'attention de tous. L'intelligence artificielle semblait avoir franchi un cap, passant de la simple fourniture d'itinéraires, de la recommandation musicale, du dessin et de l'organisation de documents, à la recherche d'informations « par elle-même » et à la réponse aux questions « par la réflexion ».
L'IA est-elle véritablement devenue une machine pensante ? L'impact de l'IA sur notre société et nos vies suscite un mélange d'espoirs et de sombres inquiétudes.
Ce livre du journaliste scientifique Anil Anantaswamy explore les mathématiques fondamentales qui constituent les algorithmes de l'IA actuelle, offrant une image claire des processus à l'œuvre au sein des machines.
Ce livre explique les principes mathématiques et les algorithmes sophistiqués qui ont alimenté et passionné les chercheurs en apprentissage automatique pendant des décennies.
Les algorithmes utilisés dans le vaste domaine de l'apprentissage automatique utilisent des mathématiques relativement simples.
Ces mathématiques, qui remontent à des centaines d'années, sont celles que l'on apprend au lycée ou au début de l'université : l'algèbre linéaire, le calcul différentiel et intégral, le théorème de Bayes, la distribution gaussienne (et la courbe en cloche), etc.
Ce livre retrace le parcours du perceptron de Rosenblatt aux réseaux neuronaux profonds modernes — des réseaux sophistiqués d'unités de calcul appelées neurones artificiels — à travers le prisme des concepts mathématiques fondamentaux qui sous-tendent le domaine de l'apprentissage automatique.
Après s'être familiarisé avec les mathématiques en comprenant des concepts relativement simples des années 1950, le niveau de difficulté augmente progressivement pour examiner les principes mathématiques et les algorithmes spécialisés qui sous-tendent les systèmes d'apprentissage automatique actuels.
Ce cours présente les connaissances théoriques et conceptuelles minimales nécessaires pour comprendre l'immense pouvoir que nous conférons aux machines.
Ce livre, qui aide les lecteurs à comprendre les principes de fonctionnement et les fondements des machines apprenantes, leur permettra enfin de comprendre la véritable nature de l'IA et d'embrasser avec confiance un avenir rempli d'IA.
Geoffrey Hinton, lauréat du prix Nobel de physique 2024, le recommande vivement.
Les mathématiques fondamentales qui soutiendront le monde extraordinaire que l'IA créera et façonneront l'avenir !
L'arrivée fulgurante de ChatGPT en 2024 a rapidement captivé l'attention de tous. L'intelligence artificielle semblait avoir franchi un cap, passant de la simple fourniture d'itinéraires, de la recommandation musicale, du dessin et de l'organisation de documents, à la recherche d'informations « par elle-même » et à la réponse aux questions « par la réflexion ».
L'IA est-elle véritablement devenue une machine pensante ? L'impact de l'IA sur notre société et nos vies suscite un mélange d'espoirs et de sombres inquiétudes.
Ce livre du journaliste scientifique Anil Anantaswamy explore les mathématiques fondamentales qui constituent les algorithmes de l'IA actuelle, offrant une image claire des processus à l'œuvre au sein des machines.
Ce livre explique les principes mathématiques et les algorithmes sophistiqués qui ont alimenté et passionné les chercheurs en apprentissage automatique pendant des décennies.
Les algorithmes utilisés dans le vaste domaine de l'apprentissage automatique utilisent des mathématiques relativement simples.
Ces mathématiques, qui remontent à des centaines d'années, sont celles que l'on apprend au lycée ou au début de l'université : l'algèbre linéaire, le calcul différentiel et intégral, le théorème de Bayes, la distribution gaussienne (et la courbe en cloche), etc.
Ce livre retrace le parcours du perceptron de Rosenblatt aux réseaux neuronaux profonds modernes — des réseaux sophistiqués d'unités de calcul appelées neurones artificiels — à travers le prisme des concepts mathématiques fondamentaux qui sous-tendent le domaine de l'apprentissage automatique.
Après s'être familiarisé avec les mathématiques en comprenant des concepts relativement simples des années 1950, le niveau de difficulté augmente progressivement pour examiner les principes mathématiques et les algorithmes spécialisés qui sous-tendent les systèmes d'apprentissage automatique actuels.
Ce cours présente les connaissances théoriques et conceptuelles minimales nécessaires pour comprendre l'immense pouvoir que nous conférons aux machines.
Ce livre, qui aide les lecteurs à comprendre les principes de fonctionnement et les fondements des machines apprenantes, leur permettra enfin de comprendre la véritable nature de l'IA et d'embrasser avec confiance un avenir rempli d'IA.
- Vous pouvez consulter un aperçu du contenu du livre.
Aperçu
indice
prologue
Chapitre 1 : Découvrons le modèle
Chapitre 2 : Ici, tout le monde n'est qu'un numéro
Chapitre 3 Le fond du bol
Chapitre 4 : Neuf sur dix
Chapitre 5 : Qui se ressemble s'assemble
Chapitre 6 : La magie des matrices
Chapitre 7 : Spectacle d'évasion de la corde du noyau
Chapitre 8 Avec un peu d'aide de la physique
Chapitre 9 : L’homme qui a freiné l’apprentissage profond (enfin, pas vraiment)
Chapitre 10 : Des algorithmes qui brisent les vieux mythes
Chapitre 11 L'œil de la machine
Chapitre 12 : Terre inconnue
Épilogue
Remerciements
principal
Note du traducteur
Index biographique
Chapitre 1 : Découvrons le modèle
Chapitre 2 : Ici, tout le monde n'est qu'un numéro
Chapitre 3 Le fond du bol
Chapitre 4 : Neuf sur dix
Chapitre 5 : Qui se ressemble s'assemble
Chapitre 6 : La magie des matrices
Chapitre 7 : Spectacle d'évasion de la corde du noyau
Chapitre 8 Avec un peu d'aide de la physique
Chapitre 9 : L’homme qui a freiné l’apprentissage profond (enfin, pas vraiment)
Chapitre 10 : Des algorithmes qui brisent les vieux mythes
Chapitre 11 L'œil de la machine
Chapitre 12 : Terre inconnue
Épilogue
Remerciements
principal
Note du traducteur
Index biographique
Image détaillée

Avis de l'éditeur
Au chapitre 1, nous découvrons le perceptron, développé par Frank Rosenblatt à la fin des années 1950.
Le perceptron, souvent considéré comme le point de départ de l'IA moderne, est le premier algorithme « inspiré du cerveau » utile capable de découvrir des schémas cachés dans les données en un temps fini, c'est-à-dire d'apprendre des schémas simplement en examinant les données.
Le perceptron trouve son origine dans un article de 1943 publié par un neuroscientifique d'une quarantaine d'années, à l'esprit philosophique et au génie précoce.
Ces deux chercheurs pensent que si le cerveau est un dispositif de calcul, il serait possible de créer des neurones artificiels qui sont des modèles de calcul simples en imitant les neurones du cerveau humain, et ils sont appelés neurodes.
Nous avons implémenté une cellule artificielle appelée neurone (neurone + nœud).
Rosenblatt, un psychologue, a développé et présenté le perceptron, qui permet aux cellules d'apprendre directement.
Le perceptron apprend l'ensemble de données et trouve inévitablement un hyperplan de séparation linéaire qui peut séparer linéairement l'ensemble de données.
Parce que les perceptrons modélisaient le fonctionnement des neurones humains, comme le pensaient les neuroscientifiques, ils étaient auréolés d'un certain mystère et faisaient naître l'espoir que le brillant avenir de l'IA se concrétiserait un jour.
Par exemple, lorsqu'un perceptron reçoit des données sur la taille et le poids de certaines personnes, il apprend de ces données et trouve inévitablement des critères pour classer ces personnes en obèses et non obèses, et lorsqu'on lui donne la taille et le poids d'une nouvelle personne, il peut déterminer si cette personne est obèse ou non.
Le chapitre 2 nous emmène au pont du canal royal de Dublin en septembre 1865 à la rencontre du mathématicien irlandais William Rowan Hamilton.
On y découvre les concepts mathématiques de scalaire et de vecteur, qui sont essentiels à l'apprentissage automatique.
Comprendre les vecteurs vous aidera à comprendre comment les perceptrons apprennent.
Un perceptron détermine les poids et l'hyperplan de séparation dans les données, ce qui implique de trouver la distance relative entre un point de données et l'hyperplan en utilisant le concept de vecteurs.
Le chapitre 3 examine le processus permettant de trouver le chemin le plus court pour descendre au fond d'une vallée.
Autrement dit, il s'agit de suivre le processus visant à minimiser les erreurs qui se produisent.
Après leur retour de la première compétition d'IA organisée au Dartmouth College en 1956, Bernard Withrow et son étudiant diplômé Hope réfléchissaient à la manière de réduire le bruit des filtres adaptatifs, et ils se sont rendu compte qu'ils pouvaient entraîner les neurones en utilisant l'algorithme des moindres carrés moyens (LMS), qui est la méthode par laquelle un algorithme approche la valeur minimale d'une fonction.
Les réseaux neuronaux profonds actuels utilisent un très grand nombre de poids, tous entraînés par descente de gradient.
Dans le chapitre 4, qui traite des probabilités, nous rencontrons Thomas Bayes, qui serait né en 1701 avec une probabilité de 0,8, et nous examinons le théorème de Bayes, une méthode permettant de tirer mathématiquement des conclusions à partir de situations incertaines.
Le théorème de Bayes a donné naissance au domaine des probabilités et des statistiques qui, près de 250 ans plus tard, reste une force motrice considérable dans l'apprentissage automatique.
Le chapitre 5 traite de l'algorithme du plus proche voisin (NN), qui est aussi efficace que le classificateur optimal basé sur le théorème de Bayes.
Nous explorons tout d'abord un autre noyau conceptuel des puissants algorithmes d'apprentissage automatique à travers les travaux de John Snow, un médecin qui a apporté une contribution significative à l'épidémiologie en cartographiant les épidémies de choléra qui ont ravagé le Londres du XIXe siècle.
John Snow a cartographié les lieux des épidémies de choléra et le nombre de décès, et en corrélant les deux, il a pu déterminer que la maladie provenait d'un seul « puits » dans le village.
Pour formuler ce problème de manière plus générale, on peut dire qu'il s'agit de trouver le voisin le plus proche.
Cet algorithme est devenu extrêmement important pour la reconnaissance de formes.
La reconnaissance de formes est la manière dont les entreprises, lorsqu'elles veulent nous recommander des livres, des montres ou des films, nous représentent sous forme de vecteurs dans un espace multidimensionnel (en fonction de nos goûts en matière de livres ou de films), trouvent nos voisins les plus proches, déterminent ce qu'ils aiment, puis nous recommandent ces livres ou films.
Au chapitre 6, nous rencontrons l'éminent mathématicien allemand David Hilbert et découvrons la magie des matrices.
Nous explorerons également une méthode simple, élégante et robuste pour traiter d'énormes quantités de données, appelée analyse en composantes principales : une façon de projeter des données multidimensionnelles sur un nombre beaucoup plus restreint d'axes afin de trouver les dimensions selon lesquelles les données varient le plus.
Au chapitre 7, nous rencontrons des chercheurs qui ont trouvé des moyens d'améliorer la détection des frontières linéaires, ou hyperplans de séparation, qui divisent les données.
Ses collègues Vladimir Vapnik et Bernhard Boser, ainsi que son épouse Isabelle Guyon, ont été les pionniers d'une percée dans le développement d'algorithmes modernes en développant un algorithme permettant de trouver des hyperplans de séparation optimaux, même dans des espaces de dimension infinie, en utilisant l'« astuce du noyau ».
L'algorithme du perceptron, inventé par Frank Rosenblatt, permet de trouver l'hyperplan de séparation.
Mais avec une infinité d'hyperplans de séparation, comment trouver le meilleur ? C'est précisément la technique du noyau qu'ils ont cherché à appliquer.
La combinaison du classificateur marginal optimal de Bapnik (1964) et des techniques à noyau s'est avérée extrêmement puissante.
Il n'existe désormais plus aucun ensemble de données qui ne puisse être négligé.
Le chapitre 8 raconte l'histoire de John Hopfield, un neurobiologiste ayant une formation en physique qui a relancé l'étude des réseaux neuronaux en créant le réseau de Hopfield.
Avant cela, ce livre explore d'abord le monde de la physique pour comprendre les phénomènes magnétiques et présenter les notions de moments magnétiques et de spin.
Ceci conduit à des concepts tels que la mémoire associative, la symétrie, la perturbation et la stabilité énergétique, et aboutit au développement d'une méthode d'apprentissage des réseaux neuronaux multicouches qui surmontent les limitations des réseaux neuronaux monocouches tels que les perceptrons.
Au chapitre 9, nous rencontrons Georgy Sibenko, qui est à la fois loué et critiqué pour son travail sur l'apprentissage profond, c'est-à-dire les réseaux neuronaux profonds avec trois couches ou plus (couches d'entrée, cachées et de sortie).
Dans son article de 1989, il a démontré que, étant donné un nombre suffisant de neurones dans un réseau neuronal avec une seule couche cachée, celui-ci pouvait approximer n'importe quelle fonction, ce qui signifie qu'il pouvait transformer les entrées en les sorties souhaitées.
Cependant, son article a parfois été mal interprété, comme suggérant l'existence d'une seule couche cachée.
Le chapitre 10 traite de la « rétropropagation », l’algorithme qui permet d’entraîner des réseaux neuronaux profonds.
Nous explorerons les travaux collaboratifs de Geoffrey Hinton, figure emblématique de la révolution du deep learning, avec le psychologue David Rumelhart et l'informaticien Ronald Williams. Après une première approche des concepts de différentiation, de dérivées et de la règle de la chaîne, vous découvrirez comment rétropropager les erreurs des réseaux de neurones grâce à cette règle, illustrant ainsi la puissance de la rétropropagation.
Le chapitre 11 relate le parcours visant à donner la vue aux machines.
Cela a conduit Yann Lecoup, qui a introduit les réseaux neuronaux convolutifs pour la reconnaissance d'images grâce à des expériences dans lesquelles des électrodes étaient implantées dans le cerveau de chats pour déterminer leur activité cérébrale.
De plus, grâce aux progrès des réseaux neuronaux profonds utilisant des unités de traitement graphique (GPU), la reconnaissance d'images est désormais largement utilisée dans divers domaines tels que la vision par ordinateur, le traitement du langage naturel, la traduction automatique, l'analyse d'images médicales et la reconnaissance de modèles de données financières.
Le dernier chapitre, le chapitre 12, intitulé « Territoire inconnu », examine l’état actuel des réseaux neuronaux profonds et prévoit les défis futurs ainsi que l’avenir qu’ils engendreront.
Ce livre explore les principes mathématiques simples, mais élégants et puissants, qui sous-tendent les résultats incroyables obtenus par l'IA.
Pour aider les lecteurs à comprendre, de nombreux graphiques sont utilisés pour visualiser les concepts mathématiques, et la section intitulée « Coda mathématique » résume et démontre de manière concise les principes mathématiques.
Au milieu de cet océan de graphiques et de formules, les lecteurs acquerront une compréhension plus claire de l'IA, qui se développe actuellement à un rythme incroyable, en saisissant les concepts et principes mathématiques fondamentaux qui la sous-tendent.
Le perceptron, souvent considéré comme le point de départ de l'IA moderne, est le premier algorithme « inspiré du cerveau » utile capable de découvrir des schémas cachés dans les données en un temps fini, c'est-à-dire d'apprendre des schémas simplement en examinant les données.
Le perceptron trouve son origine dans un article de 1943 publié par un neuroscientifique d'une quarantaine d'années, à l'esprit philosophique et au génie précoce.
Ces deux chercheurs pensent que si le cerveau est un dispositif de calcul, il serait possible de créer des neurones artificiels qui sont des modèles de calcul simples en imitant les neurones du cerveau humain, et ils sont appelés neurodes.
Nous avons implémenté une cellule artificielle appelée neurone (neurone + nœud).
Rosenblatt, un psychologue, a développé et présenté le perceptron, qui permet aux cellules d'apprendre directement.
Le perceptron apprend l'ensemble de données et trouve inévitablement un hyperplan de séparation linéaire qui peut séparer linéairement l'ensemble de données.
Parce que les perceptrons modélisaient le fonctionnement des neurones humains, comme le pensaient les neuroscientifiques, ils étaient auréolés d'un certain mystère et faisaient naître l'espoir que le brillant avenir de l'IA se concrétiserait un jour.
Par exemple, lorsqu'un perceptron reçoit des données sur la taille et le poids de certaines personnes, il apprend de ces données et trouve inévitablement des critères pour classer ces personnes en obèses et non obèses, et lorsqu'on lui donne la taille et le poids d'une nouvelle personne, il peut déterminer si cette personne est obèse ou non.
Le chapitre 2 nous emmène au pont du canal royal de Dublin en septembre 1865 à la rencontre du mathématicien irlandais William Rowan Hamilton.
On y découvre les concepts mathématiques de scalaire et de vecteur, qui sont essentiels à l'apprentissage automatique.
Comprendre les vecteurs vous aidera à comprendre comment les perceptrons apprennent.
Un perceptron détermine les poids et l'hyperplan de séparation dans les données, ce qui implique de trouver la distance relative entre un point de données et l'hyperplan en utilisant le concept de vecteurs.
Le chapitre 3 examine le processus permettant de trouver le chemin le plus court pour descendre au fond d'une vallée.
Autrement dit, il s'agit de suivre le processus visant à minimiser les erreurs qui se produisent.
Après leur retour de la première compétition d'IA organisée au Dartmouth College en 1956, Bernard Withrow et son étudiant diplômé Hope réfléchissaient à la manière de réduire le bruit des filtres adaptatifs, et ils se sont rendu compte qu'ils pouvaient entraîner les neurones en utilisant l'algorithme des moindres carrés moyens (LMS), qui est la méthode par laquelle un algorithme approche la valeur minimale d'une fonction.
Les réseaux neuronaux profonds actuels utilisent un très grand nombre de poids, tous entraînés par descente de gradient.
Dans le chapitre 4, qui traite des probabilités, nous rencontrons Thomas Bayes, qui serait né en 1701 avec une probabilité de 0,8, et nous examinons le théorème de Bayes, une méthode permettant de tirer mathématiquement des conclusions à partir de situations incertaines.
Le théorème de Bayes a donné naissance au domaine des probabilités et des statistiques qui, près de 250 ans plus tard, reste une force motrice considérable dans l'apprentissage automatique.
Le chapitre 5 traite de l'algorithme du plus proche voisin (NN), qui est aussi efficace que le classificateur optimal basé sur le théorème de Bayes.
Nous explorons tout d'abord un autre noyau conceptuel des puissants algorithmes d'apprentissage automatique à travers les travaux de John Snow, un médecin qui a apporté une contribution significative à l'épidémiologie en cartographiant les épidémies de choléra qui ont ravagé le Londres du XIXe siècle.
John Snow a cartographié les lieux des épidémies de choléra et le nombre de décès, et en corrélant les deux, il a pu déterminer que la maladie provenait d'un seul « puits » dans le village.
Pour formuler ce problème de manière plus générale, on peut dire qu'il s'agit de trouver le voisin le plus proche.
Cet algorithme est devenu extrêmement important pour la reconnaissance de formes.
La reconnaissance de formes est la manière dont les entreprises, lorsqu'elles veulent nous recommander des livres, des montres ou des films, nous représentent sous forme de vecteurs dans un espace multidimensionnel (en fonction de nos goûts en matière de livres ou de films), trouvent nos voisins les plus proches, déterminent ce qu'ils aiment, puis nous recommandent ces livres ou films.
Au chapitre 6, nous rencontrons l'éminent mathématicien allemand David Hilbert et découvrons la magie des matrices.
Nous explorerons également une méthode simple, élégante et robuste pour traiter d'énormes quantités de données, appelée analyse en composantes principales : une façon de projeter des données multidimensionnelles sur un nombre beaucoup plus restreint d'axes afin de trouver les dimensions selon lesquelles les données varient le plus.
Au chapitre 7, nous rencontrons des chercheurs qui ont trouvé des moyens d'améliorer la détection des frontières linéaires, ou hyperplans de séparation, qui divisent les données.
Ses collègues Vladimir Vapnik et Bernhard Boser, ainsi que son épouse Isabelle Guyon, ont été les pionniers d'une percée dans le développement d'algorithmes modernes en développant un algorithme permettant de trouver des hyperplans de séparation optimaux, même dans des espaces de dimension infinie, en utilisant l'« astuce du noyau ».
L'algorithme du perceptron, inventé par Frank Rosenblatt, permet de trouver l'hyperplan de séparation.
Mais avec une infinité d'hyperplans de séparation, comment trouver le meilleur ? C'est précisément la technique du noyau qu'ils ont cherché à appliquer.
La combinaison du classificateur marginal optimal de Bapnik (1964) et des techniques à noyau s'est avérée extrêmement puissante.
Il n'existe désormais plus aucun ensemble de données qui ne puisse être négligé.
Le chapitre 8 raconte l'histoire de John Hopfield, un neurobiologiste ayant une formation en physique qui a relancé l'étude des réseaux neuronaux en créant le réseau de Hopfield.
Avant cela, ce livre explore d'abord le monde de la physique pour comprendre les phénomènes magnétiques et présenter les notions de moments magnétiques et de spin.
Ceci conduit à des concepts tels que la mémoire associative, la symétrie, la perturbation et la stabilité énergétique, et aboutit au développement d'une méthode d'apprentissage des réseaux neuronaux multicouches qui surmontent les limitations des réseaux neuronaux monocouches tels que les perceptrons.
Au chapitre 9, nous rencontrons Georgy Sibenko, qui est à la fois loué et critiqué pour son travail sur l'apprentissage profond, c'est-à-dire les réseaux neuronaux profonds avec trois couches ou plus (couches d'entrée, cachées et de sortie).
Dans son article de 1989, il a démontré que, étant donné un nombre suffisant de neurones dans un réseau neuronal avec une seule couche cachée, celui-ci pouvait approximer n'importe quelle fonction, ce qui signifie qu'il pouvait transformer les entrées en les sorties souhaitées.
Cependant, son article a parfois été mal interprété, comme suggérant l'existence d'une seule couche cachée.
Le chapitre 10 traite de la « rétropropagation », l’algorithme qui permet d’entraîner des réseaux neuronaux profonds.
Nous explorerons les travaux collaboratifs de Geoffrey Hinton, figure emblématique de la révolution du deep learning, avec le psychologue David Rumelhart et l'informaticien Ronald Williams. Après une première approche des concepts de différentiation, de dérivées et de la règle de la chaîne, vous découvrirez comment rétropropager les erreurs des réseaux de neurones grâce à cette règle, illustrant ainsi la puissance de la rétropropagation.
Le chapitre 11 relate le parcours visant à donner la vue aux machines.
Cela a conduit Yann Lecoup, qui a introduit les réseaux neuronaux convolutifs pour la reconnaissance d'images grâce à des expériences dans lesquelles des électrodes étaient implantées dans le cerveau de chats pour déterminer leur activité cérébrale.
De plus, grâce aux progrès des réseaux neuronaux profonds utilisant des unités de traitement graphique (GPU), la reconnaissance d'images est désormais largement utilisée dans divers domaines tels que la vision par ordinateur, le traitement du langage naturel, la traduction automatique, l'analyse d'images médicales et la reconnaissance de modèles de données financières.
Le dernier chapitre, le chapitre 12, intitulé « Territoire inconnu », examine l’état actuel des réseaux neuronaux profonds et prévoit les défis futurs ainsi que l’avenir qu’ils engendreront.
Ce livre explore les principes mathématiques simples, mais élégants et puissants, qui sous-tendent les résultats incroyables obtenus par l'IA.
Pour aider les lecteurs à comprendre, de nombreux graphiques sont utilisés pour visualiser les concepts mathématiques, et la section intitulée « Coda mathématique » résume et démontre de manière concise les principes mathématiques.
Au milieu de cet océan de graphiques et de formules, les lecteurs acquerront une compréhension plus claire de l'IA, qui se développe actuellement à un rythme incroyable, en saisissant les concepts et principes mathématiques fondamentaux qui la sous-tendent.
SPÉCIFICATIONS DES PRODUITS
- Date d'émission : 28 février 2025
Nombre de pages, poids, dimensions : 464 pages | 668 g | 152 × 225 × 25 mm
- ISBN13 : 9788972918660
- ISBN10 : 8972918660
Vous aimerez peut-être aussi
카테고리
Langue coréenne
Langue coréenne