Passer aux informations sur le produit
IA embarquée
IA embarquée
Description
Introduction au livre
Un guide étape par étape sur l'apprentissage automatique mobile utilisant ML Kit, Core ML, TFLite et plus encore !

Avec les appareils mobiles devenus les principaux outils informatiques de notre époque, l'apprentissage automatique n'est plus une option mais une nécessité pour les développeurs mobiles.
Ce livre explique comment démarrer rapidement avec le développement d'applications d'apprentissage automatique mobile en utilisant différents frameworks.
Apprenez rapidement les concepts grâce aux explications claires de l'auteur, développeur principal chez Google, puis développez des connaissances pratiques en créant des modèles de vision par ordinateur et de traitement de texte pour appareils mobiles iOS et Android à l'aide d'outils tels que ML Kit, Core ML et TFLite.
Rejoignez le changement qui façonne le nouveau paradigme du développement mobile grâce à ce livre !
  • Vous pouvez consulter un aperçu du contenu du livre.
    Aperçu

indice
CHAPITRE 1 : Introduction à l'intelligence artificielle et à l'apprentissage automatique
_1.1 Qu'est-ce que l'intelligence artificielle ?
_1.2 Qu'est-ce que l'apprentissage automatique ?
1.2.1 Transition de la programmation traditionnelle à l'apprentissage automatique
__1.2.2 Comment les ordinateurs peuvent-ils apprendre ?
1.2.3 Différences entre la programmation traditionnelle et l'apprentissage automatique
1.3 Création d'un modèle mobile
1.4 En conclusion

CHAPITRE 2 : INTRODUCTION À LA VISION PAR ORDINATEUR
2.1 Utilisation des neurones pour la vision
__2.1.1 Premier classificateur : vêtements distinctifs
__2.1.2 Données : Fashion MNIST
__2.1.3 Architecture du modèle MNIST de la mode
__2.1.4 Codage du modèle MNIST de la mode
2.2 Apprentissage par transfert pour la vision par ordinateur
2.3 En conclusion

CHAPITRE 3 Introduction au kit ML
3.1 Application de détection de visages pour Android
Étape 1 : Créez un projet avec Android Studio
Étape 2 : Ajouter et configurer la bibliothèque ML Kit
__Création d'une interface utilisateur en 3 étapes
Étape 4 : Créez un dossier de ressources et ajoutez-y des images.
Étape 5 : Chargement de l’image de base dans l’interface utilisateur
__Appel du détecteur de visage en 6 étapes
Étape 7 : Dessiner un cadre de délimitation
_3.2 Application de détection de visages iOS
Étape 1 : Créer un projet Xcode
Étape 2 : Utilisation de CocoaPods et des Podfiles
__Création d'une interface utilisateur en 3 étapes
Étape 4 Logique d'application
3.3 En conclusion

CHAPITRE 4 : Création d’applications de vision par ordinateur avec ML Kit sur Android
4.1 Classification d'images et recherche d'étiquettes
Étape 1 : Créer une application et configurer ML Kit
__Création d'une interface utilisateur en deux étapes
Étape 3 : Créez un dossier de ressources et ajoutez-y des images.
Étape 4 : Chargement d’une image dans la vue image
Écrivez le code du gestionnaire de bouton en 5 étapes
Étapes supplémentaires
4.2 Détection d'objets
Étape 1 : Créer une application et importer ML Kit
Étape 2 : Générer le fichier XML de mise en page de l’activité
Étape 3 : Chargement d’une image dans la vue image
__Options de configuration du détecteur d'objets en 4 étapes
Interaction avec le bouton à 5 étapes
Étape 6 : Dessiner un cadre de délimitation
__étiquetage d'objets en 7 étapes
4.3 Détection et suivi d'objets dans la vidéo
4.3.1 Vérifier la mise en page
__4.3.2 Classe GraphicOverlay
4.3.3 Affichage de l'écran vidéo obtenu de la caméra
__4.3.4 Classe ObjectAnalyzer
__4.3.5 Classe ObjectGraphic
4.3.6 Conclusion
4.4 En conclusion

CHAPITRE 5 : Création d’applications de traitement de texte avec ML Kit sur Android
5.1 Extraction des noms d'entités
Étape 1 : Créer une application
__Créez une mise en page pour l'activité en 2 étapes
__Écrivez le code permettant d'extraire les noms des entités à l'étape 3
__Étape 4 terminée
5.2 Modèle de reconnaissance de l'écriture manuscrite
Étape 1 : Créer une application
Étape 2 : Créer une surface pour écrire à la main
__Analyse d'encre en 3 étapes avec kit ML
5.3 Modèle de réponse IA intelligent
Étape 1 : Créer une application
Étape 2 : Mise en place d’une conversation virtuelle
__Créez une réponse intelligente en 3 étapes
5.4 En conclusion

CHAPITRE 6 : Création d’applications de vision par ordinateur avec ML Kit sur iOS
6.1 Classification d'images et recherche d'étiquettes
Étape 1 : Créer un projet d’application dans Xcode
Étape 2 : Créer un fichier Podfile
__Mise en place du storyboard en 3 étapes
Étape 4 : Modifier le code du contrôleur de vue à l’aide de ML Kit
6.2 Détection d'objets avec ML Kit sur iOS
__Commencer par l'étape 1
Création de l'interface utilisateur dans le storyboard de l'étape 2
Création d'une sous-vue pour dessiner le cadre de délimitation à 3 étapes
Étape 4 : Détection d’objets
Gestion du rappel en 5 étapes
Étape supplémentaire : Combinaison de la détection d’objets et de la classification d’images
Détection et suivi d'objets dans une vidéo d'étape supplémentaire
6.3 En conclusion

CHAPITRE 7 : Création d’applications de traitement de texte avec ML Kit sur iOS
7.1 Extraction des noms d'entités
Étape 1 : Créez un nouveau projet et ajoutez des modules ML Kit.
Étape 2 : Créez un storyboard et ajoutez des actions et des points de sortie.
__Récupération des données saisies dans la vue de texte à l'étape 3 du contrôleur de vue
__Initialiser le modèle en 4 étapes
Étape 5 : Extraction des noms d’entités à partir du texte
_7.2 Reconnaissance de l'écriture manuscrite
Étape 1 : Créez une application et ajoutez des pods ML Kit
Étape 2 : Créer un scénario, des actions et des points de diffusion
Étape 3 : Trait, Pointe, Encre
Étape 4 : Réception des entrées tactiles de l’utilisateur
Initialiser le modèle en 5 étapes
Étape 6 : Reconnaissance de l'encre
7.3 Réponse intelligente
Étape 1 : Créez un projet d’application et importez ML Kit
Étape 2 : Créer un scénario, des points de diffusion et des actions
__Créer une conversation en 3 étapes
Obtenez une réponse intelligente en 4 étapes
7.4 En conclusion

CHAPITRE 8 Comprendre TFLite plus en détail
_8.1 Qu'est-ce que TFLite ?
8.2 Premiers pas avec TFLite
8.2.1 Sauvegarde du modèle
8.2.2 Conversion du modèle
8.2.3 Test du modèle avec un interpréteur autonome
8.3 Création d'une application Android avec TFLite
8.4 Importation de fichiers TFLite
8.5 Écriture de code Kotlin pour l'inférence de modèles
_8.6 Contenu avancé
8.7 Création d'applications iOS avec TFLite
Étape 1 : Créer une application iOS de base
__Ajout de la bibliothèque TFLite au projet Step 2
__Création d'une interface utilisateur en 3 étapes
__Créer et initialiser la classe d'inférence de modèle en 4 étapes
__Étape 5 Raisonnement
Ajout d'un modèle à l'application Step 6
__Ajout de la logique d'interface utilisateur à l'étape 7
8.8 Au-delà du « Hello World » : Traitement d’images
8.9 Examen de l'optimisation du modèle
8.9.1 Quantification
8.9.2 Utilisation de données représentatives
8.10 En conclusion

CHAPITRE 9 CRÉATION D'UN MODÈLE PERSONNALISÉ
9.1 Création d'un modèle avec TFLite Model Maker
_9.2 Création de modèles avec Cloud AutoML
__9.2.1 Utilisation d'AutoML Vision Edge
9.3 Construction d'un modèle avec TensorFlow et l'apprentissage par transfert
_9.4 Construction d'un modèle de langage
__9.4.1 Création d'un modèle de langage avec ModelMaker
_9.5 En conclusion

CHAPITRE 10 UTILISATION DE MODÈLES PERSONNALISÉS SOUS Android
_Équiper le modèle 10.1 avec Android
_10.2 Création d'une application de classification d'images à l'aide d'un modèle obtenu avec ModelMaker
_10.3 Utilisation des modèles Model Maker avec ML Kit
_10.4 Utilisation des modèles de langage
10.5 Création d'une application Android pour la classification linguistique
__10.5.1 Création d'un fichier de mise en page
__10.5.2 Code d'activité d'écriture
_10.6 En conclusion

CHAPITRE 11 Utilisation de modèles personnalisés dans iOS
_11.1 Connexion d'un modèle à iOS
_11.2 Modèle de classificateur d'images personnalisé
Étape 1 : Créer une application et ajouter un module TFLite
Étape 2 : Créer l’interface utilisateur et les ressources d’images
Chargement et exploration des ressources d'images en 3 étapes
Chargement du modèle en 4 étapes
Conversion d'image en tenseur d'entrée en 5 étapes
__Inférence avec des tenseurs à 6 étapes
_11.3 Utilisation de modèles personnalisés avec ML Kit
_11.4 Création d'applications de traitement du langage naturel avec Swift
Chargement de la première étape BoCap
Étape 2 : Créer une séquence de phrases
__Implémentation d'extensions de tableaux pour le traitement de données non sécurisé en trois étapes
Copiez le tableau à 4 étapes dans la mémoire tampon de données.
Étape 5 : Déduction des données et traitement des résultats
_11.5 En conclusion

CHAPITRE 12 : PRODUCTION DE VOTRE APPLICATION AVEC FIREBASE
_12.1 Pourquoi devrais-je utiliser l'hébergement de modèles personnalisés de Firebase ?
_12.2 Création de plusieurs versions d'un modèle
_12.3 Utilisation de l'hébergement de modèles Firebase
Étape 1 : Créer un projet Firebase
Utilisation de l'hébergement de modèles personnalisés en 2 étapes
Étape 3 : Créer une application Android de base
__Ajoutez Firebase à votre application en 4 étapes
Étape 5 : Importer un modèle depuis Firebase Model Hosting
__Utilisation de la configuration à distance en 6 étapes
__Lire les paramètres à distance à partir de l'application en 7 étapes
Étapes supplémentaires
12.4 En conclusion

CHAPITRE 13 : CreateML et CoreML pour les applications iOS simples
_13.1 Création d'un classificateur d'images Core ML avec Create ML
__13.1.1 Création d'une application Core ML construite avec un modèle Create ML
__13.1.2 Ajout de fichiers MLModel
__13.1.3 Inférence en cours
13.2 Création d'un classificateur de texte avec Create ML
13.3 Utilisation des modèles de langage dans les applications
13.4 En conclusion

CHAPITRE 14 Accéder au modèle cloud avec des applications mobiles
_14.1 Installation de TensorFlow Serving
__14.1.1 Installation avec Docker
__14.1.2 Installation directe sous Linux
_14.2 Construction et exploitation du modèle
_14.3 Accès au modèle serveur avec Android
_14.4 Accès au modèle serveur avec iOS
_14.5 En conclusion

CHAPITRE 15 Éthique, équité et confidentialité dans les applications mobiles
15.1 Éthique, équité et respect de la vie privée grâce à une intelligence artificielle responsable
__15.1.1 Définir le problème de manière responsable
15.1.2 Prévention des biais dans les données
15.1.3 Construction et entraînement d'un modèle
15.1.4 Évaluation du modèle
_15.2 Principes de l'IA de Google
15.3 En conclusion

Image détaillée
Image détaillée 1

Avis de l'éditeur
Laurence Moroney, la « célébrité » de Google, présente un système d'apprentissage automatique personnalisé pour les développeurs mobiles.

L'apprentissage automatique est déjà intégré à notre vie quotidienne.
Bien entendu, cela s'applique également aux appareils mobiles que nous utilisons quotidiennement.
Comme son nom l'indique, l'« IA embarquée » fait référence à l'informatique matérielle qui collecte des informations et effectue des calculs sur site.
L'IA embarquée est une technologie qui présente des avantages considérables, notamment une sécurité renforcée car les informations sensibles des utilisateurs ne transitent pas par des serveurs, et une latence réseau réduite.
À mesure que les appareils mobiles prennent une place de plus en plus importante dans notre vie quotidienne, l'IA embarquée deviendra la nouvelle voie à suivre pour la technologie d'apprentissage automatique.

Dans cet ouvrage, l'auteur et figure emblématique de Google, Lawrence Moroney, explique divers exemples de code pour aider les développeurs mobiles à appliquer facilement l'apprentissage automatique aux applications mobiles.
Il sera notamment d'une grande aide aux développeurs d'applications mobiles, car il présente un exemple étape par étape avec un exemple de code pour Android et iOS.
Êtes-vous prêt à embarquer pour un voyage au cœur de l'intelligence artificielle mobile, présenté par l'auteur et traducteur qui dirige le département d'apprentissage automatique mobile chez Google ? C'est parti !

Contenu principal
● Mise en œuvre de modèles d'apprentissage automatique pour iOS et Android
● Créez des applications mobiles à l'aide de ML Kit pour iOS et Android, Core ML et TFLite
● Expliquer la différence entre l'inférence dans le cloud et l'inférence sur l'appareil et présenter les technologies et outils associés.
● Introduction aux technologies et outils pouvant être utilisés lors de l'utilisation d'API de haut niveau et de bas niveau.
Introduction aux meilleures pratiques en matière de confidentialité et d'éthique pour l'apprentissage automatique mobile
SPÉCIFICATIONS DES PRODUITS
- Date de publication : 1er novembre 2022
Nombre de pages, poids, dimensions : 388 pages | 704 g | 183 × 235 × 16 mm
- ISBN13 : 9791169210423
- ISBN10 : 1169210422

Vous aimerez peut-être aussi

카테고리