Passer aux informations sur le produit
IA générative avec AWS
IA générative avec AWS
Description
Introduction au livre
Comprendre les cas d'utilisation et les tâches les plus courants de l'IA générative dans l'industrie et le monde universitaire !

Aujourd'hui, les entreprises intègrent rapidement l'IA générative à leurs produits et services.
Cependant, cette technologie suscite beaucoup d'enthousiasme et de malentendus quant à son impact et son potentiel. Dans cet ouvrage, Chris Fregley, Antje Barth et Shelby Eigenbrode d'AWS accompagnent les directeurs techniques, les spécialistes du machine learning, les développeurs d'applications, les analystes métier, les ingénieurs de données et les data scientists dans la découverte de solutions concrètes pour tirer parti de cette technologie novatrice.

Ce livre vous enseignera le cycle de vie d'un projet d'IA générative, y compris la définition des cas d'utilisation, la sélection des modèles, le réglage fin des modèles, la génération augmentée, l'apprentissage par renforcement avec retour d'information humain, la quantification du modèle, l'optimisation et le déploiement.
Nous explorons également différents types de modèles, notamment les modèles de langage à grande échelle (LLM), la diffusion stable pour la génération d'images, Flamingo pour la réponse aux questions par l'image et les modèles multimodaux comme IDEFICS.
  • Vous pouvez consulter un aperçu du contenu du livre.
    Aperçu

indice
▣ Chapitre 1 : Cas d’utilisation, principes fondamentaux et cycle de vie des projets d’IA générative

Cas d'utilisation et tâches
Modèle de base et centre de modélisation
Le cycle de vie d'un projet d'IA générative
IA générative sur AWS
Pourquoi utiliser l'IA générative sur AWS ?
Création d'applications d'IA générative sur AWS
addition

▣ Chapitre 2 : Ingénierie et apprentissage in situ

Invites et complétions
jeton
Ingénierie rapide
Structure du prompt
___instruction
___Contexte
Apprentissage en contexte avec inférence à partir de peu d'exemples
Inférence à zéro exemple
Inférence à un seul coup
Inférence à partir de quelques exemples
___Un cas d'apprentissage en contexte qui a mal tourné
___Meilleures pratiques pour l'apprentissage en contexte
Meilleures pratiques d'ingénierie rapide
Paramètres de configuration d'inférence
addition

▣ Chapitre 3 : Modèle de base du langage à grande échelle

Modèle de fondation du langage étendu
Tokeniseur
Vecteur d'intégration
Architecture Transformer
Fenêtres d'entrée et de contexte
Couche d'intégration
encodeur
___Attention à soi-même
Décodeur
Sortie Softmax
Modèle de fondation à base de transformateurs
Ensemble de données de pré-entraînement
lois sur l'échelle
Modèle d'optimisation informatique
addition

▣ Chapitre 4 : Optimisation de la mémoire et des calculs

problèmes de mémoire
Types de données et précision numérique
Quantification
___fp16
___bfloat16
___fp8
___int8
Optimisation de la couche d'auto-attention
___Attention flash
___Groupe de requêtes Attention
informatique distribuée
Traitement parallèle des données distribuées
Traitement parallèle de données entièrement partitionnées
Comparaison des performances de DDP et FSDP
Informatique distribuée AWS
Traitement parallèle de données entièrement partitionnées avec Amazon SageMaker
Kit de développement logiciel (SDK) AWS Neuron et formation AWS
addition

▣ Chapitre 5 : Réglage fin et évaluation

Réglage fin basé sur les instructions
___Llama 2-Chat
___Falcon-Chat
___FLAN-T5
Ensemble de données d'instructions
Ensemble de données d'instructions multitâches
___FLAN : Exemple de jeu de données d'instructions multitâches
Modèle d'invite
___Conversion d'un ensemble de données défini par l'utilisateur en un ensemble de données d'instructions
Réglage fin basé sur les instructions
___Amazon SageMaker Studio
Démarrage rapide Amazon SageMaker
Outil d'estimation Amazon SageMaker pour ___Hugging Face
évaluation
___Critères d'évaluation
___Références et ensembles de données
addition

▣ Chapitre 6 : Réglage fin efficace des paramètres (PEFT)

Comparaison du réglage fin complet et du PEFT
LoRA et QLoRA
___Principes de base de LoRA
___classement
Modules et couches cibles
Application LoRA
Fusionnez l'adaptateur LoRa avec le modèle d'origine
Maintenance spécifique au locataire de l'adaptateur LoRA
___Comparaison des performances du réglage fin complet et de LoRA
___QLoRA
Accordage rapide et indications douces
addition

▣ Chapitre 7 : Mise au point fine grâce à l’apprentissage par renforcement et aux retours humains

Alignement humain : Utilité, Honnêteté, Non-malveillance
Aperçu de l'apprentissage par renforcement
Apprendre un modèle de récompense personnalisé
Collecte de données d'apprentissage avec intervention humaine
Exemple d'instructions pour les étiqueteuses ___
Utilisation de la vérité terrain d'Amazon SageMaker pour collecter les annotations exclusivement humaines
Préparation des données de classement pour l'entraînement du modèle de récompense
___Formation au modèle de récompense
Modèle de rémunération existant : Lecteur de préjudices de Meta
Mise au point par apprentissage par renforcement grâce au retour d'information humain
___Utilisation du modèle de compensation dans RLHF
Algorithme d'apprentissage par renforcement pour l'optimisation de la politique de proximité
Effectuez un réglage fin RLHF avec ___PPO
___Atténuation des piratages informatiques
Utilisation d'un réglage fin efficace des paramètres (PEFT) dans RLHF
Évaluation de modèles affinés à l'aide de RLHF
Évaluation qualitative
Évaluation quantitative
Importer le modèle d'évaluation
Définition de la fonction d'agrégation de l'indice d'évaluation
Comparaison des indicateurs d'évaluation avant et après l'application du RLHF
addition

▣ Chapitre 8 : Optimisation du déploiement du modèle

Optimisation de l'inférence de modèles
___taille
Quantification post-entraînement ___GPTQ
___distillation
Conteneur d'inférence de modèles à grande échelle
AWS Inferentia : Matériel d'inférence dédié
Stratégie de mise à jour et de déploiement du modèle
Tests A/B
Distribution de l'ombre
Indicateurs et surveillance
Mise à l'échelle automatique
Politique de mise à l'échelle automatique
___Définir la politique de mise à l'échelle automatique
addition

▣ Chapitre 9 : Applications d’inférence contextuelle utilisant RAG et des agents

Limites des modèles de langage à grande échelle
___hallucination
___lacune de connaissances
CHIFFON
___Sources de connaissances externes
Flux de travail ___RAG
Chargement du document
___morceau
Recherche et réorganisation de documents
Augmentation de l'invite
Orchestration et mise en œuvre RAG
Chargement et segmentation des documents
Stockage et récupération de vecteurs
chaîne de recherche ___
___Réordonnancement utilisant la pertinence marginale maximale (MMR)
agent
Cadre ___ReAct
Cadre de langage de support de programme
Applications d'IA générative
FMOps : Opérations de cycle de vie pour les projets d’IA générative
Considérations relatives à la phase expérimentale
Considérations relatives à la phase de développement
Considérations relatives à la phase de déploiement opérationnel
addition

▣ Chapitre 10 : Modèle de fondation multimodal

Cas d'utilisation
Exemples d'utilisation de l'ingénierie des prompts multimodaux
Création et amélioration de la qualité des images
Création d'images
___Retouche et amélioration de la qualité des images
Inpainting, outpainting, profondeur d'image
___peinture
___Repeinture extérieure
___Profondeur de l'image
Légende d'images et questions-réponses visuelles
Légende d'image
Modération du contenu
Questions et réponses visuelles
Évaluation du modèle
Tâches de génération de texte à partir d'images
Tâche de génération d'images en texte
Raisonnement non verbal
Principes fondamentaux de l'architecture de diffusion
___diffusion directe
___diffusion inverse
___U-Net
Architecture de diffusion stable 2
encodeur de texte ___
___U-Net et le processus de diffusion
Conditionnement du texte
Attention croisée
Planificateur
Décodeur d'images
Architecture Stable Diffusion XL
___U-Net et attention croisée
___purificateur
___conditionnement
addition

▣ Chapitre 11 : Contrôle et réglage fin de la génération par diffusion stable

Réseau de contrôle
Réglage fin
___Cabine de rêve
___Cabine de rêve et PEFT-LoRA
Inversion textuelle
Aligner les valeurs humaines avec l'apprentissage par renforcement grâce au retour d'information humain
addition

▣ Chapitre 12 : Amazon Bedrock – Service géré d’IA générative

Modèle de fondation Bedrock
Modèle de la Fondation Amazon Titan
Modèle de base de diffusion stable de ___Stability AI
API d'inférence Bedrock
Modèles de langage à grande échelle
Génération de code SQL
Résumé du texte
___intégration
Réglage fin
agent
modèle multimodal
Créer une image à partir de texte
Créer une image à partir de ___image
Confidentialité des données et sécurité du réseau
Gouvernance et surveillance
addition

Image détaillée
Image détaillée 1

Avis de l'éditeur
★ Ce que ce livre aborde ★

Comment appliquer l'IA générative au monde des affaires
Comment déterminer le meilleur modèle d'IA générative pour votre tâche
◎ Effectuer rapidement des travaux d'ingénierie et d'apprentissage dans le contexte
◎ Affinez les modèles d'IA génératifs pour les adapter à votre ensemble de données grâce à l'adaptation de faible rang (LoRA).
◎ Comment aligner les modèles d'IA générative sur les valeurs humaines grâce à l'apprentissage par renforcement avec retour d'information humain (RLHF)
◎ Augmentation des modèles par génération de recherche augmentée (RAG)
◎ Développement d'agents et d'actions à l'aide de bibliothèques telles que LangChain et ReAct
Comment créer des applications d'IA générative avec Amazon Bedrock
SPÉCIFICATIONS DES PRODUITS
- Date d'émission : 24 octobre 2024
- Nombre de pages, poids, dimensions : 328 pages | 175 × 235 × 14 mm
- ISBN13 : 9791158395513

Vous aimerez peut-être aussi

카테고리