Passer aux informations sur le produit
Créez rapidement et facilement des systèmes ChatGPT et LLM avec Azure OpenAI.
Créez rapidement et facilement des systèmes ChatGPT et LLM avec Azure OpenAI.
Description
Introduction au livre
Comment construire un système d'IA efficace : instructions étape par étape

Au cœur de l'évolution rapide des technologies d'IA se trouve Microsoft Azure OpenAI.
Ce livre est un guide pratique qui vous accompagne pas à pas, de l'introduction à l'optimisation des modèles d'IA générative et de ChatGPT, afin que vous puissiez les appliquer immédiatement en pratique.
Vous pouvez apprendre non seulement la théorie, mais aussi les méthodes d'application pratiques en construisant un système de recherche de documents interne utilisant RAG basé sur ChatGPT sur Azure et une application copilote équipée de LLM.
Nous abordons également la gouvernance et la mise en œuvre responsable de l'IA nécessaires pour tirer parti d'Azure OpenAI.
Ce livre vous aidera à construire facilement des systèmes d'IA et à apprendre des techniques et un savoir-faire utiles, immédiatement applicables à votre travail.
  • Vous pouvez consulter un aperçu du contenu du livre.
    Aperçu

indice
À propos de l'auteur/traducteur/éditeur xi
Préface du traducteur xiv
Recommandation XVI
Avis du lecteur bêta xix
Début xxiii
Remerciements xxiv
À propos de ce livre xxv

PARTIE I : Tirer parti de ChatGPT sur Microsoft Azure

CHAPITRE 1 : IA générative et ChatGPT 3
1.1 L'impact de l'IA générative et de ChatGPT 3
__1.1.1 L'aube de l'ère de l'IA 3
__1.1.2 5 Tâches auxquelles ChatGPT peut être appliqué
[COLONNE] Interprète ouvert 9
__1.1.3 10 points importants à retenir lors de l'utilisation de ChatGPT
1.2 Structure de ChatGPT 10
1.2.1 Différences par rapport aux chatbots existants 10
__1.2.2 Qu'est-ce que GPT 11 ?
1.2.3 Comment générer des phrases préférées par les humains : RLHF 13
__1.2.4 La naissance de ChatGPT 13
1.3 Conclusion 14

CHAPITRE 2 : INGÉNIERIE PROMPT 15
2.1 Qu'est-ce que Prompt Engineering ? 15
2.2 Écriture de base 16
__2.2.1 Donner des instructions précises 16
__2.2.2 Spécification d'une sortie 17
__2.2.3 Attribution des rôles 18
__2.2.4 Spécification d'exemples d'entrée/sortie 19
[COLONNE] Apprentissage sans exemple et avec peu d'exemples 20
__2.2.5 Structuration des consignes 20
2.3 Chaîne de pensée 21
[COLONNE] Différences de performances entre GPT-3.5 Turbo et GPT-4 23
2.4 Autres techniques 24
2,5 Finir 25

CHAPITRE 3 Service Azure OpenAI 26
3.1 Qu'est-ce que le service Azure OpenAI ? 26
3.1.1 Différences entre le service API d'OpenAI et le service Azure OpenAI 27
__3.1.2 Vue d'ensemble d'Azure OpenAI 29
3.2 Premiers pas avec Azure OpenAI 30
__3.2.1 Demande d'accès Azure OpenAI 30
__3.2.2 Création de ressources 31
__3.2.3 Déploiement du modèle GPT 35
3.3 Développement d'applications ChatGPT dans Chat Playground 39
__3.3.1 Paramètres 40
__3.3.2 Session de chat 42
[COLONNE] Où fonctionne Chat Playground ? 44
__3.3.3 Déploiement d'une application de chat 44
[COLONNE] Code source 47 d'une application Web déployée dans l'environnement de test
3.4 Considérations 47
3.4.1 Questions de coûts 47
3.4.2 Quotas et limites 48
3.5 Finir 50

PARTIE II : Mise en œuvre d'un système de recherche documentaire interne utilisant RAG

CHAPITRE 4 Aperçu et conception du RAG 53
4.1 Problèmes et solutions avec ChatGPT 53
4.2 RAG est de 55
4.3 Système de recherche 57
4.4 Azure AI Search 58
__4.4.1 Création d'index 60
4.4.2 Recherche de documents 67
4.5 Orchestrateur 71
__4.5.1 Azure OpenAI sur vos données 72
__4.5.2 Flux d'invite Azure Machine Learning 73
4.5.3 Auto-implémentation 74
4.6 Azure OpenAI sur vos données 74
__4.6.1 Source de données 75
4.6.2 Comment utiliser 75
4.7 Flux d'invite Azure Machine Learning 81
4.7.1 Comment utiliser 82
[COLONNE] Qu'est-ce qu'Azure Machine Learning ? 91
4.8 LLM 91
4.9 API Azure OpenAI 92
API de complétion de chat __4.9.1 92
API d'intégration __4.9.2 97
4.10 Final 98
[COLONNE] RAG vs.
Réglage fin 98

CHAPITRE 5 Mise en œuvre et évaluation du modèle RAG 100
5.1 Architecture 100
5.2 Mise en œuvre de la recherche documentaire interne 105
5.2.1 Liste des services Azure à utiliser et leurs tarifs 105
5.2.2 Configuration d'un environnement de développement local 106
__5.2.3 Exécution dans un environnement local 110
__5.2.4 Déploiement des modifications locales sur App Service 112
__5.2.5 Modification du fichier de préférences 112
__5.2.6 Indexation supplémentaire des documents 112
__5.2.7 Poser la vraie question 112
__5.2.8 Présentation des fonctionnalités 113
5.3 Enregistrer l'historique des conversations 116
__5.3.1 Exemple de mise en œuvre du stockage de l'historique des conversations 117
5.3.2 Vérification de l'historique des conversations stockées dans Cosmos DB 119
5.4 Fonction de recherche 119
__5.4.1 Recherche vectorielle 120
[COLONNE] L'importance du découpage en morceaux 122
__5.4.2 Recherche hybride 123
__5.4.3 Recherche hybride sémantique 124
[COLUMN] Quel mode de recherche donne les meilleurs résultats ? 126
[COLONNE] Personnalisation du point 126
5.5 Automatisation de la collecte de données 127
5.6 Évaluation et amélioration RAG 129
5.7 Évaluation de la précision de la recherche 130
__5.7.1 Indicateurs d'évaluation de base 130
__5.7.2 Critères d'évaluation basés sur le classement 131
5.8 Évaluation de la précision de la génération 132
__5.8.1 Évaluation de la pertinence 133
__5.8.2 Évaluation de la cohérence 134
__5.8.3 Évaluation de similarité 135
[CHRONIQUE] Comment améliorer la précision des réponses RAG 135
5.9 Arrivée 136

PARTIE III Mise en œuvre d'une demande de LLM à l'aide de la pile Copilot

CHAPITRE 6 Orchestration IA 139
6.1 Qu'est-ce qu'une pile Copilot ? 139
__6.1.1 Couche 1 : Interface Copilote 140
__6.1.2 Couche 2 : Orchestration de l’IA 140
6.1.3 Niveau 3 : Modèle de base 141
6.2 Orchestration et agents IA 141
6.2.1 Raisonnement et action 141
6.2.2 Planification et exécution 145
[COLONNE] Langchain 146
[COLONNE] Noyau sémantique 147
__6.2.3 Exécution du plugin 148
6.3 Architecture et implémentation pour le développement de votre propre copilote 150
__6.3.1 Implémentation de la fonction de sélection d'outils (ReAct) 150
__6.3.2 Utilisation dans l'interface utilisateur de chat 152
__6.3.3 Implémentation du plugin ChatGPT 156
__6.3.4 Mise en œuvre de la sortie en flux continu 160
6.4 Arrivée 160
[CHRONIQUE] L'essor d'Azure AI Studio 161

CHAPITRE 7 : MODÈLES FONDAMENTAUX ET INFRASTRUCTURE D'IA 162
7.1 Définition du modèle de base et de l'infrastructure d'IA 162
7.2 Modèles hébergeables 163
__7.2.1 GPT-3.5 et GPT-4 163
[COLONNE] GPT-4 Turbo 166
[COLONNE] GPT-4o et o1 166
__7.2.2 Réglage fin 166
[COLONNE] Réglage fin de GPT-4 169
7.3 Modèle public 169
__7.3.1 Modèle type 171
7.3.2 Taille du modèle et méthode de compression 172
__7.3.3 Hébergement du modèle 177
[COLONNE] Catalogue de modèles Azure AI Foundry 179
7.4 Finir 180
[COLONNE] Logiciels libres et modèles d'apprentissage automatique 180

CHAPITRE 8 Interface Copilote 182
8.1 Définition de l'expérience utilisateur 182
8.1.1 Facilité d'utilisation 182
__8.1.2 Boutons d'arrêt et de régénération 183
8.1.3 Implémentation avec considérations relatives au cache 184
8.2 Gestion des réponses inexactes dans le cadre du LLM 185
8.2.1 Précision 185
8.2.2 Transparence (Citation des sources d'information) 185
8.2.3 Traitement en flux continu pour l'amélioration de l'expérience utilisateur 186
8.2.4 Traitement direct des flux de données provenant des points de terminaison OpenAI 186
8.2.5 Gestion de la réponse d'une application Flask au format flux 187
8.3 Références pour l'amélioration de l'expérience utilisateur 194
[COLONNE] Interfaces au-delà du chat 195
8.4 Finale 196

PARTIE IV GOUVERNANCE ET IA RESPONSABLE

CHAPITRE 9 GOUVERNANCE 199
9.1 Qu'est-ce qu'une base commune ? 199
9.2 Architecture de base commune 201
__9.2.1 Liste des services Azure à utiliser et leurs tarifs 201
__9.2.2 Déploiement 202
9.3 Authentification et autorisation 208
__9.3.1 Flux de traitement de l'authentification et de l'autorisation 208
__9.3.2 Exécution de l'exemple de code 209
[COLUMN] Clé d'abonnement à la gestion des API 215
[COLUMN] Autoriser l'accès à l'API Azure OpenAI à des utilisateurs spécifiques uniquement 216
9.4 Consolidation des données 217
9.5 Facturation 219
9.6 Limite d'appel 221
9.7 Réseau fermé 221
9.8 Équilibrage de charge 223
__9.8.1 Utilisation de la passerelle d'application 226
[COLUMN] Précautions lors de l'utilisation de l'équilibrage de charge Application Gateway en environnement de production 228
__9.8.2 Utilisation de la gestion des API 230
9.9 Final 231

CHAPITRE 10 : IA responsable 232
10.1 L'engagement de Microsoft en faveur d'une IA responsable 232
10.2 Application responsable de l'IA 234
10.3 Filtre de contenu 235
10.4 Gestion des données 240
10,5 Arrivée 241

ANNEXE A Configuration de l'environnement pour exécuter l'exemple de code 242
A.1 Installation de Python 242
__A.1.1 Instructions d'installation (Windows) 243
A.2 Installation de Git 244
__A.2.1 Instructions d'installation (Windows) 244
A.3 Installation de l'interface de ligne de commande Azure Developer 247
__A.3.1 Instructions d'installation (Windows) 247
__A.3.2 Instructions d'installation (Linux) 248
Instructions d'installation __A.3.3 (macOS) 248
A.4 Installation de Node.js 249
__A.4.1 Instructions d'installation (Windows) 249
A.5 Installation de PowerShell (Windows uniquement) 251
__A.5.1 Méthode d'installation 251

ANNEXE B Structure de ChatGPT 255
B.1 L'essor des Transformers 256
__B.1.1 Attention 256
__B.1.2 seq2seq 257
__B.1.3 Attention introduite dans seq2seq 258
__B.1.4 Traitement du calcul de l'attention 259
Structure du transformateur __B.1.5 260
__B.1.6 Avantages des transformateurs 262
__B.1.7 Limitations du transformateur 262
B.2 Amélioration des performances par la mise à l'échelle et le pré-entraînement des modèles de langage 263
__B.2.1 Évolution des modèles de la série d'encodeurs à transformateur 264
__B.2.2 Évolution des modèles de décodeurs à transformateurs de la série 265
__B.2.3 Loi d'échelle 266
B.3 Modèle de langage adapté aux réponses favorables 266
[COLONNE] Modèle public 269

En conclusion 270
Recherche 272

Image détaillée
Image détaillée 1

Dans le livre
Lors de la résolution de problèmes complexes avec ChatGPT, une méthode appelée chaîne de pensée (CoT) est utile.
Il s'agit d'une méthode permettant d'obtenir des réponses plus précises en induisant une inférence étape par étape dans LLM.
Lors de la résolution de problèmes complexes ou informatiques, si vous guidez le modèle étape par étape tout au long du processus de résolution, vous pourrez tirer des conclusions précises sur le problème à résoudre ultérieurement.
(...) De plus, le simple fait d'ajouter la phrase « réfléchissons étape par étape » à la consigne peut améliorer la précision des réponses.
Cette méthode est utile car elle permet d'apprendre aux élèves à tirer des conclusions par un raisonnement étape par étape, sans avoir à préciser les étapes exactes.

--- pp.21-22

Les messages système et les paramètres définis dans l'environnement de chat peuvent être distribués à une application web (ci-après dénommée application web).
Vous pouvez déployer à l'aide d'Azure App Service, une plateforme en tant que service (PaaS) qui héberge des applications Web, en cliquant sur [Déployer] dans le coin supérieur droit de l'espace de jeu et en sélectionnant [...en tant qu'application Web] (Figure 3-25).
(...) Saisissez les informations nécessaires à la création des ressources de l'application Web et cliquez sur le bouton [Déployer] pour terminer le déploiement.
Si vous cochez l'option « Activer l'historique des conversations dans l'application web » et que vous déployez, l'historique des conversations sera stocké dans Azure Cosmos DB (Figure 3-26).

--- pp.44-45

Lorsque le développement d'un système LLM ne parvient pas à améliorer l'efficacité du travail, vous pouvez envisager d'ajuster les paramètres du LLM à l'aide d'une grande quantité de données d'entraînement.
Cette méthode est appelée réglage fin et peut être appliquée à des modèles comme GPT-3.5 Turbo d'Azure OpenAI.
Pour affiner un modèle, il faut préparer des données d'entraînement qui associent des invites pour des tâches spécifiques à des réponses idéales.
Il est important de noter que le réglage fin n'est pas adapté à la mémorisation des connaissances ou de la logique.
Le réglage fin permet d'ajuster les formats de sortie ou d'accroître l'efficacité de tâches spécifiques.

--- p.98

La cause la plus fréquente du manque de précision des réponses RAG est que les documents qui constituent la base de la réponse ne sont pas récupérés.
À mesure que le nombre de documents enregistrés dans le système de recherche augmente, l'inclusion de documents non pertinents dans les résultats de recherche est également une cause majeure de la baisse de la précision des réponses.
Lorsque ce problème survient, la solution la plus efficace consiste à créer un index pour le système de recherche en le divisant selon le cas d'utilisation.
Par exemple, si vous créez un index avec une catégorie large telle que « documents internes », des documents non liés seront également recherchés, mais si vous créez un index par cas d'utilisation, tel que « manuel du personnel », vous pouvez limiter la portée de la recherche.

--- p.135

L'infrastructure d'IA désigne les ressources informatiques qui hébergent le modèle de base.
Parmi les exemples représentatifs, citons les ressources de calcul équipées de GPU et les équilibreurs de charge pour l'hébergement de modèles spécialisés personnalisés ou de LLM open source. Les modèles de base basés sur des API, tels qu'Azure OpenAI Service, qui fournit des LLM, ou Azure AI Services, qui propose divers modèles spécialisés, masquent intrinsèquement l'infrastructure d'IA, éliminant ainsi le besoin de la configurer.
Les services d'IA Azure, à titre d'exception, ont la capacité de s'adapter verticalement ou horizontalement de manière autonome à l'aide de conteneurs ; vous pouvez donc configurer vous-même votre infrastructure d'IA et utiliser directement la mise à l'échelle verticale ou horizontale.

--- p.163

Azure OpenAI peut collecter des données de surveillance et émettre des alertes en s'intégrant à Azure Monitor, tout comme les autres services Azure.
Toutefois, le format de surveillance standard d'Azure OpenAI ne permet pas d'enregistrer dans les journaux le contenu des invites ni les résultats générés.
Dans ce cas, si vous activez le journal de diagnostic d'API Management pour envoyer le contenu de la requête (invite) et de la réponse (résultat généré) à Log Analytics, Blob Storage ou Azure Event Hubs, l'invite et le résultat généré seront enregistrés dans les journaux.
/ La gestion des API déployée a déjà des journaux de diagnostic activés et est configurée pour sortir dans l'espace de travail et le compte de stockage Log Analytics (Blob Storage) (Figure 9-19).
Cependant, dans l'état actuel des choses, le contenu de l'invite ou les résultats de la création ne sont pas consignés dans le journal.
--- p.217

Avis de l'éditeur
Comment utiliser Azure OpenAI Service pour simplifier le développement de systèmes d'IA

La prolifération rapide de l'IA générative engendre une demande pour la capacité d'aller au-delà de la simple utilisation de l'IA afin de la construire et de l'optimiser directement.
Ce livre est le premier guide coréen expliquant comment développer et appliquer directement des services d'IA générative à l'aide d'Azure OpenAI Service, en guidant systématiquement l'application efficace des modèles d'IA.

La première partie explique les concepts de base et la structure des LLM, tels que ChatGPT et l'IA générative.
Vous pouvez créer une application ChatGPT à l'aide d'Azure AI Foundry et apprendre des techniques d'ingénierie des prompts pour affiner les réponses du modèle.

La deuxième partie vous guide à travers le processus de création d'un système basé sur RAG qui utilise l'IA pour rechercher et résumer des documents, et explore comment tirer efficacement parti des services Azure pour le développer.
La partie 3 aborde la pile Copilot, l'orchestration de l'IA, le modèle de base, l'infrastructure de l'IA et l'interface Copilot nécessaires au développement Copilot.

La partie 4 aborde la gouvernance et l'IA responsable nécessaires au développement et à l'exploitation des applications LLM.
Il aborde les paramètres d'authentification et de sécurité, les limites des appels API, les stratégies d'optimisation des coûts et les opérations d'IA responsables.
Enfin, l'annexe examine comment construire un environnement d'exécution pour un exemple de code et la structure de ChatGPT.


Le processus d'application pratique de la technologie de l'IA n'est toujours pas facile.
Azure OpenAI vous permet de développer et d'optimiser plus efficacement les modèles d'IA générative.
Ce livre vous permettra d'apprendre étape par étape, depuis les concepts de base des modèles d'IA jusqu'au développement d'applications concrètes.
Azure OpenAI vous guide à travers les méthodes les plus pratiques pour tirer parti de l'IA.

Public cible

● Responsable DX : Un responsable qui planifie des stratégies de transformation numérique basées sur l'IA et favorise leur introduction au sein de l'entreprise.
● Responsable des opérations et de la gouvernance de l'IA : Responsable informatique chargé de la gestion de la sécurité, de l'authentification, des coûts et de la gouvernance des services Azure OpenAI.
● Architecte de solutions : Un planificateur chargé de concevoir et d'élaborer l'architecture des produits et services utilisant l'IA.
Ingénieur Cloud : Un ingénieur qui déploie, exploite et optimise les performances des applications d'IA dans un environnement Azure.

Contenu principal

● Concepts de base de l'IA générative et de ChatGPT
Comment utiliser le service Azure OpenAI
● Techniques et applications d'ingénierie rapide
● Création d'un système de recherche documentaire interne utilisant Azure AI Search et RAG
ChatGPT, développement d'applications de copilote utilisant Langchain
● Guide pour une utilisation responsable de l'IA
SPÉCIFICATIONS DES PRODUITS
- Date d'émission : 17 mars 2025
Nombre de pages, poids, dimensions : 304 pages | 732 g | 188 × 245 × 19 mm
- ISBN13 : 9791194587033

Vous aimerez peut-être aussi

카테고리