Passer aux informations sur le produit
Manuel d'utilisation des prompts LLM
Manuel d'utilisation des prompts LLM
Description
Introduction au livre
Dès que je lis un livre et que j'applique immédiatement ses enseignements, l'IA que j'utilise change !

Que ce soit pour le travail ou dans la vie quotidienne, il est difficile de trouver quelqu'un qui n'utilise pas l'IA générative.
Mais à quoi bon disposer d'un outil appelé IA générative si l'on n'obtient pas les réponses attendues ? En fin de compte, le succès ou l'échec de l'IA dépend de la manière dont on formule les questions, autrement dit, les consignes.
Ce livre fournit des exemples de réponses réelles de divers modèles de langage à grande échelle (LLM), notamment ChatGPT, Gemini et Claude, et explique systématiquement la conception des invites situationnelles et les schémas de pensée sous-jacents.
Au-delà de la simple énumération d'exemples, il explique le fonctionnement des invites, afin que vous puissiez adapter les questions à votre propre situation spécifique.
Couvrant un large éventail de sujets, allant des applications de base comme l'automatisation des tâches, la création de contenu et l'analyse de données aux sujets plus avancés comme le codage, l'intégration d'API et l'exploitation de modèles open source, le livre propose des pistes que vous pouvez appliquer directement ou développer de manière unique.
Si vous souhaitez devenir quelqu'un qui pose des questions pertinentes, et non pas simplement quelqu'un qui utilise des outils, alors vous devriez absolument lire ce livre.
  • Vous pouvez consulter un aperçu du contenu du livre.
    Aperçu

indice
Chapitre 1 : Ingénierie des prompts et modèles de langage à grande échelle

1.1 Qu'est-ce que Prompt Engineering ?
1.1.1 La tendance de l'IA générative
__1.1.2 « Prompt », la clé de l’IA générative
__1.1.3 Qu'est-ce que l'ingénierie rapide ?
__1.1.4 Pourquoi une ingénierie rapide est-elle nécessaire ?
__1.1.5 L'ingénierie des prompts deviendra-t-elle bientôt obsolète ?
__1.1.6 Recherche rapide en ingénierie
__1.1.7 Ingénierie rapide au-delà des modèles de langage à grande échelle

1.2 Avantages et inconvénients des modèles de langage à grande échelle
__1.2.1 Que pouvez-vous faire avec des modèles de langage à grande échelle ?
__1.2.2 Quatre tâches clés que les modèles de langage à grande échelle réussissent bien
1.2.3 Tâches plus spécifiques
1.2.4 Ce que les modèles de langage à grande échelle ne peuvent pas faire et ce qu'ils font mal

1.3 Principes de fonctionnement et processus de développement des modèles de langage à grande échelle
1.3.1 Historique de l'émergence des modèles de langage à grande échelle
1.3.2 Trois périodes de forte croissance de l'IA et la voie vers l'apprentissage profond
1.3.3 De l'émergence de l'apprentissage profond à l'IA générative
__1.3.4 Réseaux de neurones récurrents
__1.3.5 Transformateur
__1.3.6 BERT
__1.3.7 GPT

1.4 Types de modèles de langage à grande échelle et comment les utiliser
__1.4.1 Comment utiliser des modèles de langage à grande échelle ?
1.4.2 Utilisation en tant que service Web
1.4.3 Utilisation de l'API Web
1.4.4 Installation et utilisation du logiciel libre LLM

1.5 Comment utiliser ChatGPT
__1.5.1 ChatGPT et son développeur OpenAI
1.5.2 Comment s'inscrire et utiliser ChatGPT

Chapitre 2 : Introduction à l’ingénierie rapide

2.1 Examinons le fonctionnement de base des modèles de langage à grande échelle.
__2.1.1 Quelle est la « probabilité » d’un modèle de langage à grande échelle ?
__2.1.2 Quelle est une phrase plausible qui commence par « dans la grande maison » ?
__2.1.3 Quand la « plausibilité » révèle une « hallucination »
__2.1.4 Paramètre de température qui spécifie la diversité
__2.1.5 Paramètre top_p qui limite la diversité

2.2 Format questions-réponses de l'invite
__2.2.1 Les modèles de questions-réponses peuvent être utilisés pour obtenir des réponses aux questions.
2.2.2 Posons-nous des questions sur la couleur de la mer par le biais d'une séance de questions-réponses.
__2.2.3 Posons des questions générales qui nécessitent une compréhension de lecture.
__2.2.4 Le système de questions-réponses garantit des réponses stables de la part des modèles de langage à grande échelle
__2.2.5 Voyons si nous pouvons résoudre des problèmes de culture générale avec des questions-réponses.
__2.2.6 Posons des questions créatives avec Q&R : Où devrions-nous voyager ?
2.2.7 Une variante du format questions-réponses qui suscite plusieurs réponses
__2.2.8 Combinons Q et le nombre

2.3 Instructions et format d'entrée
2.3.1 Conception des invites, y compris les instructions et les entrées
__2.3.2 Tâche de génération de texte continu
2.3.3 Adopter un ton poli
2.3.4 Reformuler les phrases pour les rendre plus faciles à comprendre
__2.3.5 Travail de traduction anglais-coréen
2.3.6 Choisir des plats épicés parmi les options
__2.3.7 Sélection d'un objet rouge dans la liste
__2.3.8 Considérations sur les délimiteurs
__2.3.9 Grammaire Markdown

Chapitre 3 : Opérations de base des modèles de langage à grande échelle

3.1 Tâche de synthèse : Résumer avec style
__3.1.1 Modèles de langage à grande échelle et tâches de synthèse
3.1.2 Soyez conscient de l'objectif du résumé
3.1.3 Points clés du résumé
__3.1.4 Spécifions le style de résumé
3.1.5 Omissions et distorsions de l'information
3.1.6 Résumé avec sources et citations
__3.1.7 Restrictions relatives aux jetons
__3.1.8 Que faire si je veux résumer une phrase plus longue ?

3.2 Tâche d'inférence : classification de texte et analyse des sentiments
3.2.1 Modèles de langage à grande échelle et tâches d'inférence
3.2.2 Classons le texte
3.2.3 Analysons les émotions
3.2.4 Évaluons et notons les phrases
3.2.5 Déduisons les résultats à partir des informations

3.3 Tâches de transformation : Changer le ton, corriger les phrases et convertir les formats de données.
__3.3.1 Tâche de conversion
3.3.2 Travail de traduction
__3.3.3 Exercice de reconstruction de phrases
3.3.4 Relecture et correction des phrases
3.3.5 Conversion du format des données

3.4 Travaux complémentaires : Vérification des capacités de création d’histoires et de génération de code
3.4.1 Travaux d'extension
3.4.2 Création d'histoires
3.4.3 Cadre de génération d'idées
3.4.4 Génération de code

3.5 Autres tâches : discuter et extraire, etc.
3.5.1 Autres tâches
3.5.2 Tâches de dialogue : jeux et jeux de rôle
3.5.3 Tâche d'extraction d'informations

Chapitre 4 : Suggestions à quelques coups et techniques d’amélioration des performances

4.1 Suggestions de type zéro-shot, one-shot et few-shot
__4.1.1 Que sont les tirs zéro, les tirs à un seul coup et les tirs peu nombreux ?
4.1.2 Comparaison des tirs nuls, à un seul tir et à quelques tirs
__4.1.3 Que dois-je fournir pour l'invite de prise de photo ?
4.1.4 Comparaison des phrases générées avec zéro-shot et peu d'exemples

4.2 Liens de pensée
__4.2.1 Qu'est-ce qu'un lien de pensée ?
__4.2.2 Utilisons la chaîne de pensée (CoT)
__4.2.3 Utilisons la chaîne de pensée (CoT) pour le « problème pierre-feuille-ciseaux à 3 personnes »
__4.2.4 Qu'est-ce que Zero Shot CoT ?
__4.2.5 Résolvons le problème du calcul du papier peint avec CoT zéro-shot.
4.2.6 Phrase gagnante menant à un CoT zéro-shot
4.2.7 Phrases incitant à la réflexion pour les modèles de langage à grande échelle
4.2.8 Prenons une grande inspiration avec les modèles de langage à grande échelle
__4.2.9 Suggestions émotionnelles

4.3 Autocohérence
__4.3.1 Qu’est-ce que l’autocohérence ?
4.3.2 Un exemple d'utilisation de l'autocohérence dans les problèmes de calcul
__4.3.3 Utilisons la cohérence interne pour déterminer si un message est important.

4.4 Arbre de la pensée
__4.4.1 L'Arbre de la Pensée
__4.4.2 Utilisons l'arbre de pensée pour déduire où se trouve la balle.
__4.4.3 Intégrons un arbre de pensée (ToT) dans l'invite
__4.4.4 24 Résolvons le jeu

4.5 Système MAGI 261
4.5.1 Rassemblons la sagesse de nombreuses personnes : imiter le système MAGI
__4.5.2 Le système MAGI répond : Quel langage est le meilleur, Rust ou Go ?
__4.5.3 Transformons la personnalité du système MAGI.
__4.5.4 Essayons le problème de compréhension de lecture

4.6 Moteur de script virtuel, PAL
__4.6.1 Qu'est-ce qu'un moteur de script virtuel ?
4.6.2 Agissons conformément au programme virtuel
4.6.3 Faisons-en un moteur de script virtuel
__4.6.4 Simulons un pseudocode
4.6.5 Spécifions clairement la procédure comme un programme
4.6.6 Créons des données à l'aide de SQL
__4.6.7 PAL, Modèle de langage de support de programme

4.7 Exemple de consigne
__4.7.1 Qu'est-ce qu'une fausse invite ?
__4.7.2 Exercices de simulation de réponse
4.7.3 Utiliser des exemples de phrases pour améliorer la qualité des phrases

Une collection de suggestions 10 fois plus utiles utilisant les modèles du chapitre 5.

5.1 Invites à la création de profil et de CV
5.1.1 Incitation à réfléchir à un profil de médias sociaux accrocheur
__5.1.2 Rédaction de CV à l'aide de modèles de langage à grande échelle
5.1.3 Rédiger une lettre de motivation
__5.1.4 Créer de meilleurs CV à l'aide de modèles de langage à grande échelle

5.2 Suggestions de noms : des noms d’animaux de compagnie aux titres de blog
5.2.1 Éléments à prendre en compte lors du choix d'un nom
__5.2.2 Quel nom est bon ?
__5.2.3 Donnons un nom à nos animaux de compagnie
5.2.4 Trouvons un titre pour cet article de blog
5.2.5 Noms des variables et noms des fonctions

5.3 Suggestions de génération d'idées utilisant des méthodes de génération d'idées
5.3.1 Méthode de génération d'idées
5.3.2 Cadre de génération d'idées
5.3.3 Les bases de la génération d'idées : le brainstorming
5.3.4 Génération d'idées à l'aide de SCAMPER
__5.3.5 Utilisons la liste de contrôle d'Osborn
__5.3.6 Essayons la technique des six chapeaux
5.3.7 Génération d'idées à l'aide de la technique des personas

5.4 Automatisation des tâches 1 : Invite de traitement par lots de fichiers Excel
5.4.1 Modèles de langages à grande échelle et programmation
5.4.2 Modèle de langage à grande échelle familier avec l'utilisation d'Excel
__5.4.3 Automatisons le travail Excel avec des modèles de langage à grande échelle.
5.4.4 Lire un fichier de contacts Excel et créer une invitation au format PDF
__5.4.5 Décompressons 100 fichiers ZIP.
5.4.6 Sauvegarde automatique des fichiers non mis à jour depuis plus d'un an

5.5 Automatisation des tâches 2 : Contrôle du navigateur Web, invite de création de données à extraire
__5.5.1 Comment contrôler automatiquement le comportement du navigateur Web ?
__5.5.2 Prenons une capture d'écran d'une page Web spécifique.
__5.5.3 Connectez-vous au site web des membres et téléchargez le fichier CSV.
__5.5.4 Ajouter toutes les œuvres d'un utilisateur spécifique aux favoris

Chapitre 6 : Utilisation des API Web et du LLM open source

6.1 Comment utiliser l'API ChatGPT d'OpenAI
6.1.1 Avantages de l'utilisation de ChatGPT comme API
6.1.2 Préparation à l'utilisation de l'API ChatGPT
6.1.3 Éléments à vérifier pour utiliser l'API ChatGPT en toute sécurité
6.1.4 Obtenir une clé API auprès de la plateforme OpenAI
6.1.5 Enregistrez la clé API dans une variable d'environnement
__6.1.6 Installons le package Python d'OpenAI
__6.1.7 Exécutons le programme le plus simple
__6.1.8 Discutons avec l'API ChatGPT
__6.1.9 Utilisons le service Azure OpenAI

6.2 Comment utiliser les modèles de langage à grande échelle open source
6.2.1 Modèles de langage open source à grande échelle faciles à tester
6.2.2 Utilisation de base de Colab
__6.2.3 Essayons le modèle de langage à grande échelle de Meta, Llama 3.
6.2.4 Exécutez facilement des modèles de langage à grande échelle avec llama.cpp
__6.2.5 Essayons la vigogne
__6.2.6 Installons-le sur le PC local

Chapitre 7 : Ingénierie avancée des prompts avec l’AGI comme objectif

Cohérence des versions d'API 7.1
7.1.1 Examen de la cohérence interne et du programme que vous allez créer ici
7.1.2 Calculer l'âge en utilisant la cohérence interne
__7.1.3 Déterminons l'importance du courrier électronique en utilisant la cohérence interne.
__7.1.4 Calculons le nombre de gâteaux vendus en utilisant la cohérence interne.

Système MAGI avec API version 7.2
7.2.1 Configurons le système MAGI ToT avec l'API
7.2.2 Décidons du menu du déjeuner avec MAGI ToT
7.2.3 Parlons de l'achat et de la location avec MAGI ToT

7.3 Suggestions de planification et de résolution
__7.3.1 Quelles sont les pistes de planification et de résolution ?
7.3.2 Méthodes spécifiques de planification et de résolution
__7.3.3 Résolvons le problème du calcul de la longueur de la bougie.
__7.3.4 Créons un programme Python avec des invites de planification et de solution.
__7.3.5 Exécutons automatiquement des programmes Python avec l'API.
__7.3.6 Résolvons le problème de la combinaison pudding et chocolat en utilisant les invites de planification et de solution.

7.4 Ancrage : Tirer parti des ressources externes, telles que la recherche
7.4.1 Mise à la terre
7.4.2 Demander à un modèle de langage à grande échelle quelle heure il est
7.4.3 Fournir des outils externes pour les modèles de langage à grande échelle
7.4.4 Utilisons l'API Wikipédia pour la recherche

7.5 Liaison avec les bases de données vectorielles
7.5.1 Combinaison d'un modèle de langage à grande échelle avec une base de données vectorielle
__7.5.2 Bases de données vectorielles et d'intégration
7.5.3 Résumé de documents longs à l'aide de bases de données vectorielles
7.5.4 Résumé de documents longs sans utiliser de base de données vectorielle
__7.5.5 Créons un système QA qui combine bases de données de recherche et vectorielles.

Image détaillée
Image détaillée 1

Avis de l'éditeur
Une seule expression change la réponse de l'IA générative !
Des modèles et des exemples de prompts situationnels, tout dans un seul livre !


L'IA générative est désormais devenue un outil du quotidien utilisé par tous.
Mais n'avez-vous jamais été déçu(e) par une réponse inattendue ? C'est alors qu'il faut vérifier si la question posée était appropriée ou si une question plus complète aurait été préférable.
Même avec le même outil, les résultats peuvent être complètement différents selon la façon dont vous structurez vos questions.

Ce livre explique comment écrire des invites qui sont utiles en pratique lors de l'utilisation de divers modèles de langage à grande échelle (LLM), tels que ChatGPT, Claude et Gemini.
Il vous enseigne de manière systématique comment concevoir des invites spécifiques et adaptées à la situation, afin que vous puissiez les appliquer à 100 % dans votre travail et votre vie quotidienne.
Nous abordons un large éventail de conseils pratiques pour des tâches telles que l'automatisation des tâches, le codage, la création de contenu et l'analyse, ainsi que des techniques avancées de conception d'invites utilisant des API Web et des LLM open-source.
Nous avons compilé séparément diverses expressions de modification, afin que vous puissiez adapter les invites incluses dans le livre à votre situation et créer vos propres invites.
Recommandé à ceux qui souhaitent apprendre à poser des questions plus pertinentes et obtenir des réponses satisfaisantes.

Au cours du processus de traduction, j'ai pu vivre des expériences impressionnantes en exécutant les exemples un par un.
Par exemple, la scène où le mannequin décrivait avec précision le lieu de téléchargement de la photo était glaçante, et le fait de voir chaque mannequin réagir différemment à la même question m'a donné une idée de la personnalité et des caractéristiques uniques de chaque mannequin.
Des techniques comme l'utilisation du pseudocode pour guider la réflexion et la synthèse des informations provenant de Wikipédia se sont également avérées utiles.
En particulier, les différents cadres de génération d'idées, tels que le brainstorming, et le processus systématique d'approche de la résolution de problèmes étaient tellement intéressants que j'ai voulu les appliquer à diverses tâches, même en dehors du programme LLM.
Bien que de nombreux ouvrages pratiques sur le LLM aient été publiés récemment, si vous acquérez de solides bases avec ce livre, vous comprendrez beaucoup plus facilement n'importe quel autre ouvrage.
-Kim Seong-hun
SPÉCIFICATIONS DES PRODUITS
- Date d'émission : 31 août 2025
- Nombre de pages, poids, dimensions : 500 pages | 908 g | 185 × 235 × 20 mm
- ISBN13 : 9791140715558

Vous aimerez peut-être aussi

카테고리