Cherchez-vous un moyen de rédiger une lettre de motivation personnalisée qui vous aidera à décrocher l’emploi de vos rêves ? Si tel est le cas, vous pourriez être intéressé à utiliser un grand modèle de langage (LLM) avec l'API PaLM pour créer un générateur de lettre de motivation.
Les grands modèles linguistiques (LLM) sont une intelligence artificielle (IA) qui peut générer du texte, traduire des langues, écrire différents formats de texte créatifs et répondre à vos questions de manière informelle. Ils sont si puissants qu’ils peuvent même être utilisés pour créer de nouveaux outils et applications.
L'un de ces outils est l'API PaLM, qui permet aux développeurs d'accéder et d'utiliser les LLM.
Ce guide vous montrera comment utiliser l'API PaLM (API de modèle de langage pré-entraîné et à grande échelle) pour créer un générateur de lettre de motivation. Cet outil peut vous aider à générer des lettres de motivation personnalisées pour les candidatures à un emploi.
Les grands modèles linguistiques (LLM) sont des systèmes avancés d'intelligence artificielle (IA) formés sur des ensembles de données textuels massifs. Cela les aide à apprendre comment les mots et les expressions s'emboîtent, leur permettant ainsi de générer des phrases compréhensibles et correctes.
Les LLM sont un type d' IA générative , ce qui signifie qu'ils peuvent créer du nouveau contenu.
Les LLM sont généralement construits à l'aide d'un type de réseau neuronal appelé transformateur . Les transformateurs peuvent apprendre des dépendances à longue portée entre les mots, essentielles à la compréhension et à la génération d'un langage naturel. Les modèles de transformateur comprennent plusieurs couches , chacune effectuant une tâche différente.
Par exemple, la couche d’auto-attention permet au modèle d’apprendre les relations entre différents mots dans une phrase.
Un exemple de LLM est GPT-3, créé par OpenAI. GPT-3 a appris de nombreux textes et codes. Il peut écrire, traduire des langues, créer du contenu créatif et répondre aux questions de manière conviviale.
Les LLM sont extrêmement puissants et pourraient changer la façon dont nous utilisons les ordinateurs. À mesure qu’ils s’améliorent, ils pourraient nous aider de plusieurs manières :
Un LLM fonctionne en apprenant d'abord les relations statistiques entre les mots et les expressions dans une langue. Cela se fait en entraînant le modèle sur un ensemble massif de données de texte et de code. Une fois que le modèle a appris ces relations, il peut générer un nouveau texte similaire à celui sur lequel il a été formé.
Le LLM est formé sur un ensemble massif de données de texte et de code. Cet ensemble de données comprend tout, des livres et articles aux référentiels de codes et aux publications sur les réseaux sociaux.
Le LLM apprend les relations statistiques entre les mots et les expressions de l'ensemble de données. Cela signifie qu'il apprend quels mots sont les plus susceptibles d'apparaître ensemble et comment le sens d'une phrase peut changer en fonction de l'ordre des mots.
Une fois que le LLM a appris ces relations, il peut générer un nouveau texte. Pour ce faire, il commence par un texte de départ, comme quelques mots ou une phrase. Ensuite, il utilise les relations statistiques apprises pour prédire le mot suivant dans la phrase. Il continue ainsi jusqu'à ce qu'il génère une nouvelle phrase.
Voici un exemple de la façon dont un LLM peut générer du texte :
`Seed text: "The cat sat on the mat." LLM prediction: "The cat sat on the mat and stared at the bird."`
Dans cet exemple, le LLM a appris que les mots « cat » et « sat » sont souvent suivis du mot « on ». Il a également appris que « mat » est souvent suivi de « et ». Sur la base de ces relations, le LLM prédit que le mot suivant dans la phrase est « et ».
Il continue ensuite à prédire le mot suivant, « regardé ».
Voici un schéma qui illustre le fonctionnement d'un LLM :
Le LLM est constitué d’un réseau de neurones. Le réseau neuronal est un modèle mathématique complexe qui peut apprendre à reconnaître des modèles dans les données. Dans le cas d'un LLM, le réseau neuronal apprend à reconnaître les relations statistiques entre les mots et les phrases.
Le réseau neuronal est formé sur un ensemble massif de données de texte et de code. L'ensemble de données est introduit dans le réseau neuronal mot par mot. Le réseau neuronal tente alors de prédire le mot suivant de la séquence.
La précision des prédictions est mesurée et le réseau neuronal est mis à jour pour améliorer sa précision.
Ce processus est répété plusieurs fois jusqu'à ce que le réseau neuronal ait appris à prédire avec précision le mot suivant de la séquence.
Écriture créative : les LLM peuvent générer des textes créatifs, tels que des poèmes, des nouvelles ou des scripts. Par exemple, le LLM appelé GPT-3 peut être utilisé pour générer des poèmes originaux et créatifs.
L'API PaLM (Pathways Language Model API) est une API basée sur le cloud qui permet aux développeurs d'accéder au grand modèle de langage (LLM) PaLM 2 de Google. PaLM 2 est un LLM puissant qui peut être utilisé pour diverses tâches, notamment :
Génération de texte : l'API PaLM peut générer du texte de plusieurs manières. Vous pouvez utiliser les services de SMS ou de chat. Le service Texte peut générer du texte à de nombreuses fins, comme résumer du texte, rédiger du contenu créatif et répondre utilement à vos questions. Le service Chat peut générer du texte pour les chatbots et autres applications de conversation.
Langages de programmation : l'API PaLM prend en charge Node.js, Python, Android Kotlin, Swift et Java. Dans ce didacticiel, vous utiliserez l'exemple de texte Node.js.
Documentation : L'API PaLM est open source, ce qui la rend accessible à tous pour l'utiliser et l'améliorer. Il est également bien documenté, il est donc facile pour les développeurs d'apprendre à l'utiliser.
Pour démarrer avec l'API PaLM, vous aurez besoin des étapes suivantes :
1 : Créez un compte Google Cloud Platform.
Vous pouvez le faire en visitant le site Web de Google Cloud Platform : https://cloud.google.com/ .
2 : Obtenez une clé API. Pour utiliser l'API, vous avez besoin d'une clé API. Une fois que vous avez parcouru la liste d'attente, vous pouvez créer une clé en un seul clic dans MakerSuite. via ce lien https://makersuite.google.com/waitlist
3 : Installez la bibliothèque cliente de l'API PaLM. La bibliothèque cliente de l'API PaLM est un ensemble de codes que vous pouvez utiliser pour interagir avec l'API PaLM. Vous pouvez l'installer en exécutant la commande suivante :
npm init -y npm install google-auth-library
Ensuite, installez la bibliothèque client Generative Language :
npm install @google-ai/generativelanguage
4 : Importation des modules requis
const { TextServiceClient } = require("@google-ai/generativelanguage").v1beta2; const { GoogleAuth } = require("google-auth-library");
Dans cette étape, le code importe les modules nécessaires à l'aide de la fonction require
. Il importe la classe TextServiceClient
de la bibliothèque @google-ai/generativelanguage
et la classe GoogleAuth
de la google-auth-library
.
5 : Configuration des constantes
const MODEL_NAME = "models/text-bison-001"; const API_KEY = process.env.API_KEY;
Ici, le code définit deux constantes : MODEL_NAME
, qui spécifie le nom du modèle de génération de texte que vous souhaitez utiliser, et API_KEY
, qui récupère la clé API des variables d'environnement.
6 : Création d'une instance TextServiceClient
const client = new TextServiceClient({ authClient: new GoogleAuth().fromAPIKey(API_KEY), });
Cette étape crée une instance de la classe TextServiceClient
. Il initialise le client avec l'authentification à l'aide de la classe GoogleAuth, qui est instanciée avec la clé API obtenue à partir des variables d'environnement.
7 : Définition de l'invite
const prompt = "Write a simple and short cover letter for a technical writer";
Ici, le code définit une variable appelée prompt
qui contient le texte initial qui sera utilisé comme entrée pour la génération de texte.
8 : Générer du texte
client .generateText({ model: MODEL_NAME, prompt: { text: prompt, }, }) .then((result) => { console.log(JSON.stringify(result)); });
Dans cette étape, le code utilise l'instance client
pour générer du texte. Il appelle la méthode generateText
sur l'instance client. Il transmet un objet avec le nom du modèle ( MODEL_NAME
) et le texte d'invite ( prompt
) comme propriétés.
La méthode generateText
renvoie une promesse gérée à l'aide de la méthode then
. Le résultat généré est enregistré sur la console à l'intérieur du bloc après avoir été converti en chaîne JSON.
Ensuite, exécutez le script :
node index.js
Vous obtiendrez un résultat similaire à celui-ci :
[{"candidates":[{"safetyRatings":[{"category":"HARM_CATEGORY_DEROGATORY","probability":"NEGLIGIBLE"},{"category":"HARM_CATEGORY_TOXICITY","probability":"NEGLIGIBLE"},{"category":"HARM_CATEGORY_VIOLENCE","probability":"NEGLIGIBLE"},{"category":"HARM_CATEGORY_SEXUAL","probability":"NEGLIGIBLE"},{"category":"HARM_CATEGORY_MEDICAL","probability":"NEGLIGIBLE"},{"category":"HARM_CATEGORY_DANGEROUS","probability":"NEGLIGIBLE"}],"output":"Dear [Hiring Manager name],\n\nI am writing to express my interest in the Technical Writer position at [Company name]. I have been working as a technical writer for the past five years, and I have a proven track record of success in developing and delivering clear, concise, and engaging technical documentation.\n\nIn my previous role at [Previous company name], I was responsible for writing a wide range of technical documentation, including user guides, API documentation, and training materials. I have a strong understanding of the technical writing process, and I am proficient in a variety of writing and editing tools.\n\nI am also an excellent communicator, and I am able to effectively translate complex technical information into language that is easy for both technical and non-technical audiences to understand. I am confident that I have the skills and experience that you are looking for in a Technical Writer.\n\nI am eager to learn more about the Technical Writer position at [Company name], and I am confident that I would be a valuable asset to your team. I am available for an interview at your earliest convenience.\n\nThank you for your time and consideration.\n\nSincerely,\n[Your name]","citationMetadata":{"citationSources":[{"startIndex":1068,"_startIndex":"startIndex","endIndex":1196,"_endIndex":"endIndex","uri":"https://www.upwork.com/resources/cover-letter-tips","_uri":"uri","license":"","_license":"license"}]},"_citationMetadata":"citationMetadata"}],"filters":[],"safetyFeedback":[]},null,null]
En conclusion, ce didacticiel vous a présenté les bases de l'utilisation de grands modèles de langage (LLM) avec l'API PaLM. Vous avez appris à :
Ce n'est que le début de ce que vous pouvez faire avec les LLM et les API. En continuant à explorer ces technologies, vous découvrirez encore plus de façons de les utiliser pour résoudre des problèmes, créer de nouvelles expériences et façonner l’avenir.