Você está procurando uma maneira de escrever uma carta de apresentação personalizada que o ajudará a conseguir o emprego dos seus sonhos? Nesse caso, você pode estar interessado em usar um modelo de linguagem grande (LLM) com a API PaLM para criar um construtor de cartas de apresentação.
Grandes modelos de linguagem (LLMs) são inteligência artificial (IA) que podem gerar texto, traduzir idiomas, escrever diferentes formatos de texto criativos e responder informalmente às suas perguntas. Eles são tão poderosos que podem até ser usados para criar novas ferramentas e aplicativos.
Uma dessas ferramentas é a API PaLM, que permite aos desenvolvedores acessar e usar LLMs.
Este guia mostrará como usar a API PaLM (API de modelo de linguagem pré-treinada e em larga escala) para criar um construtor de cartas de apresentação. Esta ferramenta pode ajudá-lo a gerar cartas de apresentação personalizadas para formulários de emprego.
Grandes modelos de linguagem (LLMs) são sistemas avançados de inteligência artificial (IA) treinados em enormes conjuntos de dados de texto. Isso os ajuda a aprender como palavras e frases se encaixam, permitindo-lhes gerar frases compreensíveis e corretas.
LLMs são um tipo de IA generativa , o que significa que podem criar novos conteúdos.
LLMs são normalmente construídos usando um tipo de rede neural chamada transformador . Os transformadores podem aprender dependências de longo alcance entre palavras, essenciais para compreender e gerar linguagem natural. Os modelos de transformadores compreendem múltiplas camadas , cada uma das quais executa uma tarefa diferente.
Por exemplo, a camada de autoatenção permite que o modelo aprenda as relações entre diferentes palavras em uma frase.
Um exemplo de LLM é o GPT-3, criado pela OpenAI. O GPT-3 aprendeu com muitos textos e códigos. Ele pode escrever, traduzir idiomas, criar conteúdo criativo e responder perguntas de forma amigável.
LLMs são superpoderosos e podem mudar a forma como usamos os computadores. À medida que melhoram, eles podem nos ajudar de várias maneiras:
Um LLM funciona primeiro aprendendo as relações estatísticas entre palavras e frases em um idioma. Isso é feito treinando o modelo em um enorme conjunto de dados de texto e código. Depois que o modelo tiver aprendido essas relações, ele poderá gerar um novo texto semelhante ao texto no qual foi treinado.
O LLM é treinado em um enorme conjunto de dados de texto e código. Este conjunto de dados inclui desde livros e artigos até repositórios de código e postagens em mídias sociais.
O LLM aprende as relações estatísticas entre palavras e frases no conjunto de dados. Isto significa que aprende quais palavras têm maior probabilidade de aparecer juntas e como o significado de uma frase pode mudar dependendo da ordem das palavras.
Depois que o LLM tiver aprendido essas relações, ele poderá gerar um novo texto. Para fazer isso, comece com um texto inicial, como algumas palavras ou uma frase. Em seguida, utiliza as relações estatísticas que aprendeu para prever a próxima palavra na frase. Ele continua fazendo isso até gerar uma nova frase.
Aqui está um exemplo de como um LLM pode gerar texto:
`Seed text: "The cat sat on the mat." LLM prediction: "The cat sat on the mat and stared at the bird."`
Neste exemplo, o LLM aprendeu que as palavras “cat” e “sat” são frequentemente seguidas pela palavra “on”. Também aprendeu que “mat” é frequentemente seguido por “e”. Com base nessas relações, o LLM prevê que a próxima palavra na frase é “e”.
Em seguida, continua a prever a próxima palavra, “olhou”.
Aqui está um diagrama que ilustra como funciona um LLM:
O LLM é composto por uma rede neural. A rede neural é um modelo matemático complexo que pode aprender a reconhecer padrões em dados. No caso de um LLM, a rede neural aprende a reconhecer as relações estatísticas entre palavras e frases.
A rede neural é treinada em um enorme conjunto de dados de texto e código. O conjunto de dados é alimentado na rede neural, uma palavra por vez. A rede neural então tenta prever a próxima palavra na sequência.
A precisão das previsões é medida e a rede neural é atualizada para melhorar sua precisão.
Este processo é repetido muitas vezes até que a rede neural aprenda a prever com precisão a próxima palavra na sequência.
Escrita criativa: LLMs podem gerar textos criativos, como poemas, contos ou roteiros. Por exemplo, o LLM denominado GPT-3 pode ser usado para gerar poemas originais e criativos.
A API PaLM (API Pathways Language Model) é uma API baseada em nuvem que permite aos desenvolvedores acessar o modelo de linguagem grande (LLM) PaLM 2 do Google. PaLM 2 é um LLM poderoso que pode ser usado para uma variedade de tarefas, incluindo:
Geração de texto: A API PaLM pode gerar texto de várias maneiras. Você pode usar serviços de texto ou bate-papo. O serviço de texto pode gerar texto para diversas finalidades, como resumir texto, escrever conteúdo criativo e responder às suas perguntas de maneira útil. O serviço Chat pode gerar texto para chatbots e outros aplicativos de conversação.
Linguagens de programação: a API PaLM oferece suporte a Node.js, Python, Android Kotlin, Swift e Java. Neste tutorial, você usará o exemplo de texto do Node.js.
Documentação: A API PaLM é de código aberto, disponibilizando-a para qualquer pessoa usar e melhorar. Também está bem documentado, por isso é fácil para os desenvolvedores aprenderem como usá-lo.
Para começar a usar a API PaLM, você precisará das seguintes etapas:
1: Crie uma conta do Google Cloud Platform.
Você pode fazer isso visitando o site do Google Cloud Platform: https://cloud.google.com/ .
2: Obtenha uma chave de API. Para usar a API, você precisa de uma chave de API. Depois de passar pela lista de espera, você pode criar uma chave com um clique no MakerSuite. através deste link https://makersuite.google.com/waitlist
3: Instale a biblioteca cliente PaLM API. A biblioteca cliente da API PaLM é um conjunto de códigos que você pode usar para interagir com a API PaLM. Você pode instalá-lo executando o seguinte comando:
npm init -y npm install google-auth-library
Em seguida, instale a biblioteca cliente Generative Language:
npm install @google-ai/generativelanguage
4: Importando Módulos Necessários
const { TextServiceClient } = require("@google-ai/generativelanguage").v1beta2; const { GoogleAuth } = require("google-auth-library");
Nesta etapa, o código importa os módulos necessários usando a função require
. Ele importa a classe TextServiceClient
da biblioteca @google-ai/generativelanguage
e a classe GoogleAuth
da google-auth-library
.
5: Configurando Constantes
const MODEL_NAME = "models/text-bison-001"; const API_KEY = process.env.API_KEY;
Aqui, o código configura duas constantes: MODEL_NAME
, que especifica o nome do modelo de geração de texto que você deseja usar, e API_KEY
, que recupera a chave API das variáveis de ambiente.
6: Criando uma instância TextServiceClient
const client = new TextServiceClient({ authClient: new GoogleAuth().fromAPIKey(API_KEY), });
Esta etapa cria uma instância da classe TextServiceClient
. Ele inicializa o cliente com autenticação utilizando a classe GoogleAuth, que é instanciada com a chave API obtida das variáveis de ambiente.
7: Definindo o prompt
const prompt = "Write a simple and short cover letter for a technical writer";
Aqui, o código define uma variável chamada prompt
que contém o texto inicial que será usado como entrada para geração de texto.
8: Gerando Texto
client .generateText({ model: MODEL_NAME, prompt: { text: prompt, }, }) .then((result) => { console.log(JSON.stringify(result)); });
Nesta etapa, o código usa a instância client
para gerar texto. Ele chama o método generateText
na instância do cliente. Ele passa um objeto com o nome do modelo ( MODEL_NAME
) e o texto do prompt ( prompt
) como propriedades.
O método generateText
retorna uma Promise tratada usando o método then
. O resultado gerado é registrado no console dentro do bloco após ser convertido em uma string JSON.
Em seguida, execute o script:
node index.js
Você obterá um resultado semelhante a este:
[{"candidates":[{"safetyRatings":[{"category":"HARM_CATEGORY_DEROGATORY","probability":"NEGLIGIBLE"},{"category":"HARM_CATEGORY_TOXICITY","probability":"NEGLIGIBLE"},{"category":"HARM_CATEGORY_VIOLENCE","probability":"NEGLIGIBLE"},{"category":"HARM_CATEGORY_SEXUAL","probability":"NEGLIGIBLE"},{"category":"HARM_CATEGORY_MEDICAL","probability":"NEGLIGIBLE"},{"category":"HARM_CATEGORY_DANGEROUS","probability":"NEGLIGIBLE"}],"output":"Dear [Hiring Manager name],\n\nI am writing to express my interest in the Technical Writer position at [Company name]. I have been working as a technical writer for the past five years, and I have a proven track record of success in developing and delivering clear, concise, and engaging technical documentation.\n\nIn my previous role at [Previous company name], I was responsible for writing a wide range of technical documentation, including user guides, API documentation, and training materials. I have a strong understanding of the technical writing process, and I am proficient in a variety of writing and editing tools.\n\nI am also an excellent communicator, and I am able to effectively translate complex technical information into language that is easy for both technical and non-technical audiences to understand. I am confident that I have the skills and experience that you are looking for in a Technical Writer.\n\nI am eager to learn more about the Technical Writer position at [Company name], and I am confident that I would be a valuable asset to your team. I am available for an interview at your earliest convenience.\n\nThank you for your time and consideration.\n\nSincerely,\n[Your name]","citationMetadata":{"citationSources":[{"startIndex":1068,"_startIndex":"startIndex","endIndex":1196,"_endIndex":"endIndex","uri":"https://www.upwork.com/resources/cover-letter-tips","_uri":"uri","license":"","_license":"license"}]},"_citationMetadata":"citationMetadata"}],"filters":[],"safetyFeedback":[]},null,null]
Concluindo, este tutorial apresentou os fundamentos do uso de modelos de linguagem grandes (LLMs) com a API PaLM. Você aprendeu como:
Este é apenas o começo do que você pode fazer com LLMs e APIs. À medida que você continua a explorar essas tecnologias, descobrirá ainda mais maneiras de usá-las para resolver problemas, criar novas experiências e moldar o futuro.