¿Estás buscando una manera de escribir una carta de presentación personalizada que te ayude a conseguir el trabajo de tus sueños? Si es así, es posible que le interese utilizar un modelo de lenguaje grande (LLM) con la API PaLM para crear un creador de cartas de presentación.
Los modelos de lenguajes grandes (LLM) son inteligencia artificial (IA) que pueden generar texto, traducir idiomas, escribir diferentes formatos de texto creativo y responder sus preguntas de manera informal. Son tan poderosos que incluso pueden usarse para crear nuevas herramientas y aplicaciones.
Una de esas herramientas es la API PaLM, que permite a los desarrolladores acceder y utilizar LLM.
Esta guía le mostrará cómo utilizar la API PaLM (API de modelo de lenguaje a gran escala y preentrenada) para crear un creador de cartas de presentación. Esta herramienta puede ayudarle a generar cartas de presentación personalizadas para solicitudes de empleo.
Los modelos de lenguaje grande (LLM) son sistemas avanzados de inteligencia artificial (IA) entrenados en conjuntos de datos de texto masivos. Esto les ayuda a aprender cómo encajan las palabras y frases, lo que les permite generar oraciones comprensibles y correctas.
Los LLM son un tipo de IA generativa , lo que significa que pueden crear contenido nuevo.
Los LLM generalmente se construyen utilizando un tipo de red neuronal llamada transformador . Los transformadores pueden aprender dependencias de largo alcance entre palabras, lo que es esencial para comprender y generar un lenguaje natural. Los modelos de transformadores comprenden múltiples capas , cada una de las cuales realiza una tarea diferente.
Por ejemplo, la capa de autoatención permite al modelo aprender las relaciones entre diferentes palabras en una oración.
Un ejemplo de LLM es GPT-3, creado por OpenAI. GPT-3 ha aprendido de mucho texto y código. Puede escribir, traducir idiomas, crear contenido creativo y responder preguntas de manera amigable.
Los LLM son súper poderosos y podrían cambiar la forma en que usamos las computadoras. A medida que mejoren, podrían ayudarnos de muchas maneras:
Un LLM funciona aprendiendo primero las relaciones estadísticas entre palabras y frases en un idioma. Esto se hace entrenando el modelo en un conjunto de datos masivo de texto y código. Una vez que el modelo ha aprendido estas relaciones, puede generar texto nuevo similar al texto con el que fue entrenado.
El LLM está capacitado en un conjunto de datos masivo de texto y código. Este conjunto de datos incluye desde libros y artículos hasta repositorios de códigos y publicaciones en redes sociales.
El LLM aprende las relaciones estadísticas entre palabras y frases en el conjunto de datos. Esto significa que aprende qué palabras tienen más probabilidades de aparecer juntas y cómo el significado de una oración puede cambiar según el orden de las palabras.
Una vez que el LLM ha aprendido estas relaciones, puede generar texto nuevo. Para hacer esto, comienza con un texto inicial, como unas pocas palabras o una oración. Luego, utiliza las relaciones estadísticas que ha aprendido para predecir la siguiente palabra de la oración. Continúa haciendo esto hasta que haya generado una nueva oración.
A continuación se muestra un ejemplo de cómo un LLM podría generar texto:
`Seed text: "The cat sat on the mat." LLM prediction: "The cat sat on the mat and stared at the bird."`
En este ejemplo, el LLM ha aprendido que las palabras "cat" y "sat" suelen ir seguidas de la palabra "on". También ha aprendido que "mat" suele ir seguido de "y". Con base en estas relaciones, el LLM predice que la siguiente palabra de la oración es "y".
Luego continúa prediciendo la siguiente palabra, "miró".
Aquí hay un diagrama que ilustra cómo funciona un LLM:
El LLM está formado por una red neuronal. La red neuronal es un modelo matemático complejo que puede aprender a reconocer patrones en los datos. En el caso de un LLM, la red neuronal aprende a reconocer las relaciones estadísticas entre palabras y frases.
La red neuronal está entrenada en un conjunto de datos masivo de texto y código. El conjunto de datos se introduce en la red neuronal palabra por palabra. Luego, la red neuronal intenta predecir la siguiente palabra de la secuencia.
Se mide la precisión de las predicciones y la red neuronal se actualiza para mejorar su precisión.
Este proceso se repite muchas veces hasta que la red neuronal ha aprendido a predecir con precisión la siguiente palabra de la secuencia.
Escritura creativa: los LLM pueden generar textos creativos, como poemas, cuentos o guiones. Por ejemplo, el LLM llamado GPT-3 se puede utilizar para generar poemas originales y creativos.
La API PaLM (Pathways Language Model API) es una API basada en la nube que permite a los desarrolladores acceder al modelo de lenguaje grande (LLM) PaLM 2 de Google. PaLM 2 es un potente LLM que se puede utilizar para una variedad de tareas, que incluyen:
Generación de texto: la API PaLM puede generar texto de muchas maneras. Puede utilizar servicios de texto o chat. El servicio de texto puede generar texto para muchos propósitos, como resumir texto, escribir contenido creativo y responder sus preguntas de manera útil. El servicio de chat puede generar texto para chatbots y otras aplicaciones de conversación.
Lenguajes de programación: la API PaLM es compatible con Node.js, Python, Android Kotlin, Swift y Java. En este tutorial, utilizará el ejemplo de texto de Node.js.
Documentación: La API de PaLM es de código abierto, por lo que está disponible para que cualquiera pueda usarla y mejorarla. También está bien documentado, por lo que a los desarrolladores les resulta fácil aprender a utilizarlo.
Para comenzar con la API PaLM, necesitará los siguientes pasos:
1: Cree una cuenta de Google Cloud Platform.
Puede hacerlo visitando el sitio web de Google Cloud Platform: https://cloud.google.com/ .
2: Obtenga una clave API. Para utilizar la API, necesita una clave API. Una vez que haya pasado por la lista de espera, puede crear una clave con un clic en MakerSuite. a través de este enlace https://makersuite.google.com/waitlist
3: Instale la biblioteca cliente API de PaLM. La biblioteca cliente de PaLM API es un conjunto de códigos que puede utilizar para interactuar con PaLM API. Puede instalarlo ejecutando el siguiente comando:
npm init -y npm install google-auth-library
A continuación, instale la biblioteca cliente de Lenguaje Generativo:
npm install @google-ai/generativelanguage
4: Importación de módulos necesarios
const { TextServiceClient } = require("@google-ai/generativelanguage").v1beta2; const { GoogleAuth } = require("google-auth-library");
En este paso, el código importa los módulos necesarios utilizando la función require
. Importa la clase TextServiceClient
de la biblioteca @google-ai/generativelanguage
y la clase GoogleAuth
de google-auth-library
.
5: Configuración de constantes
const MODEL_NAME = "models/text-bison-001"; const API_KEY = process.env.API_KEY;
Aquí, el código configura dos constantes: MODEL_NAME
, que especifica el nombre del modelo de generación de texto que desea utilizar, y API_KEY
, que recupera la clave API de las variables de entorno.
6: Creación de una instancia de TextServiceClient
const client = new TextServiceClient({ authClient: new GoogleAuth().fromAPIKey(API_KEY), });
Este paso crea una instancia de la clase TextServiceClient
. Inicializa el cliente con autenticación utilizando la clase GoogleAuth, de la que se crea una instancia con la clave API obtenida de las variables de entorno.
7: Definición del mensaje
const prompt = "Write a simple and short cover letter for a technical writer";
Aquí, el código define una variable llamada prompt
que contiene el texto inicial que se utilizará como entrada para la generación de texto.
8: Generando texto
client .generateText({ model: MODEL_NAME, prompt: { text: prompt, }, }) .then((result) => { console.log(JSON.stringify(result)); });
En este paso, el código utiliza la instancia client
para generar texto. Llama al método generateText
en la instancia del cliente. Pasa un objeto con el nombre del modelo ( MODEL_NAME
) y el texto del mensaje ( prompt
) como propiedades.
El método generateText
devuelve una Promesa manejada mediante el método then
. El resultado generado se registra en la consola dentro del bloque después de convertirse en una cadena JSON.
Luego ejecute el script:
node index.js
Obtendrá un resultado similar a este:
[{"candidates":[{"safetyRatings":[{"category":"HARM_CATEGORY_DEROGATORY","probability":"NEGLIGIBLE"},{"category":"HARM_CATEGORY_TOXICITY","probability":"NEGLIGIBLE"},{"category":"HARM_CATEGORY_VIOLENCE","probability":"NEGLIGIBLE"},{"category":"HARM_CATEGORY_SEXUAL","probability":"NEGLIGIBLE"},{"category":"HARM_CATEGORY_MEDICAL","probability":"NEGLIGIBLE"},{"category":"HARM_CATEGORY_DANGEROUS","probability":"NEGLIGIBLE"}],"output":"Dear [Hiring Manager name],\n\nI am writing to express my interest in the Technical Writer position at [Company name]. I have been working as a technical writer for the past five years, and I have a proven track record of success in developing and delivering clear, concise, and engaging technical documentation.\n\nIn my previous role at [Previous company name], I was responsible for writing a wide range of technical documentation, including user guides, API documentation, and training materials. I have a strong understanding of the technical writing process, and I am proficient in a variety of writing and editing tools.\n\nI am also an excellent communicator, and I am able to effectively translate complex technical information into language that is easy for both technical and non-technical audiences to understand. I am confident that I have the skills and experience that you are looking for in a Technical Writer.\n\nI am eager to learn more about the Technical Writer position at [Company name], and I am confident that I would be a valuable asset to your team. I am available for an interview at your earliest convenience.\n\nThank you for your time and consideration.\n\nSincerely,\n[Your name]","citationMetadata":{"citationSources":[{"startIndex":1068,"_startIndex":"startIndex","endIndex":1196,"_endIndex":"endIndex","uri":"https://www.upwork.com/resources/cover-letter-tips","_uri":"uri","license":"","_license":"license"}]},"_citationMetadata":"citationMetadata"}],"filters":[],"safetyFeedback":[]},null,null]
En conclusión, este tutorial le presentó los conceptos básicos del uso de modelos de lenguaje grandes (LLM) con la API PaLM. Has aprendido a:
Este es solo el comienzo de lo que puede hacer con los LLM y las API. A medida que continúe explorando estas tecnologías, descubrirá aún más formas de utilizarlas para resolver problemas, crear nuevas experiencias y dar forma al futuro.