paint-brush
Ein Leitfaden für Anfänger zur Verwendung großer Sprachmodelle (LLMs) mit der PaLM-APIvon@wise4rmgod
9,219 Lesungen
9,219 Lesungen

Ein Leitfaden für Anfänger zur Verwendung großer Sprachmodelle (LLMs) mit der PaLM-API

von Wisdom Nwokocha8m2023/08/22
Read on Terminal Reader
Read this story w/o Javascript

Zu lang; Lesen

Dieses Tutorial ist eine umfassende Einführung in die Nutzung von Large Language Models (LLMs) über die PaLM-API zur Erstellung personalisierter Anschreiben zur Verbesserung Ihrer Bewerbungsbemühungen. Es beleuchtet die Leistungsfähigkeit und praktischen Anwendungen von LLMs und bietet eine Schritt-für-Schritt-Anleitung zur Erstellung eines Anschreiben-Builders. LLMs, die auf fortschrittlicher künstlicher Intelligenz basieren, können kohärente Texte generieren, die Sprachübersetzung erleichtern und kreativ mit Benutzern interagieren. Die PaLM-API fungiert als Gateway für Entwickler, um die Funktionen von LLMs zu nutzen. Das Tutorial erläutert die Grundlagen von LLMs, die Architektur neuronaler Netzwerke und den Lernprozess. Es untersucht verschiedene Anwendungen von LLMs, die die Textgenerierung, Übersetzung, Beantwortung von Fragen, Zusammenfassung und Codegenerierung umfassen, und beleuchtet das transformative Potenzial, das sie branchenübergreifend bergen. Das Tutorial befasst sich intensiv mit der PaLM-API und zeigt, wie Sie mit der praktischen Implementierung beginnen. Es führt Benutzer durch die Erstellung eines Google Cloud Platform-Kontos, den Erhalt eines API-Schlüssels und die Installation der PaLM API-Clientbibliothek. Das Tutorial bietet klare Codebeispiele und führt durch den Prozess der Textgenerierung mithilfe der PaLM-API. Wenn Sie diese Schritte befolgen, erhalten die Leser einen Einblick in die Verwendung von LLMs und der PaLM-API zur Erstellung maßgeschneiderter Anschreiben und schaffen so die Voraussetzungen für erfolgreiche Bewerbungen, die sich von der Masse abheben.

People Mentioned

Mention Thumbnail
featured image - Ein Leitfaden für Anfänger zur Verwendung großer Sprachmodelle (LLMs) mit der PaLM-API
Wisdom Nwokocha HackerNoon profile picture
0-item

Suchen Sie nach einer Möglichkeit, ein personalisiertes Anschreiben zu verfassen, das Ihnen dabei hilft, Ihren Traumjob zu finden? Wenn ja, könnten Sie daran interessiert sein, ein großes Sprachmodell (LLM) mit der PaLM-API zu verwenden, um einen Anschreiben-Builder zu erstellen.


Große Sprachmodelle (LLMs) sind künstliche Intelligenz (KI), die Texte generieren, Sprachen übersetzen, verschiedene kreative Textformate schreiben und Ihre Fragen informell beantworten kann. Sie sind so leistungsstark, dass sie sogar zur Erstellung neuer Tools und Anwendungen genutzt werden können.


Ein solches Tool ist die PaLM API, die Entwicklern den Zugriff und die Nutzung von LLMs ermöglicht.


In diesem Leitfaden erfahren Sie, wie Sie mit der PaLM-API (Pre-trained and Large-scale Language Model API) einen Anschreiben-Builder erstellen. Dieses Tool kann Ihnen dabei helfen, personalisierte Anschreiben für Bewerbungen zu erstellen.

Was ist ein LLM?

Große Sprachmodelle (LLMs) sind fortschrittliche Systeme der künstlichen Intelligenz (KI), die auf riesigen Textdatensätzen trainiert werden. Dadurch lernen sie, wie Wörter und Phrasen zusammenpassen, und können so verständliche und korrekte Sätze bilden.


LLMs sind eine Art generative KI , das heißt, sie können neue Inhalte erstellen.


LLMs werden typischerweise mithilfe einer Art neuronalem Netzwerk aufgebaut, das als Transformator bezeichnet wird. Transformatoren können weitreichende Abhängigkeiten zwischen Wörtern lernen, die für das Verständnis und die Erzeugung natürlicher Sprache unerlässlich sind. Transformatormodelle bestehen aus mehreren Schichten , von denen jede eine andere Aufgabe erfüllt.


Die Selbstaufmerksamkeitsschicht ermöglicht es dem Modell beispielsweise, die Beziehungen zwischen verschiedenen Wörtern in einem Satz zu lernen.

gigazine.net

Ein Beispiel für ein LLM ist GPT-3, erstellt von OpenAI. GPT-3 hat aus viel Text und Code gelernt. Es kann schreiben, Sprachen übersetzen, kreative Inhalte erstellen und Fragen freundlich beantworten.


LLMs sind superleistungsfähig und könnten die Art und Weise verändern, wie wir Computer nutzen. Wenn es ihnen besser geht, könnten sie uns in vielerlei Hinsicht helfen:


  • Virtuelle Assistenten: LLMs könnten zu intelligenten Assistenten werden, die uns wie Menschen verstehen und mit uns sprechen. Dies könnte die Verwendung von Geräten erheblich erleichtern. Ein LLM könnte beispielsweise einen virtuellen Assistenten unterstützen, der Sie bei der Buchung von Terminen, der Durchführung von Reservierungen oder der Steuerung Ihrer Smart-Home-Geräte unterstützt.


  • Bildung: LLMs könnten das Lernen für Studierende persönlicher machen. Sie könnten auch Aufsätze benoten und den Studierenden Ratschläge geben. Beispielsweise könnte ein LLM verwendet werden, um eine personalisierte Leseliste für einen Studenten zu erstellen oder um Feedback zum Aufsatz eines Studenten zu geben.


  • Gesundheitswesen: LLMs könnten Krankenakten lesen und mögliche Gesundheitsprobleme finden. Sie könnten sogar dabei helfen, neue Behandlungsmethoden zu entwickeln. Beispielsweise könnte ein LLM verwendet werden, um Patienten zu identifizieren, bei denen das Risiko besteht, eine bestimmte Krankheit zu entwickeln, oder um eine neue medikamentöse Behandlung zu entwickeln.


  • Finanzdienstleistungen: LLMs könnten Kunden beraten und betrügerische Transaktionen aufdecken. Beispielsweise könnte ein LLM Kunden dabei helfen, das richtige Anlageportfolio auszuwählen oder betrügerische Kreditkartentransaktionen aufzudecken.

LLM


Wie funktioniert ein großes Sprachmodell?

Ein LLM funktioniert, indem er zunächst die statistischen Beziehungen zwischen Wörtern und Phrasen in einer Sprache lernt. Dies geschieht durch das Training des Modells anhand eines riesigen Datensatzes aus Text und Code. Sobald das Modell diese Beziehungen gelernt hat, kann es neuen Text generieren, der dem Text ähnelt, auf den es trainiert wurde.


  1. Das LLM wird anhand eines riesigen Text- und Codedatensatzes trainiert. Dieser Datensatz umfasst alles von Büchern und Artikeln bis hin zu Code-Repositories und Social-Media-Beiträgen.


  2. Der LLM lernt die statistischen Beziehungen zwischen Wörtern und Phrasen im Datensatz. Das heißt, es lernt, welche Wörter eher zusammen auftauchen und wie sich die Bedeutung eines Satzes je nach Reihenfolge der Wörter ändern kann.


  3. Sobald der LLM diese Zusammenhänge gelernt hat, kann er neuen Text generieren. Dazu beginnt es mit einem Starttext, etwa ein paar Wörtern oder einem Satz. Anschließend nutzt es die gelernten statistischen Beziehungen, um das nächste Wort im Satz vorherzusagen. Dies wird so lange fortgesetzt, bis ein neuer Satz generiert wurde.


Hier ist ein Beispiel dafür, wie ein LLM Text generieren könnte:

 `Seed text: "The cat sat on the mat." LLM prediction: "The cat sat on the mat and stared at the bird."`


In diesem Beispiel hat das LLM gelernt, dass auf die Wörter „cat“ und „sat“ oft das Wort „on“ folgt. Es hat sich auch herausgestellt, dass auf „mat“ oft ein „und“ folgt. Basierend auf diesen Beziehungen sagt das LLM voraus, dass das nächste Wort im Satz „und“ ist.


Anschließend wird das nächste Wort „gestarrt“ vorhergesagt.


Hier ist ein Diagramm, das die Funktionsweise eines LLM veranschaulicht:

Researchgate.net


Das LLM besteht aus einem neuronalen Netzwerk. Das neuronale Netzwerk ist ein komplexes mathematisches Modell, das lernen kann, Muster in Daten zu erkennen. Bei einem LLM lernt das neuronale Netzwerk, die statistischen Zusammenhänge zwischen Wörtern und Phrasen zu erkennen.


Das neuronale Netzwerk wird anhand eines riesigen Datensatzes aus Text und Code trainiert. Der Datensatz wird Wort für Wort in das neuronale Netzwerk eingespeist. Das neuronale Netzwerk versucht dann, das nächste Wort in der Sequenz vorherzusagen.


Die Genauigkeit der Vorhersagen wird gemessen und das neuronale Netzwerk wird aktualisiert, um seine Genauigkeit zu verbessern.


Dieser Vorgang wird viele Male wiederholt, bis das neuronale Netzwerk gelernt hat, das nächste Wort in der Sequenz genau vorherzusagen.

Wofür werden große Sprachmodelle verwendet?

  • Textgenerierung: LLMs können Texte wie Gedichte, Code, Skripte, Musikstücke, E-Mails, Briefe usw. generieren. Beispielsweise kann das LLM namens Bard verschiedene kreative Textformate generieren. Es wird sein Bestes tun, um alle Ihre Anforderungen zu erfüllen.


  • Übersetzung: LLMs können Texte von einer Sprache in eine andere übersetzen. Google Translate LLM kann beispielsweise Texte aus dem Englischen ins Französische, Spanische, Deutsche, Chinesische, Japanische und viele andere Sprachen übersetzen.


  • Beantwortung von Fragen: LLMs können Fragen zu verschiedenen Themen beantworten, auch wenn diese offen, herausfordernd oder seltsam sind. Das LaMDA LLM kann beispielsweise Fragen zum Wetter, zur Geschichte oder zu aktuellen Ereignissen beantworten.


  • Zusammenfassung: LLMs können lange Textabschnitte zusammenfassen, beispielsweise Nachrichtenartikel oder Forschungsarbeiten. Beispielsweise kann der LLM namens BARD eine Forschungsarbeit in wenigen Sätzen zusammenfassen.


  • Codegenerierung: LLMs können Python-, Java- oder C++-Code generieren. Beispielsweise kann der GitHub Copilot LLM korrekten und effizienten Code generieren.


Kreatives Schreiben: LLMs können kreative Texte wie Gedichte, Kurzgeschichten oder Skripte erstellen. Mit dem LLM namens GPT-3 lassen sich beispielsweise originelle und kreative Gedichte erstellen.

Erste Schritte mit der PaLM-API

Die PaLM API (Pathways Language Model API) ist eine cloudbasierte API, die Entwicklern den Zugriff auf das große Sprachmodell PaLM 2 (LLM) von Google ermöglicht. PaLM 2 ist ein leistungsstarkes LLM, das für eine Vielzahl von Aufgaben verwendet werden kann, darunter:


  • Textgenerierung: Die PaLM API kann auf viele Arten Texte generieren. Sie können Text- oder Chat-Dienste nutzen. Der Textdienst kann Text für viele Zwecke generieren, z. B. zum Zusammenfassen von Text, zum Verfassen kreativer Inhalte und zur hilfreichen Beantwortung Ihrer Fragen. Der Chat-Dienst kann Text für Chatbots und andere Konversations-Apps generieren.


  • Programmiersprachen: Die PaLM API unterstützt Node.js, Python, Android Kotlin, Swift und Java. In diesem Tutorial verwenden Sie das Node.js-Textbeispiel.


  • Dokumentation: Die PaLM-API ist Open Source und kann von jedem genutzt und verbessert werden. Es ist außerdem gut dokumentiert, sodass Entwickler leicht erlernen können, wie man es verwendet.


Um mit der PaLM API zu beginnen, benötigen Sie die folgenden Schritte:


1: Erstellen Sie ein Google Cloud Platform-Konto.

Sie können dies tun, indem Sie die Website der Google Cloud Platform besuchen: https://cloud.google.com/ .


2: Holen Sie sich einen API-Schlüssel. Um die API nutzen zu können, benötigen Sie einen API-Schlüssel. Sobald Sie die Warteliste abgearbeitet haben, können Sie in MakerSuite mit einem Klick einen Schlüssel erstellen. über diesen Link https://makersuite.google.com/waitlist


3: Installieren Sie die PaLM API-Clientbibliothek. Die PaLM API-Clientbibliothek ist ein Codesatz, den Sie für die Interaktion mit der PaLM API verwenden können. Sie können es installieren, indem Sie den folgenden Befehl ausführen:

 npm init -y npm install google-auth-library


Als nächstes installieren Sie die Generative Language-Clientbibliothek:

 npm install @google-ai/generativelanguage


4: Erforderliche Module importieren

 const { TextServiceClient } = require("@google-ai/generativelanguage").v1beta2; const { GoogleAuth } = require("google-auth-library");


In diesem Schritt importiert der Code erforderliche Module mithilfe der Funktion require . Es importiert die TextServiceClient Klasse aus der @google-ai/generativelanguage Bibliothek und die GoogleAuth Klasse aus der google-auth-library .


5: Konstanten einrichten

 const MODEL_NAME = "models/text-bison-001"; const API_KEY = process.env.API_KEY;


Hier richtet der Code zwei Konstanten ein: MODEL_NAME , die den Namen des Textgenerierungsmodells angibt, das Sie verwenden möchten, und API_KEY , das den API-Schlüssel aus den Umgebungsvariablen abruft.


6: Erstellen einer TextServiceClient-Instanz

 const client = new TextServiceClient({ authClient: new GoogleAuth().fromAPIKey(API_KEY), });

Dieser Schritt erstellt eine Instanz der TextServiceClient Klasse. Es initialisiert den Client mit Authentifizierung mithilfe der GoogleAuth-Klasse, die mit dem aus den Umgebungsvariablen erhaltenen API-Schlüssel instanziiert wird.


7: Definieren der Eingabeaufforderung

 const prompt = "Write a simple and short cover letter for a technical writer";

Hier definiert der Code eine Variable namens prompt , die den Anfangstext enthält, der als Eingabe für die Textgenerierung verwendet wird.


8: Text generieren

 client .generateText({ model: MODEL_NAME, prompt: { text: prompt, }, }) .then((result) => { console.log(JSON.stringify(result)); });

In diesem Schritt verwendet der Code die client , um Text zu generieren. Es ruft die Methode generateText auf der Clientinstanz auf. Es übergibt ein Objekt mit dem Modellnamen ( MODEL_NAME ) und dem Eingabeaufforderungstext ( prompt ) als Eigenschaften.


Die Methode generateText gibt ein Promise zurück, das mit der Methode „ then verarbeitet wird. Das generierte Ergebnis wird nach der Konvertierung in einen JSON-String in der Konsole innerhalb des Blocks protokolliert.


Führen Sie dann das Skript aus:

 node index.js


Sie erhalten ein ähnliches Ergebnis:

 [{"candidates":[{"safetyRatings":[{"category":"HARM_CATEGORY_DEROGATORY","probability":"NEGLIGIBLE"},{"category":"HARM_CATEGORY_TOXICITY","probability":"NEGLIGIBLE"},{"category":"HARM_CATEGORY_VIOLENCE","probability":"NEGLIGIBLE"},{"category":"HARM_CATEGORY_SEXUAL","probability":"NEGLIGIBLE"},{"category":"HARM_CATEGORY_MEDICAL","probability":"NEGLIGIBLE"},{"category":"HARM_CATEGORY_DANGEROUS","probability":"NEGLIGIBLE"}],"output":"Dear [Hiring Manager name],\n\nI am writing to express my interest in the Technical Writer position at [Company name]. I have been working as a technical writer for the past five years, and I have a proven track record of success in developing and delivering clear, concise, and engaging technical documentation.\n\nIn my previous role at [Previous company name], I was responsible for writing a wide range of technical documentation, including user guides, API documentation, and training materials. I have a strong understanding of the technical writing process, and I am proficient in a variety of writing and editing tools.\n\nI am also an excellent communicator, and I am able to effectively translate complex technical information into language that is easy for both technical and non-technical audiences to understand. I am confident that I have the skills and experience that you are looking for in a Technical Writer.\n\nI am eager to learn more about the Technical Writer position at [Company name], and I am confident that I would be a valuable asset to your team. I am available for an interview at your earliest convenience.\n\nThank you for your time and consideration.\n\nSincerely,\n[Your name]","citationMetadata":{"citationSources":[{"startIndex":1068,"_startIndex":"startIndex","endIndex":1196,"_endIndex":"endIndex","uri":"https://www.upwork.com/resources/cover-letter-tips","_uri":"uri","license":"","_license":"license"}]},"_citationMetadata":"citationMetadata"}],"filters":[],"safetyFeedback":[]},null,null]


Abschließend hat Ihnen dieses Tutorial die Grundlagen der Verwendung großer Sprachmodelle (LLMs) mit der PaLM-API näher gebracht. Sie haben gelernt, wie man:


  • Verstehen Sie das Potenzial von LLMs und der PaLM-API
  • Erstellen Sie mithilfe der PaLM-API einen individuellen Anschreiben-Generator
  • Nutzen Sie LLMs, um Texte zu generieren, Sprachen zu übersetzen und Fragen zu beantworten
  • Integrieren Sie die PaLM-API mit Node.js und der Client-Bibliothek


Dies ist nur der Anfang dessen, was Sie mit LLMs und APIs tun können. Wenn Sie diese Technologien weiter erforschen, werden Sie noch mehr Möglichkeiten entdecken, sie zur Lösung von Problemen, zur Schaffung neuer Erfahrungen und zur Gestaltung der Zukunft einzusetzen.