paint-brush
KI-Anwendungen: Advanced Architecture Advice (auch bekannt als AAAA!)by@austingil
354
354

KI-Anwendungen: Advanced Architecture Advice (auch bekannt als AAAA!)

Austin Gil9m2024/02/15
Read on Terminal Reader

Ich habe diese Architekturdiagramme absichtlich auf verschiedene Datenbanken, Edge-Computing-, Objektspeicher- und CDN-Anbieter anwendbar gehalten. Mir gefällt, dass meine Inhalte breit anwendbar sind. Es ist jedoch erwähnenswert, dass es bei der Integration des Edge um mehr als nur um Leistung geht. Es gibt auch viele wirklich coole Sicherheitsfunktionen, die Sie aktivieren können. Im Akamai-Netzwerk haben Sie beispielsweise Zugriff auf Dinge wie Web Application Firewall (WAF), Distributed Denial of Service (DDoS)-Schutz, intelligente Bot-Erkennung und mehr. Das würde jedoch den Rahmen des heutigen Beitrags sprengen. Deshalb möchte ich Ihnen vorerst ein großes „Dankeschön“ fürs Lesen sagen. Ich hoffe, du hast etwas gelernt. Und wie immer können Sie sich jederzeit mit Kommentaren, Fragen oder Bedenken an uns wenden.
featured image - KI-Anwendungen: Advanced Architecture Advice (auch bekannt als AAAA!)
Austin Gil HackerNoon profile picture

Überraschung! Dies ist ein Bonus-Blogbeitrag für die Reihe „KI für Webentwickler“, die ich kürzlich abgeschlossen habe. Wenn Sie diese Serie noch nicht gelesen haben, möchte ich Sie dazu ermutigen Hör zu .


In diesem Beitrag befassen wir uns mit der bestehenden Projektarchitektur und Möglichkeiten, wie wir sie sowohl für Anwendungsentwickler als auch für den Endbenutzer verbessern können.


Ich werde einige allgemeine Konzepte besprechen und in meinen Beispielen spezifische Akamai-Produkte verwenden.

Grundlegende Anwendungsarchitektur

Die bestehende Anwendung ist ziemlich einfach. Ein Benutzer gibt zwei Gegner vor, dann sendet die Anwendung eine von der KI generierte Antwort zurück, wer in einem Kampf gewinnen würde.


Auch die Architektur ist einfach:

  1. Der Client sendet eine Anfrage an einen Server.


  2. Der Server erstellt eine Eingabeaufforderung und leitet die Eingabeaufforderung an OpenAI weiter.


  3. OpenAI gibt eine Streaming-Antwort an den Server zurück.


  4. Der Server nimmt alle notwendigen Anpassungen vor und leitet die Streaming-Antwort an den Client weiter.


Ich habe die Cloud-Computing-Dienste von Akamai genutzt (früher). Linode ), aber das wäre eigentlich für jeden Hosting-Dienst dasselbe.

Architekturdiagramm, das einen Client zeigt, der eine Verbindung zu einem Server in der Cloud herstellt, der die Anfrage an OpenAI weiterleitet, dann zum Server und zurück zum Client zurückkehrt.

🤵 sieht aus wie ein Kellner in einem schicken Restaurant und 👁️‍🗨️ ist „ein Auge“ oder eine KI. lolz


Technisch funktioniert das einwandfrei, es gibt jedoch ein paar Probleme, insbesondere wenn Benutzer doppelte Anfragen stellen. Es könnte schneller und kostengünstiger sein, Antworten auf unserem Server zu speichern und nur für eindeutige Anfragen an OpenAI zu gehen.


Dies setzt voraus, dass nicht jede einzelne Anfrage nicht deterministisch sein muss (die gleiche Eingabe erzeugt eine andere Ausgabe). Nehmen wir an, es ist in Ordnung, dass dieselbe Eingabe dieselbe Ausgabe erzeugt. Schließlich würde sich die Vorhersage, wer in einem Kampf gewinnen würde, wahrscheinlich nicht ändern.

Datenbankarchitektur hinzufügen

Wenn wir Antworten von OpenAI speichern möchten, können wir sie praktischerweise in einer Art Datenbank ablegen, die eine schnelle und einfache Suche mit den beiden Gegnern ermöglicht. Auf diese Weise können wir bei einer Anfrage zunächst die Datenbank überprüfen:


  1. Der Client sendet eine Anfrage an einen Server.


  2. Der Server prüft, ob in der Datenbank ein Eintrag vorhanden ist, der mit der Eingabe des Benutzers übereinstimmt.


  3. Wenn ein früherer Datensatz vorhanden ist, antwortet der Server mit diesen Daten und die Anfrage ist abgeschlossen. Überspringen Sie die folgenden Schritte.


  4. Wenn nicht, folgt der Server Schritt drei im vorherigen Ablauf.


  5. Vor dem Schließen der Antwort speichert der Server die OpenAI-Ergebnisse in der Datenbank.

Architekturdiagramm, das einen Client zeigt, der eine Verbindung zu einem Server in der Cloud herstellt, der nach Daten in einer Datenbank sucht, die Anfrage dann optional an OpenAI weiterleitet, um die Ergebnisse zu erhalten, und die Daten dann an den Client zurückgibt.

Gepunktete Linien stellen optionale Anforderungen dar und das 💽 sieht aus wie eine Festplatte.


Bei diesem Setup werden alle doppelten Anfragen von der Datenbank verarbeitet. Indem wir einige der OpenAI-Anfragen optional machen, können wir potenziell die Latenzzeit reduzieren, die Benutzer erleben, und außerdem Geld sparen, indem wir die Anzahl der API-Anfragen reduzieren.


Dies ist ein guter Anfang, insbesondere wenn sich der Server und die Datenbank in derselben Region befinden. Dies würde zu viel schnelleren Reaktionszeiten führen als der Zugriff auf die Server von OpenAI.


Wenn unsere Anwendung jedoch immer beliebter wird, gewinnen wir möglicherweise Benutzer aus der ganzen Welt. Schnellere Datenbanksuchen sind großartig, aber was passiert, wenn der Engpass in der Latenz durch die Flugzeit liegt?


Wir können dieses Problem lösen, indem wir die Dinge näher an den Benutzer heranbringen.

Integrieren Sie Edge Compute

Wenn Sie mit dem Begriff „Edge“ noch nicht vertraut sind, könnte dieser Teil verwirrend sein, aber ich versuche es einfach zu erklären. Edge bedeutet, dass Inhalte so nah wie möglich am Benutzer sind. Für manche Menschen könnte das IoT-Geräte oder Mobilfunkmasten bedeuten, aber im Fall des Internets ist das kanonische Beispiel ein Content Delivery Network (CDN) .


Ich erspare Ihnen die Details, aber ein CDN ist ein Netzwerk weltweit verteilter Computer, die auf Benutzeranfragen vom nächstgelegenen Knoten im Netzwerk reagieren können ( etwas, worüber ich in der Vergangenheit geschrieben habe ). Während sie traditionell für statische Assets konzipiert waren, haben sie in den letzten Jahren damit begonnen, Edge-Computing zu unterstützen ( Auch etwas, worüber ich in der Vergangenheit geschrieben habe ).


Mit Edge Computing können wir einen Großteil unserer Backend-Logik ganz nah an den Benutzer heranbringen, und das hört nicht beim Computing auf. Die meisten Edge-Computing-Anbieter bieten auch eine Art schließlich konsistenten Schlüsselwertspeicher in denselben Edge-Knoten an.


Wie könnte sich das auf unsere Anwendung auswirken?

  1. Der Kunde sendet eine Anfrage an unser Backend.


  2. Das Edge-Computing-Netzwerk leitet die Anfrage an den nächstgelegenen Edge-Knoten weiter.


  3. Der Edge-Knoten prüft, ob im Schlüsselwertspeicher ein Eintrag vorhanden ist, der mit der Benutzereingabe übereinstimmt.


  4. Wenn ein vorheriger Datensatz vorhanden ist, antwortet der Edge-Knoten mit diesen Daten und die Anfrage ist abgeschlossen. Überspringen Sie die folgenden Schritte.


  5. Wenn nicht, leitet der Edge-Knoten die Anfrage an den Ursprungsserver weiter, der sie an OpenAI und yadda yadda yadda weiterleitet.


  6. Bevor die Antwort geschlossen wird, speichert der Server die OpenAI-Ergebnisse im Edge-Schlüsselwertspeicher.

Der Edge-Knoten ist das blaue Kästchen und wird durch 🔪 dargestellt, da er über eine Kante verfügt. EdgeWorker ist das Edge-Computing-Produkt von Akamai, dargestellt durch 🧑‍🏭, und EdgeKV ist Akamais Schlüsselwertspeicher, dargestellt durch 🔑🤑🏪. Die Edge-Box befindet sich näher am Client als der Ursprungsserver in der Cloud, um die physische Entfernung darzustellen.


Der Ursprungsserver ist hier möglicherweise nicht unbedingt erforderlich, aber ich denke, es ist wahrscheinlicher, dass er vorhanden ist. Aus Gründen der Daten-, Rechen- und Logikflüsse entspricht diese weitgehend der vorherigen Architektur. Der Hauptunterschied besteht darin, dass die zuvor gespeicherten Ergebnisse jetzt ganz in der Nähe der Benutzer vorhanden sind und fast sofort zurückgegeben werden können.


(Hinweis: Obwohl die Daten am Edge zwischengespeichert werden, wird die Antwort immer noch dynamisch erstellt. Wenn Sie keine dynamischen Antworten benötigen, ist es möglicherweise einfacher, ein CDN vor dem Ursprungsserver zu verwenden und die richtigen HTTP-Header auf festzulegen Zwischenspeichern Sie die Antwort. Hier gibt es viele Nuancen, und ich könnte noch mehr sagen, aber ... nun ja, ich bin müde und möchte es eigentlich nicht. Wenn Sie Fragen haben, können Sie sich jederzeit an mich wenden.)


Jetzt kochen wir! Auf etwaige doppelte Anfragen wird nahezu umgehend reagiert und wir ersparen uns gleichzeitig unnötige API-Anfragen.


Dadurch wird die Architektur für die Textantworten geklärt, aber wir haben auch KI-generierte Bilder.

Cachen Sie diese Bilder

Das Letzte, worüber wir heute nachdenken werden, sind Bilder. Beim Umgang mit Bildern müssen wir über Lieferung und Lagerung nachdenken. Ich bin mir sicher, dass die Leute bei OpenAI ihre eigenen Lösungen haben, aber einige Organisationen möchten aus Sicherheits-, Compliance- oder Zuverlässigkeitsgründen die gesamte Infrastruktur besitzen. Einige betreiben möglicherweise sogar ihre eigenen Bildgenerierungsdienste, anstatt OpenAI zu verwenden.


Im aktuellen Workflow stellt der Benutzer eine Anfrage, die letztendlich an OpenAI weitergeleitet wird. OpenAI generiert das Bild, gibt es aber nicht zurück. Stattdessen geben sie eine JSON-Antwort mit der URL für das Bild zurück, das auf der Infrastruktur von OpenAI gehostet wird.


Mit dieser Antwort kann mithilfe der URL ein <img> -Tag zur Seite hinzugefügt werden, wodurch eine weitere Anfrage für das eigentliche Bild ausgelöst wird.


Wenn wir das Image auf unserer eigenen Infrastruktur hosten möchten, benötigen wir einen Ort zum Speichern. Wir könnten die Bilder auf die Festplatte des Ursprungsservers schreiben, aber das könnte schnell den Speicherplatz verbrauchen und wir müssten unsere Server aktualisieren, was kostspielig sein kann.


Objektspeicher ist eine viel günstigere Lösung ( Ich habe auch darüber geschrieben ). Anstatt die OpenAI-URL für das Bild zu verwenden, könnten wir es in unsere eigene Objektspeicherinstanz hochladen und stattdessen diese URL verwenden.


Damit ist die Speicherfrage gelöst, Objektspeicher-Buckets werden jedoch im Allgemeinen in einer einzelnen Region bereitgestellt. Dies spiegelt das Problem wider, das wir beim Speichern von Text in einer Datenbank hatten. Eine einzelne Region kann weit von Benutzern entfernt sein, was zu großer Latenz führen kann.


Da Edge bereits eingeführt wurde, wäre es ziemlich trivial, CDN-Funktionen nur für die statischen Assets hinzuzufügen (ehrlich gesagt sollte jede Site ein CDN haben). Nach der Konfiguration ruft das CDN bei der ersten Anfrage Bilder aus dem Objektspeicher ab und speichert sie für zukünftige Anfragen von Besuchern in derselben Region zwischen.


So würde unser Ablauf für Bilder aussehen:

  1. Ein Kunde sendet eine Anfrage, um ein Bild basierend auf seinen Gegnern zu erstellen.


  2. Edge Compute prüft, ob die Bilddaten für diese Anfrage bereits vorhanden sind. Wenn ja, wird die URL zurückgegeben.


  3. Das Bild wird der Seite mit der URL hinzugefügt und der Browser fordert das Bild an.


  4. Wenn das Bild zuvor im CDN zwischengespeichert wurde, lädt der Browser es fast sofort. Dies ist das Ende des Flusses.


  5. Wenn das Bild zuvor nicht zwischengespeichert wurde, ruft das CDN das Bild vom Objektspeicherort ab, speichert eine Kopie davon für zukünftige Anforderungen zwischen und gibt das Bild an den Client zurück. Dies ist ein weiteres Ende des Flusses.


  6. Wenn sich die Bilddaten nicht im Edge-Schlüsselwertspeicher befinden, wird die Anforderung zum Generieren des Bildes an den Server und weiter an OpenAI gesendet, das das Bild generiert und die URL-Informationen zurückgibt. Der Server startet eine Aufgabe zum Speichern des Bildes im Objektspeicher-Bucket, speichert die Bilddaten im Edge-Schlüsselwertspeicher und gibt die Bilddaten an Edge Compute zurück.


  7. Mit den neuen Bilddaten erstellt der Client das Bild, das eine neue Anfrage erstellt und mit Schritt 5 oben fortfährt.

Architekturdiagramm, das einen Client zeigt, der eine Verbindung zu einem Edge-Knoten herstellt, der den Edge-Schlüsselwertspeicher überprüft und die Anfrage dann optional an einen Cloud-Server und weiter an OpenAI weiterleitet, bevor er die Daten an den Client zurückgibt. Wenn der Benutzer außerdem eine Anfrage für ein Bild stellt, prüft die Anfrage zunächst ein CDN und ruft es, wenn es nicht existiert, aus dem Object Storage ab, wo es von OpenAI abgelegt wurde

Das Content-Delivery-Netzwerk wird durch einen Lieferwagen (🚚) und ein Netzwerksignal (📶) bezeichnet, und die Objektspeicherung wird durch Socken in einer Box (🧦📦) oder Objekte im Speicher bezeichnet. Diese Bildunterschrift ist wahrscheinlich nicht notwendig, da sie meiner Meinung nach klar ist, aber ich bin zu stolz auf mein Emoji-Spiel und benötige eine Bestätigung. Vielen Dank, dass Sie mich verwöhnt haben. Fortfahren.


Diese letzte Architektur ist zugegebenermaßen etwas komplexer, aber wenn Ihre Anwendung großen Datenverkehr bewältigen muss, ist sie eine Überlegung wert.

Voilà

Direkt am! Mit all diesen Änderungen haben wir KI-generierte Texte und Bilder für eindeutige Anfragen erstellt und stellen für doppelte Anfragen zwischengespeicherte Inhalte vom Edge aus bereit. Das Ergebnis sind schnellere Reaktionszeiten und ein deutlich besseres Benutzererlebnis (neben weniger API-Aufrufen).


Ich habe diese Architekturdiagramme absichtlich auf verschiedene Datenbanken, Edge-Computing-, Objektspeicher- und CDN-Anbieter anwendbar gehalten. Mir gefällt, dass meine Inhalte breit anwendbar sind. Es ist jedoch erwähnenswert, dass es bei der Integration des Edge um mehr als nur um Leistung geht. Es gibt auch viele wirklich coole Sicherheitsfunktionen, die Sie aktivieren können.


Im Akamai-Netzwerk können Sie beispielsweise auf Dinge wie zugreifen Webanwendungs-Firewall (WAF) , DDoS-Schutz (Distributed Denial of Service). , Intelligente Bot-Erkennung , und mehr. Das würde jedoch den Rahmen des heutigen Beitrags sprengen.


Deshalb möchte ich Ihnen vorerst ein großes „Dankeschön“ fürs Lesen sagen. Ich hoffe, du hast etwas gelernt. Und wie immer können Sie sich jederzeit mit Kommentaren, Fragen oder Bedenken an uns wenden.


Vielen Dank fürs Lesen. Wenn Ihnen dieser Artikel gefallen hat und Sie mich unterstützen möchten, können Sie dies am besten tun teilt es , Melden Sie sich für meinen Newsletter an , Und folge mir auf Twitter .


Ursprünglich veröffentlicht am austingil.com .