paint-brush
So trainieren Sie Ihr eigenes privates ChatGPT-Modell zum Preis eines Starbucks-Kaffeesvon@zhoujieguang
3,158 Lesungen
3,158 Lesungen

So trainieren Sie Ihr eigenes privates ChatGPT-Modell zum Preis eines Starbucks-Kaffees

von Zhou Jieguang12m2023/06/18
Read on Terminal Reader
Read this story w/o Javascript

Zu lang; Lesen

Mit den Kosten einer Tasse Starbucks und zwei Stunden Ihrer Zeit können Sie Ihr eigenes trainiertes Open-Source-Großmodell besitzen.
featured image - So trainieren Sie Ihr eigenes privates ChatGPT-Modell zum Preis eines Starbucks-Kaffees
Zhou Jieguang HackerNoon profile picture
0-item
1-item
2-item


Mit den Kosten einer Tasse Starbucks und zwei Stunden Ihrer Zeit können Sie Ihr eigenes trainiertes Open-Source-Großmodell besitzen. Das Modell kann anhand verschiedener Trainingsdatenrichtungen feinabgestimmt werden, um verschiedene Fähigkeiten wie Medizin, Programmierung , Aktienhandel und Liebesratschläge zu verbessern, sodass Ihr groß angelegtes Modell Sie besser „versteht“. Versuchen wir, ein Open-Source-Großmodell zu trainieren, das durch den Open-Source-DelphinScheduler unterstützt wird!

Einführung

Die Demokratisierung von ChatGPT

Die Geburt von ChatGPT hat uns zweifellos mit Vorfreude auf die Zukunft der KI erfüllt. Sein anspruchsvoller Ausdruck und sein starkes Sprachverständnis haben die Welt in Erstaunen versetzt. Da ChatGPT jedoch als Software as a Service (SaaS) bereitgestellt wird, sind Probleme in Bezug auf die Privatsphäre und die Sicherheit von Unternehmensdaten ein Problem für jeden Benutzer und jedes Unternehmen. Es entstehen immer mehr Open-Source-Großmodelle, die es Einzelpersonen und Unternehmen ermöglichen, über eigene Modelle zu verfügen. Der Einstieg, die Optimierung und der Einsatz von Open-Source-Großmodellen sind jedoch mit hohen Eintrittsbarrieren verbunden, so dass es für jedermann schwierig ist, sie problemlos zu nutzen. Um dieses Problem zu lösen, verwenden wir Apache DolphinScheduler, der Ein-Klick-Unterstützung für das Training, die Optimierung und die Bereitstellung von Open-Source-Großmodellen bietet. Dies ermöglicht es jedem, mit sehr geringen Kosten und mit technischem Fachwissen eigene groß angelegte Modelle mit seinen Daten zu trainieren.

Für wen ist das? – Jeder, der vor einem Bildschirm steht

Unser Ziel besteht nicht nur darin, dass professionelle KI-Ingenieure, sondern auch alle, die sich für GPT interessieren, die Freude genießen können, ein Modell zu haben, das sie besser „versteht“. Wir glauben, dass jeder das Recht und die Fähigkeit hat, seinen eigenen KI-Assistenten zu gestalten. Der intuitive Workflow von Apache DolphinScheduler macht dies möglich. Als Bonus ist Apache DolphinScheduler ein Big-Data- und KI-Planungstool mit über 10.000 Sternen auf GitHub. Es handelt sich um ein Top-Level-Projekt der Apache Software Foundation, was bedeutet, dass Sie es kostenlos nutzen und den Code ändern können, ohne sich um kommerzielle Probleme kümmern zu müssen.


Egal, ob Sie ein Branchenexperte sind, der ein Modell mit Ihren eigenen Daten trainieren möchte, oder ein KI-Enthusiast, der das Training von Deep-Learning-Modellen verstehen und erkunden möchte, unser Workflow bietet Ihnen praktische Dienste. Es löst komplexe Vorverarbeitungs-, Modelltrainings- und Optimierungsschritte und erfordert nur 1–2 Stunden einfache Vorgänge sowie 20 Stunden Laufzeit, um ein „verständlicheres“ ChatGPT-Großmodell zu erstellen.

Also lasst uns diese magische Reise beginnen! Lassen Sie uns die Zukunft der KI allen zugänglich machen.

Nur drei Schritte, um ein ChatGPT zu erstellen, das Sie besser „versteht“.

  1. Mieten Sie eine GPU-Karte zu einem günstigen Preis, der einem 3090-Niveau entspricht
  2. Starten Sie DolphinScheduler
  3. Klicken Sie auf der DolphinScheduler-Seite auf den Trainings-Workflow und den Bereitstellungs-Workflow und erleben Sie Ihr ChatGPT direkt

Vorbereiten eines Hosts mit einer 3090-Grafikkarte

Zunächst benötigen Sie eine 3090-Grafikkarte. Wenn Sie einen Desktop-Computer haben, können Sie diesen direkt verwenden. Wenn nicht, gibt es online viele Hosts mit GPU zu mieten. Hier verwenden wir AutoDL als Anwendungsbeispiel. Öffnen Sie https://www.autodl.com/home , registrieren Sie sich und melden Sie sich an. Anschließend können Sie gemäß den auf dem Bildschirm angezeigten Schritten 1, 2 und 3 den entsprechenden Server im Rechenleistungsmarkt auswählen.

Bildquelle: eigenes Bild des Autors


Hier empfiehlt sich die Wahl der Grafikkarte RTX 3090, die ein hohes Preis-Leistungs-Verhältnis bietet. Nach Tests hat sich herausgestellt, dass ein bis zwei Personen die RTX 3090 für Online-Aufgaben nutzen können. Wenn Sie schnellere Trainings- und Reaktionsgeschwindigkeiten wünschen, können Sie sich für eine leistungsstärkere Grafikkarte entscheiden. Das einmalige Training dauert etwa 20 Stunden, während die Prüfung etwa 2–3 Stunden in Anspruch nimmt. Mit einem Budget von 40 Yuan können Sie es problemlos schaffen.

Spiegel

Klicken Sie auf den Community-Spiegel und geben Sie dann WhaleOps/dolphinscheduler-llm/dolphinscheduler-llm-0521 das rote Feld unten ein. Sie können das Bild wie unten gezeigt auswählen. Derzeit ist nur die V1-Version verfügbar. Wenn in Zukunft neue Versionen veröffentlicht werden, können Sie die neueste Version auswählen.

Bildquelle: eigenes Bild des Autors


Wenn Sie das Modell mehrmals trainieren müssen, empfiehlt es sich, die Festplattenkapazität auf etwa 100 GB zu erweitern.


Warten Sie nach der Erstellung, bis der im folgenden Bild gezeigte Fortschrittsbalken abgeschlossen ist.

Starten Sie DolphinScheduler

Um Ihr eigenes Open-Source-Großmodell auf der Schnittstelle bereitzustellen und zu debuggen, müssen Sie die DolphinScheduler-Software starten und die folgenden Konfigurationsarbeiten durchführen:

Um auf den Server zuzugreifen

Es stehen zwei Methoden zur Verfügung. Sie können diejenige auswählen, die Ihren Wünschen entspricht:

  1. Anmeldung über JupyterLab (für Nicht-Programmierer):

Klicken Sie auf die unten gezeigte JupyterLab-Schaltfläche.

Bildquelle: eigenes Bild des Autors


Die Seite wird zu JupyterLab weitergeleitet; Von dort aus können Sie zum Betreten auf „Terminal“ klicken.

Bildquelle: eigenes Bild des Autors


2. Anmeldung über Terminal (für Programmierer):

Wir können den SSH-Verbindungsbefehl über die im folgenden Bild gezeigte Schaltfläche erhalten.

Bildquelle: eigenes Bild des Autors


Anschließend stellen Sie die Verbindung über das Terminal her.

Bildquelle: eigenes Bild des Autors


Importieren Sie die Metadaten von DolphinScheduler

In DolphinScheduler werden alle Metadaten in der Datenbank gespeichert, einschließlich Workflow-Definitionen, Umgebungskonfigurationen, Mieterinformationen usw. Damit Benutzer diese Workflows beim Start von DolphinScheduler bequem sehen können, können wir vordefinierte Workflow-Metadaten direkt importieren, indem wir sie kopieren vom Bildschirm.


Ändern Sie das Skript zum Importieren von Daten in MySQL:

Navigieren Sie über das Terminal zum folgenden Verzeichnis:

cd apache-dolphinscheduler-3.1.5-bin


Führen Sie den Befehl vim import_ds_metadata.sh aus, um die Datei import_ds_metadata.sh zu öffnen. Der Inhalt der Datei ist wie folgt:



Set variables

Hostname

HOST="xxx.xxx.xxx.x"


UsernameUSERNAME="root"PasswordPASSWORD="xxxx"PortPORT=3306Database to import intoDATABASE="ds315_llm_test"SQL filenameSQL_FILE="ds315_llm.sql"mysql -h $HOST -P $PORT -u $USERNAME -p$PASSWORD -e "CREATE DATABASE $DATABASE;"mysql -h $HOST -P $PORT -u $USERNAME -p$PASSWORD $DATABASE < $SQL_FILE


Ersetzen Sie xxx.xxx.xxx.x und xxxx durch die relevanten Konfigurationswerte einer MySQL-Datenbank in Ihrem öffentlichen Netzwerk (Sie können eine bei Alibaba Cloud oder Tencent Cloud beantragen oder selbst eine installieren). Führen Sie dann Folgendes aus:

bash import_ds_metadata.sh


Nach der Ausführung können Sie bei Interesse die entsprechenden Metadaten in der Datenbank überprüfen (stellen Sie eine Verbindung zu MySQL her und zeigen Sie sie an. Wenn Sie mit dem Code nicht vertraut sind, können Sie diesen Schritt überspringen).

Bildquelle: eigenes Bild des Autors


Starten Sie DolphinScheduler

Öffnen Sie in der Server-Befehlszeile die folgende Datei und ändern Sie die Konfiguration, um DolphinScheduler mit der zuvor importierten Datenbank zu verbinden:


/root/apache-dolphinscheduler-3.1.5-bin/bin/env/dolphinscheduler_env.sh


Ändern Sie die entsprechende Konfiguration im Datenbankabschnitt und lassen Sie andere Abschnitte unverändert. Ändern Sie die Werte von „HOST“ und „PASSWORD“ in die Konfigurationswerte der importierten Datenbank, d. h. xxx.xxx.xxx.x und xxxx:


export DATABASE=mysqlexport SPRING_PROFILES_ACTIVE=${DATABASE}export SPRING_DATASOURCE_URL="jdbc:mysql://HOST:3306/ds315_llm_test?useUnicode=true&characterEncoding=UTF-8&useSSL=false"export SPRING_DATASOURCE_USERNAME="root"export SPRING_DATASOURCE_PASSWORD="xxxxxx"......


Führen Sie nach der Konfiguration Folgendes aus (auch in diesem Verzeichnis /root/apache-dolphinscheduler-3.1.5-bin):

bash ./bin/dolphinscheduler-daemon.sh start standalone-server


Nach der Ausführung können wir die Protokolle überprüfen, indem wir tail -200f standalone-server/logs/dolphinscheduler-standalone.log verwenden. Zu diesem Zeitpunkt wird DolphinScheduler offiziell gestartet!


Nach dem Start des Dienstes können wir in der AutoDL-Konsole auf „Custom Services“ klicken (rot hervorgehoben), um zu einer URL weitergeleitet zu werden:

Bildquelle: eigenes Bild des Autors


Wenn beim Öffnen der URL ein 404-Fehler angezeigt wird, ist das kein Grund zur Sorge. Hängen Sie einfach das Suffix /dolphinscheduler/ui an die URL an:

Bildquelle: eigenes Bild des Autors

Das AutoDL-Modul öffnet Port 6006. Nachdem Sie den Port von DolphinScheduler auf 6006 konfiguriert haben, können Sie über den bereitgestellten Einstiegspunkt darauf zugreifen. Aufgrund der URL-Umleitung kann es jedoch zu einem 404-Fehler kommen. In solchen Fällen müssen Sie die URL manuell vervollständigen.



Anmeldedaten:

Benutzername: admin

Passwort: dolphinscheduler123


Klicken Sie nach der Anmeldung auf „Projektmanagement“, um das vordefinierte Projekt mit dem Namen „vicuna“ anzuzeigen. Klicken Sie auf „Vicuna“, um zum Projekt zu gelangen.

Bildquelle: eigenes Bild des Autors


Schulung und Bereitstellung von Open-Source-Großmodellen

Workflow-Definition

Beim Betreten des Vicuna-Projekts sehen Sie drei Arbeitsabläufe: Training, Deploy und Kill_Service. Lassen Sie uns ihre Verwendungsmöglichkeiten erkunden und erfahren, wie Sie große Modelle konfigurieren und Ihre Daten trainieren.

Bildquelle: eigenes Bild des Autors


Sie können unten auf die Schaltfläche „Ausführen“ klicken, um entsprechende Workflows auszuführen.

Bildquelle: eigenes Bild des Autors


Ausbildung

Wenn Sie auf den Trainingsworkflow klicken, werden Ihnen zwei Definitionen angezeigt. Eine dient der Feinabstimmung des Modells durch Lora (hauptsächlich unter Verwendung von Alpaca-lora, https://github.com/tloen/alpaca-lora ), und die andere dient der Zusammenführung des trainierten Modells mit dem Basismodell, um das endgültige Modell zu erhalten .

Bildquelle: eigenes Bild des Autors


Der Workflow verfügt über die folgenden Parameter (wird angezeigt, nachdem Sie auf „Ausführen“ geklickt haben):


  • base_model: Das Basismodell, das je nach Bedarf ausgewählt und heruntergeladen werden kann. Die Open-Source-Großmodelle dienen nur Lern- und Erfahrungszwecken. Die aktuelle Standardeinstellung ist TheBloke/vicuna-7B-1.1-HF.
  • data_path: Der Pfad Ihrer personalisierten Trainingsdaten und domänenspezifischen Daten, standardmäßig /root/demo-data/llama_data.json.
  • lora_path: Der Pfad zum Speichern der trainierten Lora-Gewichte, /root/autodl-tmp/vicuna-7b-lora-weight.
  • Ausgabepfad: Der Speicherpfad des endgültigen Modells nach dem Zusammenführen des Basismodells und der Lora-Gewichte. Notieren Sie ihn, da er für die Bereitstellung benötigt wird.
  • num_epochs: Trainingsparameter, die Anzahl der Trainingsepochen. Zum Testen kann es auf 1 eingestellt werden, normalerweise auf 3 bis 10.
  • cutoff_len: Maximale Textlänge, standardmäßig 1024.
  • micro_batch_size: Stapelgröße.

Bildquelle: eigenes Bild des Autors


Einsetzen

Der Workflow für die Bereitstellung großer Modelle (hauptsächlich mit FastChat, https://github.com/lm-sys/FastChat ). Zuerst wird kill_service aufgerufen, um das bereitgestellte Modell zu beenden, dann wird nacheinander der Controller gestartet, das Modell hinzugefügt und dann der Gradio-Webdienst geöffnet.

Bildquelle: eigenes Bild des Autors


Die Startparameter lauten wie folgt:

Bildquelle: eigenes Bild des Autors


  • Modell: Modellpfad. Dies kann eine Huggingface-Modell-ID oder der von uns trainierte Modellpfad sein, dh der Ausgabepfad des obigen Trainingsworkflows. Der Standardwert ist TheBloke/vicuna-7B-1.1-HF. Wenn die Standardeinstellung verwendet wird, wird das Vicuna-7b-Modell direkt bereitgestellt.

Kill_service

Dieser Workflow wird verwendet, um das bereitgestellte Modell zu beenden und GPU-Speicher freizugeben. Dieser Workflow hat keine Parameter und Sie können ihn direkt ausführen. Wenn Sie den bereitgestellten Dienst stoppen müssen (z. B. wenn Sie das Modell neu trainieren müssen oder wenn nicht genügend GPU-Speicher vorhanden ist), können Sie den Workflow kill_service direkt ausführen, um den bereitgestellten Dienst zu beenden.


Nachdem Sie einige Beispiele durchgegangen sind, ist Ihre Bereitstellung abgeschlossen. Schauen wir uns nun die praktische Bedienung an:

Beispiel für den Betrieb eines großen Modells

  1. Ein großes Modell trainieren

Starten Sie den Workflow direkt, indem Sie den Trainingsworkflow ausführen und die Standardparameter auswählen.

Bildquelle: eigenes Bild des Autors


Klicken Sie mit der rechten Maustaste auf die entsprechende Aufgabe, um die Protokolle anzuzeigen, wie unten gezeigt:

Bildquelle: eigenes Bild des Autors


Sie können den Aufgabenstatus und die Protokolle auch im Aufgabeninstanzfenster unten links in der Seitenleiste anzeigen. Während des Trainingsprozesses können Sie den Fortschritt überwachen, indem Sie die Protokolle überprüfen, einschließlich der aktuellen Trainingsschritte, Verlustmetriken, verbleibender Zeit usw. Es gibt einen Fortschrittsbalken, der den aktuellen Schritt anzeigt, wobei Schritt = (Datengröße * Epoche) / Stapel Größe.

Bildquelle: eigenes Bild des Autors


Nach Abschluss des Trainings sehen die Protokolle wie folgt aus:

Bildquelle: eigenes Bild des Autors


Aktualisieren Ihrer personalisierten Trainingsdaten

Unsere Standarddaten befinden sich in /root/demo-data/llama_data.json . Die aktuelle Datenquelle ist Huatuo, ein medizinisches Modell, das anhand chinesischer medizinischer Daten verfeinert wurde. Ja, unser Beispiel ist die Ausbildung eines Hausarztes:

Bildquelle: eigenes Bild des Autors


Wenn Sie Daten in einem bestimmten Feld haben, können Sie auf Ihre eigenen Daten verweisen. Das Datenformat ist wie folgt:


Ein JSON pro Zeile und die Feldbedeutung ist:

  • Anweisung ****: Anweisung, die dem Modell gegeben werden soll.
  • Eingabe: Eingabe.
  • Ausgabe: Erwartete Modellausgabe.

Zum Beispiel:

{"instruction": "calculation", "input": "1+1 equals?", "output": "2"}


Bitte beachten Sie, dass Sie die Anweisungs- und Eingabefelder in einem einzigen Anweisungsfeld zusammenführen können. Das Eingabefeld kann auch leer gelassen werden.


Ändern Sie beim Training den Parameter data_path, um Ihre eigenen Daten auszuführen.


Notiz:


Während der ersten Trainingsausführung wird das Basismodell vom angegebenen Speicherort abgerufen, z. B. TheBloke/vicuna-7B-1.1-HF. Es wird ein Downloadvorgang stattfinden. Warten Sie daher bitte, bis der Download abgeschlossen ist. Die Wahl dieses Modells wird vom Benutzer bestimmt, und Sie können auch andere große Open-Source-Modelle herunterladen (befolgen Sie bei der Verwendung bitte die entsprechenden Lizenzen).


Aufgrund von Netzwerkproblemen kann es sein, dass der Download des Basismodells mitten in der ersten Trainingsausführung fehlschlägt. In solchen Fällen können Sie auf die fehlgeschlagene Aufgabe klicken und sie erneut ausführen, um das Training fortzusetzen. Der Vorgang ist unten dargestellt:

Bildquelle: eigenes Bild des Autors


Um das Training zu stoppen, können Sie auf die Stopp-Schaltfläche klicken, wodurch der für das Training verwendete GPU-Speicher freigegeben wird.

Bereitstellungsworkflow

Klicken Sie auf der Seite mit der Workflow-Definition auf den Bereitstellungs-Workflow, um ihn auszuführen und das Modell bereitzustellen.

Bildquelle: eigenes Bild des Autors


Wenn Sie Ihr eigenes Modell nicht trainiert haben, können Sie den Bereitstellungsworkflow mit den Standardparametern TheBloke/vicuna-7B-1.1-HF ausführen, um das vicuna-7b Modell bereitzustellen, wie in der Abbildung unten gezeigt:

Bildquelle: eigenes Bild des Autors


Wenn Sie im vorherigen Schritt ein Modell trainiert haben, können Sie Ihr Modell jetzt bereitstellen. Nach der Bereitstellung können Sie Ihr eigenes großes Modell erleben. Die Startparameter lauten wie folgt, wobei Sie den output_path des Modells aus dem vorherigen Schritt eingeben müssen:

Bildquelle: eigenes Bild des Autors


Als nächstes geben wir die bereitgestellte Workflow-Instanz ein. Klicken Sie auf die Workflow-Instanz und dann auf die Workflow-Instanz mit dem Präfix „Bereitstellen“.

Bildquelle: eigenes Bild des Autors

Klicken Sie mit der rechten Maustaste und wählen Sie „refresh_gradio_web_service“, um die Aufgabenprotokolle anzuzeigen und den Speicherort unseres großen Modelllinks zu finden.


Der Vorgang ist unten dargestellt:

Bildquelle: eigenes Bild des Autors



In den Protokollen finden Sie einen öffentlich zugänglichen Link, z. B.:

Bildquelle: eigenes Bild des Autors


Hier sind zwei Links. Auf den Link 0.0.0.0:7860 kann nicht zugegriffen werden, da AutoDL nur Port 6006 öffnet, der bereits für Dolphinscheduler verwendet wird. Sie können direkt auf den Link darunter zugreifen, z. B. [https://81c9f6ce11eb3c37a4.gradio.live.](https://81c9f6ce11eb3c37a4.gradio.live.)


Bitte beachten Sie, dass sich dieser Link bei jeder Bereitstellung ändern kann. Sie müssen ihn daher in den Protokollen erneut finden.


Sobald Sie den Link eingeben, sehen Sie die Konversationsseite Ihres eigenen ChatGPT!

Bildquelle: eigenes Bild des Autors


Bildquelle: eigenes Bild des Autors


Ja! Jetzt haben Sie Ihr eigenes ChatGPT und seine Daten dienen nur Ihnen!


Und Sie haben nur weniger ausgegeben, als eine Tasse Kaffee kostet~~


Machen Sie weiter und erleben Sie Ihr eigenes privates ChatGPT!

Zusammenfassung

In dieser datengesteuerten und technologieorientierten Welt ist ein dediziertes ChatGPT-Modell von unschätzbarem Wert. Mit der Weiterentwicklung der künstlichen Intelligenz und des Deep Learning befinden wir uns in einer Ära, in der personalisierte KI-Assistenten gestaltet werden können. Die Schulung und Bereitstellung Ihres eigenen ChatGPT-Modells kann uns helfen, KI besser zu verstehen und zu verstehen, wie sie unsere Welt verändert.


Zusammenfassend lässt sich sagen, dass die Schulung und Bereitstellung eines ChatGPT-Modells Ihnen dabei helfen kann, die Datensicherheit und den Datenschutz zu schützen, bestimmte Geschäftsanforderungen zu erfüllen, Technologiekosten zu sparen und den Schulungsprozess mithilfe von Workflow-Tools wie DolphinScheduler zu automatisieren. Außerdem können Sie so die örtlichen Gesetze und Vorschriften einhalten. Daher ist es eine lohnenswerte Option, selbst ein ChatGPT-Modell zu trainieren und bereitzustellen.


Wichtige Notizen:

  • Datensicherheit und Datenschutz: Wenn Sie ChatGPT über öffentliche API-Dienste verwenden, haben Sie möglicherweise Bedenken hinsichtlich der Datensicherheit und des Datenschutzes. Dies ist ein berechtigtes Anliegen, da Ihre Daten möglicherweise über das Netzwerk übertragen werden. Indem Sie das Modell selbst trainieren und bereitstellen, können Sie sicherstellen, dass Ihre Daten nur auf Ihrem eigenen Gerät oder gemieteten Server gespeichert und verarbeitet werden, wodurch Datensicherheit und Datenschutz gewährleistet sind.
  • Domänenspezifisches Wissen: Für Organisationen oder Einzelpersonen mit spezifischen Geschäftsanforderungen stellt das Training Ihres eigenen ChatGPT-Modells sicher, dass das Modell über das neueste und relevanteste Wissen in Bezug auf Ihr Unternehmen verfügt. Unabhängig von Ihrer Geschäftsdomäne ist ein Modell, das speziell auf Ihre Geschäftsanforderungen zugeschnitten ist, wertvoller als ein generisches Modell.
  • Investitionskosten: Die Verwendung des ChatGPT-Modells von OpenAI kann bestimmte Kosten verursachen. Wenn Sie das Modell selbst trainieren und bereitstellen möchten, müssen Sie ebenfalls Ressourcen investieren und Technologiekosten verursachen. Beispielsweise können Sie das Debuggen großer Modelle für nur 40 Yuan erleben, aber wenn Sie es langfristig betreiben möchten, empfiehlt es sich, eine Nvidia RTX 3090-Grafikkarte zu kaufen oder Cloud-Server zu mieten. Daher müssen Sie die Vor- und Nachteile abwägen und die Lösung auswählen, die Ihren spezifischen Umständen am besten entspricht.
  • DolphinScheduler: Durch die Verwendung des Workflows von Apache DolphinScheduler können Sie den gesamten Trainingsprozess automatisieren und so die technischen Hürden erheblich reduzieren. Auch wenn Sie nicht über umfangreiche Algorithmenkenntnisse verfügen, können Sie mit Hilfe solcher Tools Ihr eigenes Modell erfolgreich trainieren. DolphinScheduler unterstützt nicht nur das Training großer Modelle, sondern auch Big-Data-Planung und maschinelles Lernen und hilft Ihnen und Ihren nicht-technischen Mitarbeitern dabei, die Big-Data-Verarbeitung, Datenvorbereitung, Modellschulung und Modellbereitstellung problemlos zu bewältigen. Darüber hinaus ist es Open Source und die Nutzung ist kostenlos.
  • Rechtliche und behördliche Einschränkungen für große Open-Source-Modelle: DolphinScheduler ist lediglich ein visuelles KI-Workflow-Tool und bietet keine großen Open-Source-Modelle. Wenn Sie große Open-Source-Modelle verwenden und herunterladen, müssen Sie sich der unterschiedlichen Nutzungsbeschränkungen bewusst sein, die mit jedem Modell verbunden sind, und die jeweiligen Open-Source-Lizenzen einhalten. Die in diesem Artikel aufgeführten Beispiele dienen ausschließlich persönlichen Lern- und Erfahrungszwecken. Bei der Verwendung großer Modelle ist es wichtig, die Einhaltung der Open-Source-Modelllizenzierung sicherzustellen. Darüber hinaus gelten in verschiedenen Ländern unterschiedliche strenge Vorschriften zur Datenspeicherung und -verarbeitung. Wenn Sie große Modelle verwenden, müssen Sie das Modell anpassen und anpassen, um den spezifischen gesetzlichen Bestimmungen und Richtlinien Ihres Standorts zu entsprechen. Dies kann eine spezifische Filterung der Modellausgaben umfassen, um den örtlichen Datenschutzbestimmungen und den Vorschriften zum Umgang mit sensiblen Informationen zu entsprechen.


Auch hier veröffentlicht.