LangChain Chat-KI-Modell, angewendet in KI-Apps und DApp für Anfänger
Gehen Sie kurz die KI-Modelle von LangChain Chat für Anfänger durch, die daran interessiert sind, Ihr Kettenmodell in AI Web App & DApps aufzubauen
Eigenständige KI-Modelle und Apps wie OpenAI, Google Vertex AI PaLM sind nur ein Ausgangspunkt. Aus meiner Sicht ist die Anwendung diversifizierter Modelle zur Rationalisierung und Steigerung der Produktivität eines Arbeitsablaufs in jedem Fachbereich der entscheidende Schritt, um ihre Beauty- und Sex-Profis wirklich nutzen zu können.
In diesem Artikel möchte ich kurz auf die KI-Modelle von LangChain Chat für Anfänger eingehen, die daran interessiert sind, ein eigenes Kettenmodell in AI Web App & DApps aufzubauen, um die Produktivität zu steigern und kontinuierliche Erfolge in Ihrem Spiel zu erzielen.
Inhaltsverzeichnis: LangChain Chat AI-Modell, angewendet in Marketing-Apps für Anfänger
- Warum LangChain und das Chat-KI-Modell auswählen
- Grundlegende Einstellungen des LangChain Chat AI-Modells
- Einzeltreffer in der einseitigen KI-Kommunikation
- Einzeltreffer in einer Interaktion mit dem KI-System
- N+ Eingabeaufforderungsvorlagen mit einem KI-Modell
- N+ KI-Modelle in einer Kette
- Sonstiges – Verfolgen des gesamten ausgegebenen Tokens
- Vollständig funktionsfähiges Python-Skript des LangChain-Chat-KI-Modells, das in Marketing-Apps angewendet wird
- BuyfromLo AI APIs und Onsite-App
Warum LangChain und das Chat-KI-Modell auswählen
LangChain ist ein Softwareentwicklungsframework, das die Erstellung von Anwendungen mithilfe großer Sprachmodelle vereinfachen soll. Obwohl Entwickler die Kette auch mit anderen Frameworks erstellen können, gibt es bei der Verwendung von LangChain einige herausragende Funktionen:
- Das Chain-Framework vereinfacht den Codierungsaufwand im Allgemeinen
- Schnellere, schnelle Reaktion zwischen Anfragen
- Angesichts der vielfältigen Integration von KI-Modellen
- Angesichts der Integration externer Module von Drittanbietern
- Nachverfolgbare Leistung
Aus finanzieller Sicht handelt es sich bei der Nutzung eines KI-Moduls, das in Arbeitsanwendungen eingesetzt wird, grundsätzlich um ein Pay-as-you-go-Modell. Daher sind variable Kosten ein Schlüsselfaktor, den jedes Unternehmen berücksichtigen sollte, da sie zu Engpässen bei der Gewinnmarge oder sogar zu Geldverlusten führen können, wenn sie nicht richtig eingesetzt werden.
Im Allgemeinen sind Chat-KI-Modelle wie OpenAI GPT3.5 im Hinblick auf Token pro Tausend im Vergleich zu nicht-Chat-gesteuerten Modellen die günstigsten. Wenn die Leistung und Ausgabekapazität einem höherstufigen Modell ähnelt, wird das Chat-KI-Modell bevorzugt und insbesondere wird das Modell in einer Kette verwendet, was bedeutet, dass das Volumen groß wäre.
Grundlegende Einstellungen des LangChain Chat AI-Modells
In diesem Artikel würde ich OpenAI als Beispiel nehmen. Allerdings können Sie je nach tatsächlichem Bedarf auch andere KI-Modelle verwenden. Obwohl es geringfügige Unterschiede gibt, beispielsweise beim Import von Modellnamen, sind die Logik, die zugrunde liegenden Funktionen und der Ablauf im Grunde einander ähnlich.
Hier finden Sie die LangChain-Python-Bibliothek, Pakete zum Importieren und Hauptfunktionen zum Hinzufügen
- Bibliotheksinstallation
pip install langchain
- Erforderliche Pakete importieren
import time
from langchain . chat_models import ChatOpenAI
from langchain import PromptTemplate , LLMChain
from langchain . prompts . chat import (
ChatPromptTemplate ,
SystemMessagePromptTemplate ,
AIMessagePromptTemplate ,
HumanMessagePromptTemplate ,
)
from langchain . schema import (
AIMessage ,
HumanMessage ,
SystemMessage
)
from langchain . callbacks . streaming_stdout import StreamingStdOutCallbackHandler
from langchain . callbacks import get_openai_callback
- Hauptfunktion:
llm = ChatOpenAI ( temperature = 0.7 , model = "gpt-3.5-turbo" , openai_api_key = " )
Single Hit in der einseitigen KI-Kommunikation
LangChain kann eine einzelne Anfrage erfüllen, Sie können aber auch ChatGPT oder die OpenAI-API verwenden. Unten finden Sie ein Beispiel für die Verwendung des HumanMessage-Parameters und des Inhaltsarguments, die mit Eingabeaufforderungen verbunden sind.
response = llm ([ HumanMessage ( content = prompt )])
Einzeltreffer in einer Interaktion mit dem KI-System
Außer in eine Richtung können wir vorab eine Rolle einrichten oder einen Kontextdatensatz an LangChain und das KI-Modell weitergeben, um genauere Ergebnisse zu erhalten.
messages = [
SystemMessage ( content = "You are a marketing specialist and specialise in writing engaging Tiktok Short form video scripts in English." ),
HumanMessage ( content = "Write me a Tiktok Short form video script to engage with Japanese Ramen fans" )
]
N+ Eingabeaufforderungsvorlagen mit einem KI-Modell
In Wirklichkeit ist eine Ausgabe einer Marketinganwendung komplexer als die beiden oben angegebenen Beispiele. Grundsätzlich gibt es viele variable Faktoren und Eingabeaufforderungsvorlagen, die bei der Generierung zusammenarbeiten, selbst wenn dasselbe KI-Modell verwendet wird.
Nehmen Sie Marketing als Beispiel. Als Marketingtalent ist das Schreiben von Texten eine Fähigkeit, die auf SEM, SEO, Affiliate, soziale Netzwerke, E-Mail, Produktlisten, Videos, Advertorials, PR usw. angewendet werden kann. Darüber hinaus kann es sich um unterschiedliche Projektinhalte, Markengeschichten, bestehende Leistungen usw. handeln. Daher ist es erforderlich, dass Sie mit einer Sammlung von Eingabeaufforderungsvorlagen ausgestattet sind, um diese App zu erstellen und den Prozess zu automatisieren.
template = "You are a {role} specialist and specialise in writing engaging {object} copies in English."
system_message_prompt = SystemMessagePromptTemplate . from_template ( template )
human_template = " {text} "
human_message_prompt = HumanMessagePromptTemplate . from_template ( human_template )
chat_prompt = ChatPromptTemplate . from_messages ([ system_message_prompt , human_message_prompt ])
response123 = llm ( chat_prompt . format_prompt ( role = "marketing" , object = "email" , text = "Write me a Welcomed email to a first time purchase shoe buyer." ). to_messages ())
N+ KI-Modelle in einer Kette
Abgesehen von der Verwendung desselben Modells, wie bereits erwähnt, möchten wir möglicherweise gleichzeitig sowohl die KI-Leistung als auch finanzielle Faktoren berücksichtigen. Das bedeutet, dass wir unterschiedliche KI-Modelle in einer Aufgabe oder mehrere Aufgaben in einer Kette benötigen. Um beispielsweise einen Tweet zu schreiben, ist aufgrund der Zeichenbeschränkung kein aufwändiges und teures KI-Modell erforderlich, solange es in der Lage ist, die Rohmaterialien zu lesen. Andererseits erfordert die Erstellung eines komplexen Forschungsartikels oder einer Datenanalyse ein fortgeschritteneres Modell. Hier geht es um eine Denkweise zur Optimierung der Effizienzgrenze des KI-Modells.
chain = LLMChain ( llm = llm , prompt = chat_prompt )
finalResult = chain . run ( role = "marketing" , object = "email" , text = "Write me a Welcomed email to a first time purchase shoe buyer." )
Sonstiges – Verfolgung des insgesamt ausgegebenen Tokens
Wenn Sie ein KI-Modell-Reseller oder KI-App-Anbieter sind, ist die Verfolgung der gesamten ausgegebenen Token von entscheidender Bedeutung, da Sie diese zur Berechnung der Kosten benötigen. LangChain bietet ein AI-Modell-Rückrufpaket. Hier finden Sie eine große Auswahl an OpenAI
with get_openai_callback () as cb :
buyfromloAPIandAIYes = directResponse ()
print ( buyfromloAPIandAIYe )
buyfromloAPIandAI = cb
print ( buyfromloAPIandAI )
Tokens Used: 241
Prompt Tokens: 17
Completion Tokens: 224
Successful Requests: 2
Total Cost (USD): $0.000482
BuyfromLo AI APIs und Onsite-App
Wenn Sie beim Erstellen einer App oder API mit LangChain Zeit sparen möchten, schauen Sie sich bitte die BuyfromLo API und den Onsite App Store an. Jetzt führen wir ein kostenloses Testprogramm durch, los!
https://www.buyfromlo.com
Vollständig funktionsfähiges Python-Skript des LangChain-Chat-KI-Modells, das in Marketing-Apps angewendet wird
Wenn Sie sich für Kapitel 80 – LangChain-Chat-KI-Modell, angewendet in KI-Web-Apps und DApps für Anfänger, interessieren, Bitte abonnieren Sie unseren Newsletter , indem Sie die Nachricht „Kapitel 80 + Vollständige LangChain-Skripte für KI-Apps“ hinzufügen. . Wir senden Ihnen das Skript, sobald das aktuelle App-Skript verfügbar ist.
Ich wünsche Ihnen viel Spaß beim Lesen von Kapitel 80 – LangChain-Chat-KI-Modell, angewendet in KI-Web-Apps und DApps für Anfänger. Wenn ja, unterstützen Sie uns bitte, indem Sie eine der unten aufgeführten Maßnahmen ergreifen, da dies unserem Kanal immer weiterhilft.
- Unterstützen Sie unseren Kanal und spenden Sie über PayPal ( paypal.me/Easy2digital )
- Abonnieren Sie meinen Kanal und aktivieren Sie die Benachrichtigungsglocke des Easy2Digital-Youtube-Kanals .
- Folgen und liken Sie meine Easy2Digital-Facebook-Seite
- Teilen Sie den Artikel in Ihrem sozialen Netzwerk mit dem Hashtag #easy2digital
- Sie melden sich für unseren wöchentlichen Newsletter an, um die neuesten Artikel, Videos und Rabattcodes von Easy2Digital zu erhalten
- Abonnieren Sie unsere monatliche Mitgliedschaft über Patreon, um exklusive Vorteile zu genießen ( www.patreon.com/louisludigital )