Modèle LangChain Chat AI appliqué dans les applications AI et DApp pour les débutants

Parcourez brièvement les modèles LangChain Chat AI pour les débutants qui souhaitent créer votre modèle de chaîne dans AI Web App & DApps

Les modèles d'IA autonomes et les applications comme OpenAI, Google Vertex AI PaLM ne sont qu'un point de départ. De mon point de vue, comment appliquer des modèles diversifiés pour rationaliser et augmenter la productivité d'un flux de travail dans chaque domaine spécialisé est l'étape clé pour pouvoir vraiment tirer parti de leurs pros de la beauté et du sexe.

Dans cet article, je passerai brièvement en revue les modèles LangChain Chat AI pour les débutants qui souhaitent créer leur propre modèle de chaîne dans AI Web App & DApps, dans le but d'augmenter la productivité et de créer des hits continus dans votre jeu.

Table des matières : LangChain Chat AI Model appliqué dans les applications marketing pour les débutants

Pourquoi LangChain et sélectionnez le modèle d'IA de chat

LangChain est un cadre de développement logiciel conçu pour simplifier la création d'applications utilisant de grands modèles de langage. Bien que les développeurs puissent également créer la chaîne à l'aide d'un autre framework, LangChain présente certaines fonctionnalités exceptionnelles :

  • Le cadre de chaîne simplifie la charge de travail de codage en général
  • Réponse rapide plus rapide entre les demandes
  • Compte tenu de l'intégration diversifiée du modèle d'IA
  • Compte tenu de l'intégration de modules externes tiers
  • Performances traçables

D'un point de vue financier, l'utilisation d'un module d'IA appliqué dans une application de travail est essentiellement un modèle de paiement à l'utilisation. Ainsi, le coût variable est un facteur clé à prendre en compte par toute entreprise, car il peut créer un goulot d'étranglement sur la marge bénéficiaire ou même entraîner une perte d'argent s'il n'est pas approprié de tirer parti de l'effet de levier.

En règle générale, les modèles Chat AI comme OpenAI GPT3.5 sont les moins chers en termes de jeton pour mille, par rapport aux modèles non basés sur le chat. Si les performances et la capacité de sortie sont similaires à celles d'un modèle de niveau supérieur, le modèle Chat AI est préféré et notamment le modèle est utilisé dans une chaîne, ce qui implique que le volume serait important.

LangChain Chat AI Model Paramètres fondamentaux

Dans cet article, je prendrais OpenAI comme exemple. Cela dit, vous pouvez utiliser d'autres modèles d'IA en fonction des besoins réels. Bien qu'il existe de petites différences telles que l'importation du nom du modèle, la logique, les fonctions sous-jacentes et le flux sont similaires les uns aux autres.

Voici la bibliothèque LangChain Python, les packages à importer et les fonctions principales à ajouter

  • Installation de la bibliothèque

pip install langchain

  • Importer les packages requis

import time

from langchain . chat_models import ChatOpenAI

from langchain import PromptTemplate , LLMChain

from langchain . prompts . chat import (

   ChatPromptTemplate ,

   SystemMessagePromptTemplate ,

   AIMessagePromptTemplate ,

   HumanMessagePromptTemplate ,

)

from langchain . schema import (

   AIMessage ,

   HumanMessage ,

   SystemMessage

)

from langchain . callbacks . streaming_stdout import StreamingStdOutCallbackHandler

from langchain . callbacks import get_openai_callback

  • Fonction principale:

llm = ChatOpenAI ( temperature = 0.7 , model = "gpt-3.5-turbo" , openai_api_key = " )

Single Hit dans une communication IA unidirectionnelle

LangChain peut répondre à une seule demande aussi bien que vous utilisez l'API ChatGPT ou OpenAI. Vous trouverez ci-dessous un exemple utilisant le paramètre HumanMessage et l'argument de contenu se connectant aux invites.

response = llm ([ HumanMessage ( content = prompt )])

Single Hit dans une interaction avec le système d'IA

En dehors du sens unique, nous pouvons configurer un rôle ou partager un ensemble de données contextuelles à l'avance avec LangChain et le modèle d'IA, dans le but d'obtenir des résultats plus précis.

messages = [

   SystemMessage ( content = "You are a marketing specialist and specialise in writing engaging Tiktok Short form video scripts in English." ),

   HumanMessage ( content = "Write me a Tiktok Short form video script to engage with Japanese Ramen fans" )

]

Modèles d'invite N+ utilisant un modèle d'IA

En réalité, une sortie d'une application marketing est plus complexe que les deux exemples ci-dessus. Fondamentalement, de nombreux facteurs variables et modèles d'invite fonctionnent ensemble pour générer même si vous utilisez le même modèle d'IA.

Prenez Marketing comme exemple. En tant que talent marketing, la rédaction de textes est un ensemble de compétences qui peut être appliquée au SEM, au référencement, à l'affiliation, aux réseaux sociaux, aux e-mails, aux listes de produits, aux vidéos, aux publireportages, aux relations publiques, etc. En outre, il peut traiter différents contenus de projet, histoire de marque, performances existantes, etc. Ainsi, vous devez vous équiper d'une collection de modèles d'invite pour créer cette application et automatiser le processus.

template = "You are a {role} specialist and specialise in writing engaging {object} copies in English."

system_message_prompt = SystemMessagePromptTemplate . from_template ( template )

human_template = " {text} "

human_message_prompt = HumanMessagePromptTemplate . from_template ( human_template )

chat_prompt = ChatPromptTemplate . from_messages ([ system_message_prompt , human_message_prompt ])

response123 = llm ( chat_prompt . format_prompt ( role = "marketing" , object = "email" , text = "Write me a Welcomed email to a first time purchase shoe buyer." ). to_messages ())

Modèles N+ AI dans une chaîne

En plus d'utiliser le même modèle, comme mentionné précédemment, nous aimerions peut-être considérer à la fois les performances de l'IA et les facteurs financiers. Cela implique que nous avons besoin de différents modèles d'IA dans une tâche ou plusieurs tâches dans une chaîne. Par exemple, écrire un tweet n'a pas besoin d'un modèle d'IA sophistiqué et coûteux en raison de la limite de caractères tant qu'il est capable de lire les matières premières. D'un autre côté, la génération d'un article de recherche complexe ou l'analyse de données nécessite un modèle plus avancé à remplir. Ici traite d'un état d'esprit pour optimiser la frontière efficace du modèle d'IA.

   chain = LLMChain ( llm = llm , prompt = chat_prompt )

   finalResult = chain . run ( role = "marketing" , object = "email" , text = "Write me a Welcomed email to a first time purchase shoe buyer." )

Divers – Suivi du total des jetons dépensés

Si vous êtes un revendeur de modèles d'IA ou un fournisseur d'applications d'IA, le suivi du total des jetons dépensés est essentiel car vous en avez besoin pour calculer le coût. LangChain fournit un package de rappel de modèle AI. Voici un aperçu d'OpenAI

with get_openai_callback () as cb :

   buyfromloAPIandAIYes = directResponse ()

   print ( buyfromloAPIandAIYe )

   buyfromloAPIandAI = cb

   print ( buyfromloAPIandAI )

Tokens Used: 241

Prompt Tokens: 17

Completion Tokens: 224

Successful Requests: 2

Total Cost (USD): $0.000482

API BuyfromLo AI et application sur site

Si vous souhaitez gagner du temps en créant une application ou une API à l'aide de LangChain, veuillez consulter l'API BuyfromLo et la boutique d'applications sur site. Nous lançons maintenant un programme d'essai gratuit, allez-y !

https://www.buyfromlo.com

Script Python fonctionnel complet du modèle LangChain Chat AI appliqué dans les applications marketing

Si vous êtes intéressé par Chapitre 80 – Modèle d'IA LangChain Chat appliqué dans l'application Web AI et DApp pour les débutants, veuillez vous inscrire à notre newsletter en ajoutant le message 'Chapitre 80 + Scripts LangChain complets pour les applications AI' . Nous vous enverrons le script lorsque le script d'application à jour est en ligne.

J'espère que vous apprécierez la lecture du chapitre 80 – LangChain Chat AI Model Applied in AI Web App & DApp for Beginners. Si vous l'avez fait, veuillez nous soutenir en faisant l'une des choses énumérées ci-dessous, car cela aide toujours notre chaîne.

  • Soutenez et faites un don à notre chaîne via PayPal ( paypal.me/Easy2digital )
  • Abonnez-vous à ma chaîne et activez la cloche de notification Chaîne Youtube Easy2Digital .
  • Suivez et aimez ma page Page Facebook Easy2Digital
  • Partagez l'article sur votre réseau social avec le hashtag #easy2digital
  • Vous vous inscrivez à notre newsletter hebdomadaire pour recevoir les derniers articles, vidéos et codes de réduction Easy2Digital
  • Abonnez-vous à notre abonnement mensuel via Patreon pour profiter d'avantages exclusifs ( www.patreon.com/louisludigital )