Modelo de IA de LangChain Chat aplicado en aplicaciones de IA y DApp para principiantes
Recorra brevemente los modelos de AI de LangChain Chat para principiantes que estén interesados en construir su modelo de cadena en AI Web App y DApps
Los modelos y aplicaciones de IA independientes como OpenAI, Google Vertex AI PaLM son solo un punto de partida. Desde mi perspectiva, cómo aplicar modelos diversificados para agilizar y aumentar la productividad de un flujo de trabajo en cada área especializada es el paso clave para poder aprovechar realmente a sus profesionales de la belleza y el sexo.
En este artículo, repasaré brevemente los modelos de IA de LangChain Chat para principiantes que estén interesados en crear su propio modelo de cadena en AI Web App y DApps, con el fin de aumentar la productividad y crear éxitos continuos en su juego.
Índice: Modelo de IA de LangChain Chat aplicado en aplicaciones de marketing para principiantes
- Por qué LangChain y Select Chat AI Model
- LangChain Chat AI Modelo Configuración fundamental
- Un solo golpe en la comunicación de IA unidireccional
- Un solo golpe en una interacción con el sistema AI
- N+ Plantillas de solicitud usando un modelo de IA
- Modelos N+ AI en una cadena
- Varios: seguimiento del token total gastado
- Script de Python funcional completo del modelo de IA de LangChain Chat aplicado en aplicaciones de marketing
- BuyfromLo AI API y aplicación en el sitio
Por qué LangChain y Select Chat AI Model
LangChain es un marco de desarrollo de software diseñado para simplificar la creación de aplicaciones utilizando grandes modelos de lenguaje. Aunque los desarrolladores también pueden construir la cadena usando otro marco, hay algunas características sobresalientes usando LangChain:
- El marco de la cadena simplifica la carga de trabajo de codificación en general
- Respuesta rápida más rápida entre solicitudes
- Dada la integración diversificada del modelo de IA
- Dada la integración de módulos externos de terceros
- Rendimiento rastreable
Desde una perspectiva financiera, el uso de un módulo de IA aplicado en una aplicación de trabajo es básicamente un modelo de pago por uso. Por lo tanto, el costo variable es un factor clave que debe considerar cualquier negocio porque podría crear un cuello de botella en el margen de ganancias o incluso causar pérdidas de dinero si no se apalanca.
En general, los modelos de Chat AI como OpenAI GPT3.5 son los más baratos en términos de token por mil, en comparación con los modelos no basados en Chat. Si el rendimiento y la capacidad de salida son similares a los de un modelo de nivel superior, se prefiere el modelo Chat AI y, en particular, el modelo se utiliza en una cadena, lo que implica que el volumen sería grande.
LangChain Chat AI Modelo Configuración fundamental
En este artículo, tomaría OpenAI como muestra. Dicho esto, puede usar otros modelos de IA según las necesidades reales. Aunque existen pequeñas diferencias, como la importación del nombre del modelo, básicamente la lógica, las funciones subyacentes y el flujo son similares entre sí.
Aquí está la biblioteca LangChain Python, los paquetes para importar y las funciones principales para agregar
- Instalación de la biblioteca
pip install langchain
- Importar paquetes requeridos
import time
from langchain . chat_models import ChatOpenAI
from langchain import PromptTemplate , LLMChain
from langchain . prompts . chat import (
ChatPromptTemplate ,
SystemMessagePromptTemplate ,
AIMessagePromptTemplate ,
HumanMessagePromptTemplate ,
)
from langchain . schema import (
AIMessage ,
HumanMessage ,
SystemMessage
)
from langchain . callbacks . streaming_stdout import StreamingStdOutCallbackHandler
from langchain . callbacks import get_openai_callback
- Función básica:
llm = ChatOpenAI ( temperature = 0.7 , model = "gpt-3.5-turbo" , openai_api_key = " )
Single Hit en comunicación de IA unidireccional
LangChain puede cumplir con una sola solicitud, así como usar ChatGPT o API OpenAI. A continuación se muestra un ejemplo que usa el parámetro HumanMessage y el argumento de contenido que se conecta con las indicaciones.
response = llm ([ HumanMessage ( content = prompt )])
Golpe único en una interacción con el sistema de IA
Además de unidireccional, podemos configurar un rol o compartir un conjunto de datos de contexto por adelantado con LangChain y el modelo de IA, con el fin de obtener resultados más precisos.
messages = [
SystemMessage ( content = "You are a marketing specialist and specialise in writing engaging Tiktok Short form video scripts in English." ),
HumanMessage ( content = "Write me a Tiktok Short form video script to engage with Japanese Ramen fans" )
]
N+ Plantillas de solicitud usando un modelo de IA
En realidad, un resultado de una aplicación de marketing es más complejo que los dos ejemplos anteriores. Básicamente, hay muchos factores variables y plantillas de solicitud que trabajan juntas para generar incluso si se usa el mismo modelo de IA.
Tome Marketing como muestra. Como talento de marketing, escribir textos es un conjunto de habilidades que se puede aplicar a SEM, SEO, afiliados, redes sociales, correo electrónico, listado de productos, videos, publirreportajes, relaciones públicas, etc. Además, puede tratar con diferentes contenidos de proyectos, historias de marca, rendimiento existente, etc. Por lo tanto, requiere que equipe una colección de plantillas de solicitud para crear esta aplicación y automatizar el proceso.
template = "You are a {role} specialist and specialise in writing engaging {object} copies in English."
system_message_prompt = SystemMessagePromptTemplate . from_template ( template )
human_template = " {text} "
human_message_prompt = HumanMessagePromptTemplate . from_template ( human_template )
chat_prompt = ChatPromptTemplate . from_messages ([ system_message_prompt , human_message_prompt ])
response123 = llm ( chat_prompt . format_prompt ( role = "marketing" , object = "email" , text = "Write me a Welcomed email to a first time purchase shoe buyer." ). to_messages ())
Modelos N+ AI en una cadena
Además de usar el mismo modelo, como se mencionó anteriormente, nos gustaría considerar tanto el rendimiento de la IA como los factores financieros al mismo tiempo. Eso implica que necesitamos diferentes modelos de IA en una tarea o múltiples tareas en una cadena. Por ejemplo, escribir un tweet no necesita un modelo de IA elegante y costoso debido al límite de caracteres, siempre que pueda leer las materias primas. Por otro lado, generar un artículo de investigación complejo o un análisis de datos necesita un modelo más avanzado para cumplir. Aquí se trata de una mentalidad para optimizar la frontera eficiente del modelo de IA.
chain = LLMChain ( llm = llm , prompt = chat_prompt )
finalResult = chain . run ( role = "marketing" , object = "email" , text = "Write me a Welcomed email to a first time purchase shoe buyer." )
Varios: seguimiento del token total gastado
Si es un revendedor de modelos de IA o un proveedor de aplicaciones de IA, el seguimiento del token total gastado es fundamental porque lo necesita para calcular el costo. LangChain proporciona un paquete de devolución de llamada de AI Model. Aquí hay una muestra de OpenAI
with get_openai_callback () as cb :
buyfromloAPIandAIYes = directResponse ()
print ( buyfromloAPIandAIYe )
buyfromloAPIandAI = cb
print ( buyfromloAPIandAI )
Tokens Used: 241
Prompt Tokens: 17
Completion Tokens: 224
Successful Requests: 2
Total Cost (USD): $0.000482
BuyfromLo AI API y aplicación en el sitio
Si desea ahorrar tiempo al crear una aplicación o API usando LangChain, consulte la API de BuyfromLo y la tienda de aplicaciones en el sitio. Ahora estamos ejecutando un programa de prueba gratuito, ¡adelante!
https://www.buyfromlo.com
Script de Python funcional completo del modelo de IA de LangChain Chat aplicado en aplicaciones de marketing
Si está interesado en el Capítulo 80: Modelo de AI de LangChain Chat aplicado en AI Web App y DApp para principiantes, suscríbase a nuestro boletín agregando el mensaje 'Capítulo 80 + Scripts completos de LangChain para aplicaciones de IA' . Le enviaremos la secuencia de comandos cuando la secuencia de comandos de la aplicación esté actualizada.
Espero que disfrute leyendo el Capítulo 80: Modelo de AI de LangChain Chat aplicado en AI Web App y DApp para principiantes. Si lo hiciste, apóyanos haciendo una de las cosas que se enumeran a continuación, porque siempre ayuda a nuestro canal.
- Apoya y dona a nuestro canal a través de PayPal ( paypal.me/Easy2digital )
- Suscríbete a mi canal y activa la campanita de notificaciones Easy2Digital Youtube channel .
- Sigue y dale me gusta a mi página Easy2Digital Facebook page
- Comparte el artículo en tu red social con el hashtag #easy2digital
- Te suscribes a nuestro boletín semanal para recibir los últimos artículos, videos y códigos de descuento de Easy2Digital
- Suscríbase a nuestra membresía mensual a través de Patreon para disfrutar de beneficios exclusivos ( www.patreon.com/louisludigital )