Модель искусственного интеллекта LangChain Chat применяется в приложениях искусственного интеллекта и DApp для начинающих
Кратко ознакомьтесь с моделями искусственного интеллекта LangChain Chat для начинающих, которые заинтересованы в построении своей модели цепочки в веб-приложении и DApps с искусственным интеллектом.
Автономные модели ИИ и приложения, такие как OpenAI, Google Vertex AI PaLM, — это только отправная точка. С моей точки зрения, как применять диверсифицированные модели для оптимизации и повышения производительности рабочего процесса в каждой специализированной области, является ключевым шагом к тому, чтобы действительно использовать их профессионалов в сфере красоты и секса.
В этой части я кратко расскажу о моделях искусственного интеллекта LangChain Chat для начинающих, которые заинтересованы в создании собственной модели цепочки в веб-приложениях и DApp с искусственным интеллектом, с целью повышения производительности и создания непрерывных хитов в вашей игре.
Содержание: Модель искусственного интеллекта чата LangChain, применяемая в маркетинговых приложениях для начинающих
- Почему LangChain и выберите модель AI для чата
- LangChain Chat Модель AI Основные настройки
- Однократное попадание в одностороннюю связь с ИИ
- Одно попадание за одно взаимодействие с системой ИИ
- N+ шаблонов подсказок с использованием одной модели ИИ
- N+ AI-моделей в одной цепочке
- Разное — Отслеживание общего количества потраченных токенов
- Полноценный функциональный скрипт Python модели LangChain Chat AI, применяемый в маркетинговых приложениях
- API BuyfromLo AI и приложение на месте
Почему LangChain и выберите модель AI для чата
LangChain — это среда разработки программного обеспечения, предназначенная для упрощения создания приложений с использованием больших языковых моделей. Хотя разработчики также могут создавать цепочки с помощью других фреймворков, у LangChain есть несколько выдающихся функций:
- Цепочка фреймворков в целом упрощает работу по кодированию.
- Более быстрый оперативный ответ между запросами
- Учитывая диверсифицированную интеграцию модели ИИ
- Учитывая интеграцию сторонних внешних модулей
- Отслеживаемая производительность
С финансовой точки зрения использование модуля ИИ, применяемого в рабочем приложении, в основном представляет собой модель оплаты по мере использования. Таким образом, переменная стоимость является ключевым фактором для любого бизнеса, потому что она может создать узкое место для прибыли или даже привести к потере денег, если ее использовать неправильно.
Как правило, модели Chat AI, такие как OpenAI GPT3.5, являются самыми дешевыми с точки зрения токена на тысячу по сравнению с моделями, не основанными на Chat. Если производительность и выходная мощность аналогичны модели более высокого уровня, предпочтительнее модель чата AI, и, в частности, модель используется в цепочке, что означает, что объем будет большим.
LangChain Chat Модель AI Основные настройки
В этой части я бы взял OpenAI в качестве образца. Говорят, что вы можете использовать другие модели ИИ, основанные на реальных потребностях. Хотя есть небольшая разница, такая как импорт имени модели, в основном логика, базовые функции и поток аналогичны друг другу.
Вот библиотека LangChain Python, пакеты для импорта и основные функции для добавления.
- Установка библиотеки
pip install langchain
- Импорт необходимых пакетов
import time
from langchain . chat_models import ChatOpenAI
from langchain import PromptTemplate , LLMChain
from langchain . prompts . chat import (
ChatPromptTemplate ,
SystemMessagePromptTemplate ,
AIMessagePromptTemplate ,
HumanMessagePromptTemplate ,
)
from langchain . schema import (
AIMessage ,
HumanMessage ,
SystemMessage
)
from langchain . callbacks . streaming_stdout import StreamingStdOutCallbackHandler
from langchain . callbacks import get_openai_callback
- Основная функция:
llm = ChatOpenAI ( temperature = 0.7 , model = "gpt-3.5-turbo" , openai_api_key = " )
Однократное попадание в одностороннюю связь с ИИ
LangChain может выполнять один запрос так же, как вы используете ChatGPT или OpenAI API. Ниже приведен пример использования параметра HumanMessage и аргумента содержимого, связанного с подсказками.
response = llm ([ HumanMessage ( content = prompt )])
Одиночное попадание при взаимодействии с системой ИИ
Помимо одностороннего, мы можем заранее настроить роль или поделиться набором контекстных данных с LangChain и моделью AI, чтобы получить более точные результаты.
messages = [
SystemMessage ( content = "You are a marketing specialist and specialise in writing engaging Tiktok Short form video scripts in English." ),
HumanMessage ( content = "Write me a Tiktok Short form video script to engage with Japanese Ramen fans" )
]
N+ шаблонов подсказок с использованием одной модели ИИ
На самом деле один результат маркетингового приложения сложнее, чем два приведенных выше примера. По сути, существует множество переменных факторов и шаблонов подсказок, которые работают вместе, даже если используется одна и та же модель ИИ.
Возьмите Маркетинг в качестве образца. Как маркетинговый талант, написание текстов — это набор навыков, которые можно применять в SEM, SEO, партнерских программах, социальных сетях, электронной почте, листинге продуктов, видео, рекламе, PR и так далее и тому подобное. Кроме того, он может иметь дело с другим содержимым проекта, историей бренда, существующей производительностью и т. д. Таким образом, вам потребуется предоставить набор шаблонов подсказок для создания этого приложения и автоматизации процесса.
template = "You are a {role} specialist and specialise in writing engaging {object} copies in English."
system_message_prompt = SystemMessagePromptTemplate . from_template ( template )
human_template = " {text} "
human_message_prompt = HumanMessagePromptTemplate . from_template ( human_template )
chat_prompt = ChatPromptTemplate . from_messages ([ system_message_prompt , human_message_prompt ])
response123 = llm ( chat_prompt . format_prompt ( role = "marketing" , object = "email" , text = "Write me a Welcomed email to a first time purchase shoe buyer." ). to_messages ())
N+ AI-моделей в одной цепочке
Помимо использования той же модели, как упоминалось ранее, мы могли бы одновременно учитывать как производительность ИИ, так и финансовые факторы. Это означает, что нам нужны разные модели ИИ в одной задаче или несколько задач в цепочке. Например, для написания твита не нужна причудливая и дорогая модель ИИ из-за ограничения количества символов, если он может читать исходные материалы. С другой стороны, для создания сложной исследовательской статьи или анализа данных требуется более продвинутая модель. Здесь речь идет о настрое на оптимизацию эффективной границы модели ИИ.
chain = LLMChain ( llm = llm , prompt = chat_prompt )
finalResult = chain . run ( role = "marketing" , object = "email" , text = "Write me a Welcomed email to a first time purchase shoe buyer." )
Разное — Отслеживание общего количества потраченных токенов
Если вы являетесь реселлером моделей ИИ или поставщиком приложений ИИ, отслеживание общего количества потраченных токенов имеет решающее значение, поскольку оно необходимо для расчета стоимости. LangChain предоставляет пакет обратного вызова модели AI. Вот достаточно OpenAI
with get_openai_callback () as cb :
buyfromloAPIandAIYes = directResponse ()
print ( buyfromloAPIandAIYe )
buyfromloAPIandAI = cb
print ( buyfromloAPIandAI )
Tokens Used: 241
Prompt Tokens: 17
Completion Tokens: 224
Successful Requests: 2
Total Cost (USD): $0.000482
API BuyfromLo AI и приложение на месте
Если вы хотите сэкономить время на создании приложения или API с помощью LangChain, ознакомьтесь с API BuyfromLo и локальным магазином приложений. Теперь мы запускаем бесплатную пробную программу, вперед!
https://www.buyfromlo.com
Полноценный функциональный скрипт Python модели LangChain Chat AI, применяемый в маркетинговых приложениях
Если вас интересует Глава 80 — Модель ИИ чата LangChain, применяемая в веб-приложении ИИ и DApp для начинающих, подпишитесь на нашу рассылку , добавив сообщение «Глава 80 + полные сценарии LangChain для приложений AI». . Мы вышлем вам сценарий, когда появится актуальный сценарий приложения.
Надеюсь, вам понравится читать главу 80 — Модель ИИ чата LangChain, применяемая в веб-приложении ИИ и DApp для начинающих. Если вы это сделали, пожалуйста, поддержите нас, выполнив одно из перечисленных ниже действий, потому что это всегда помогает нашему каналу.
- Поддержите и пожертвуйте нашему каналу через PayPal ( paypal.me/Easy2digital )
- Подпишитесь на мой канал и включите колокольчик уведомлений канала Easy2Digital Youtube .
- Подписывайтесь и лайкайте мою страницу Страница Easy2Digital в Facebook
- Поделитесь статьей в своей социальной сети с хэштегом #easy2digital
- Вы подписываетесь на нашу еженедельную рассылку, чтобы получать последние статьи, видео и коды скидок Easy2Digital.
- Подпишитесь на наше ежемесячное членство через Patreon, чтобы пользоваться эксклюзивными преимуществами ( www.patreon.com/louisludigital )