Hur man använder minne i LLMChain genom LangChain?

Hur Man Anvander Minne I Llmchain Genom Langchain



LangChain är ramverket som kan användas för att importera bibliotek och beroenden för att bygga stora språkmodeller eller LLM. Språkmodellerna använder minne för att lagra data eller historik i databasen som observation för att få konversationens kontext. Minnet är konfigurerat för att lagra de senaste meddelandena så att modellen kan förstå de tvetydiga uppmaningarna från användaren.

Den här bloggen förklarar processen att använda minne i LLMChain genom LangChain.







Hur man använder minne i LLMChain genom LangChain?

För att lägga till minne och använda det i LLMChain genom LangChain, kan ConversationBufferMemory-biblioteket användas genom att importera det från LangChain.



För att lära dig processen att använda minnet i LLMChain genom LangChain, gå igenom följande guide:



Steg 1: Installera moduler

Börja först med att använda minnet genom att installera LangChain med pip-kommandot:





pip installera langkedja

Installera OpenAI-modulerna för att få dess beroenden eller bibliotek att bygga LLM:er eller chattmodeller:



pip installera openai

Ställ in miljön för OpenAI med hjälp av dess API-nyckel genom att importera OS- och getpass-biblioteken:

importera oss
importera getpass

os.environ['OPENAI_API_KEY'] = getpass.getpass('OpenAI API Key:')

Steg 2: Importera bibliotek

Efter att ha ställt in miljön, importera helt enkelt biblioteken som ConversationBufferMemory från LangChain:

från langchain.chains import LLMChain
från langchain.llms importera OpenAI

från langchain.memory import ConversationBufferMemory

från langchain.prompts importera PromptTemplate

Konfigurera mallen för prompten med hjälp av variabler som 'input' för att få frågan från användaren och 'hist' för att lagra data i buffertminnet:

template = '''Du är en modell som chattar med en människa

{histo}
Människan: {input}
Chatbot:'''

prompt = PromptMall(
input_variables=['hist', 'input'], mall=mall
)
minne = ConversationBufferMemory(memory_key='hist')

Steg 3: Konfigurera LLM

När mallen för frågan har byggts konfigurerar du metoden LLMChain() med flera parametrar:

llm = OpenAI()
llm_chain = LLMChain(
llm=llm,
prompt=prompt,
verbose=Sant,
minne = minne,
)

Steg 4: Testa LLMChain

Testa sedan LLMChain med indatavariabeln för att få uppmaningen från användaren i textform:

llm_chain.predict(input='Hej min vän')

Använd en annan ingång för att få data lagrade i minnet för att extrahera utdata med hjälp av sammanhanget:

llm_chain.predict(input='Bra! jag är bra - hur mår du')

Steg 5: Lägg till minne till en chattmodell

Minnet kan läggas till den chattmodellbaserade LLMChain genom att importera biblioteken:

från langchain.chat_models importera ChatOpenAI
från langchain.schema import SystemMessage
från langchain.prompts importera ChatPromptTemplate, HumanMessagePromptMall, MessagesPlaceholder

Konfigurera promptmallen med ConversationBufferMemory() med olika variabler för att ställa in indata från användaren:

prompt = ChatPromptTemplate.from_messages([
SystemMessage(content='Du är en modell som chattar med en människa'),
MessagesPlaceholder(variable_),
HumanMessagePromptTemplate.from_template('{input}'),
])

minne = ConversationBufferMemory(memory_key='hist', return_messages=True)

Steg 6: Konfigurera LLMChain

Ställ in metoden LLMChain() för att konfigurera modellen med olika argument och parametrar:

llm = ChatOpenAI()

chat_llm_chain = LLMChain(
llm=llm,
prompt=prompt,
verbose=Sant,
minne = minne,
)

Steg 7: Testa LLMChain

I slutet testar du helt enkelt LLMChain med ingången så att modellen kan generera texten enligt prompten:

chat_llm_chain.predict(input='Hej min vän')

Modellen har lagrat den tidigare konversationen i minnet och visar den före den faktiska utmatningen av frågan:

llm_chain.predict(input='Bra! jag är bra - hur mår du')

Det handlar om att använda minne i LLMChain med LangChain.

Slutsats

För att använda minnet i LLMChain genom LangChain-ramverket, installera helt enkelt modulerna för att ställa in miljön för att få beroenden från modulerna. Efter det, importera helt enkelt biblioteken från LangChain för att använda buffertminnet för att lagra föregående konversation. Användaren kan också lägga till minne till chattmodellen genom att bygga LLMChain och sedan testa kedjan genom att tillhandahålla input. Denna guide har utvecklat processen för att använda minnet i LLMChain genom LangChain.