Hur får man tillgång till mellanstegen för en agent i LangChain?

Hur Far Man Tillgang Till Mellanstegen For En Agent I Langchain



LangChain är ramverket för att bygga chattmodeller eller språkmodeller som har förmågan att svara på frågor på mänskligt språk. Användaren matar in strängen på det naturliga språket och modellen förstår den för att generera svaret. Genom att se på strukturen utifrån ett perspektiv anses att chattmodellerna endast utför dessa handlingar/uppgifter. Den innehåller dock flera mellansteg som bör fungera i en specifik ordning för att få optimal prestanda.

Snabb översikt

Det här inlägget kommer att visa följande:

Hur får man tillgång till mellanstegen för en agent i LangChain?

För att bygga agenten i LangChain behöver användaren konfigurera sina verktyg och mallens struktur för att få antalet steg som ingår i modellen. Agenten är ansvarig för att automatisera de mellanliggande stegen som tankar, handlingar, observationer etc. För att lära dig hur du kommer åt mellanstegen för en agent i LangChain, följ helt enkelt stegen i listan:







Steg 1: Installera ramverk

Först av allt, installera helt enkelt beroenden för LangChain genom att köra följande kod i Python Notebook:



pip installera langchain_experimental



Installera OpenAI-modulen för att få dess beroenden med hjälp av pip kommando och använd dem för att bygga språkmodellen:





pip installera openai

Steg 2: Ställ in OpenAI-miljö

När modulerna är installerade, ställ in OpenAI-miljö med API-nyckeln som genereras från dess konto:



importera du
importera getpass

du. ungefär [ 'OPENAI_API_KEY' ] = getpass. getpass ( 'OpenAI API Key:' )

Steg 3: Importera bibliotek

Nu när vi har installerat beroenden, använd dem för att importera bibliotek från LangChain:

från langchain. agenter importera ladda_verktyg
från langchain. agenter importera initialize_agent
från langchain. agenter importera AgentType
från langchain. llms importera OpenAI

Steg 4: Bygg LLM och agent

När biblioteken väl har importerats är det dags att använda dem för att bygga språkmodellen och verktygen för agenten. Definiera llm-variabeln och tilldela den med OpenAI()-metoden som innehåller argumenten temperatur och modellnamn. den ' verktyg Variabeln innehåller metoden load_tools() med verktygen SerpAPi och llm-math och språkmodellen i dess argument:

llm = OpenAI ( temperatur = 0 , modellnamn = 'text-davinci-002' )
verktyg = ladda_verktyg ( [ 'serpapi' , 'llm-matte' ] , llm = llm )

När språkmodellen och verktygen är konfigurerade, designa helt enkelt agenten för att utföra de mellanliggande stegen med hjälp av verktygen i språkmodellen:

ombud = initialize_agent (
verktyg ,
llm ,
ombud = AgentType. ZERO_SHOT_REACT_DESCRIPTION ,
mångordig = Sann ,
return_mellansteg = Sann ,
)

Steg 5: Använda agenten

Testa nu agenten genom att ställa en fråga i inmatningen av metoden agent() och köra den:

svar = ombud (
{
'inmatning' : 'Vem är Leo DiCaprios flickvän och vad är deras åldersskillnad'
}
)

Modellen har arbetat effektivt för att få fram namnet på Leo DiCaprios flickvän, hennes ålder, Leo DiCaprios ålder och skillnaden mellan dem. Följande skärmdump visar flera frågor och svar som agenten sökt efter för att komma till det slutliga svaret:

Ovanstående skärmdump visar inte hur agenten fungerar och hur den kommer till det stadiet för att hitta alla svar. Låt oss gå till nästa avsnitt för att hitta stegen:

Metod 1: Standard returtyp för att komma åt mellanstegen

Den första metoden för att komma åt det mellanliggande steget är att använda standardreturtypen som erbjuds av LangChain med följande kod:

skriva ut ( svar [ 'mellansteg' ] )

Följande GIF visar de mellanliggande stegen på en enda rad vilket inte är riktigt bra när det kommer till läsbarhetsaspekten:

Metod 2: Använd 'dumpar' för att komma åt mellanstegen

Nästa metod förklarar ett annat sätt att få de mellanliggande stegen med hjälp av dumpbiblioteket från LangChain-ramverket. Använd metoden dumps() med det vackra argumentet för att göra resultatet mer strukturerat och lätt att läsa:

från langchain. ladda . dumpa importera soptippar

skriva ut ( soptippar ( svar [ 'mellansteg' ] , Söt = Sann ) )

Nu har vi resultatet i en mer strukturerad form som är lätt att läsa av användaren. Det är också uppdelat i flera sektioner för att göra det mer vettigt och varje sektion innehåller stegen för att hitta svar på frågorna:

Det handlar om att komma åt de mellanliggande stegen för en agent i LangChain.

Slutsats

För att komma åt de mellanliggande stegen för en agent i LangChain, installera modulerna för att importera bibliotek för att bygga språkmodeller. Efter det, ställ in verktyg för att initiera agenten med hjälp av verktygen, llm och typen av agent som kan svara på frågorna. När agenten är konfigurerad, testa den för att få svaren och använd sedan standardtyp eller dumpningsbibliotek för att komma åt de mellanliggande stegen. Den här guiden har utvecklat processen för att komma åt de mellanliggande stegen för en agent i LangChain.