Hvordan implementere ReAct-logikken for å jobbe med Document Store?

Hvordan Implementere React Logikken For A Jobbe Med Document Store



Langkjede er rammeverket som inneholder alle avhengigheter og biblioteker for å bygge språkmodeller og chatboter. Disse chatbotene må trenes på massive data for å forstå kompleksiteten til språket effektivt. Utviklerne kan bruke ReAct-logikken med disse modellene som kan lære og forstå språket nøyaktig. De Reagere logikk er kombinasjonen av Argumentasjon (trening) og Fungerende (Test-)faser for å få de optimaliserte resultatene fra modellen.

Rask oversikt

Dette innlegget vil demonstrere:







Hvordan implementere ReAct-logikken med Document Store i LangChain



Konklusjon



Hvordan implementere ReAct-logikken med Document Store i LangChain?

Språkmodellene er trent på en enorm pool av data skrevet på naturlige språk som engelsk, etc. Dataene administreres og lagres i dokumentlagrene og brukeren kan enkelt laste inn data fra butikken og trene modellen. Modellopplæringen kan ta flere iterasjoner ettersom hver iterasjon gjør modellen mer effektiv og forbedret.





For å lære prosessen med å implementere ReAct-logikk for å jobbe med dokumentlageret i LangChain, følg ganske enkelt denne enkle veiledningen:

Trinn 1: Installere Frameworks

Først, kom i gang med prosessen med å implementere ReAct-logikken for å jobbe med dokumentlageret ved å installere LangChain-rammeverket. Installering av LangChain-rammeverket vil få alle nødvendige avhengigheter for å hente eller importere bibliotekene for å fullføre prosessen:



pip installer langkjede

Installer Wikipedia-avhengighetene for denne veiledningen, da den kan brukes til å få dokumentlagrene til å fungere med ReAct-logikken:

pip installer wikipedia

Installer OpenAI-modulene ved å bruke pip-kommandoen for å hente bibliotekene og bygge store språkmodeller eller LLM-er:

pip installer openai

Trinn 2: Oppgi OpenAI API-nøkkel

Etter å ha installert alle nødvendige moduler, ganske enkelt sette opp miljøet ved å bruke API-nøkkelen fra OpenAI-kontoen ved å bruke følgende kode:

import du

import få pass

du . omtrent [ 'OPENAI_API_KEY' ] = få pass . få pass ( 'OpenAI API Key:' )

Trinn 3: Importere biblioteker

Når miljøet er satt opp, importerer du bibliotekene fra LangChain som kreves for å konfigurere ReAct-logikken for arbeid med dokumentlagrene. Bruk av LangChain-agenter for å få DocstoreExplaorer og agenter med dens typer til å konfigurere språkmodellen:

fra langkjede. llms import OpenAI

fra langkjede. lege import Wikipedia

fra langkjede. agenter import initialize_agent , Verktøy

fra langkjede. agenter import AgentType

fra langkjede. agenter . reagere . utgangspunkt import DocstoreExplorer

Trinn 4: Bruke Wikipedia Explorer

Konfigurer ' lege ” variabel med DocstoreExplorer()-metoden og kall Wikipedia()-metoden i argumentet. Bygg den store språkmodellen ved å bruke OpenAI-metoden med ' tekst-davinci-002 modell etter å ha satt verktøyene for agenten:

lege = DocstoreExplorer ( Wikipedia ( ) )
verktøy = [
Verktøy (
Navn = 'Søk' ,
func = lege. Søk ,
beskrivelse = 'Den brukes til å stille spørsmål/forespørsler med søket' ,
) ,
Verktøy (
Navn = 'Se opp' ,
func = lege. se opp ,
beskrivelse = 'Den brukes til å stille spørsmål/forespørsler med oppslag' ,
) ,
]

llm = OpenAI ( temperatur = 0 , modell navn = 'text-davinci-002' )
#definere variabelen ved å konfigurere modellen med agenten
reagere = initialize_agent ( verktøy , llm , middel = AgentType. REACT_DOCSTORE , ordrik = ekte )

Trinn 5: Testing av modellen

Når modellen er bygget og konfigurert, setter du spørsmålsstrengen og kjører metoden med spørsmålsvariabelen i argumentet:

spørsmål = 'Hvilken amerikanske marineadmiral samarbeidet med forfatter David Chanoff'

reagere. løpe ( spørsmål )

Når spørsmålsvariabelen er utført, har modellen forstått spørsmålet uten noen ekstern forespørselsmal eller opplæring. Modellen trenes automatisk ved å bruke modellen lastet opp i forrige trinn og genererer tekst deretter. ReAct-logikken jobber med dokumentlagrene for å trekke ut informasjon basert på spørsmålet:

Still et annet spørsmål fra dataene gitt til modellen fra dokumentlagrene, og modellen vil trekke ut svaret fra butikken:

spørsmål = 'Forfatter David Chanoff har samarbeidet med William J Crowe som tjente under hvilken president?'

reagere. løpe ( spørsmål )

Det handler om å implementere ReAct-logikken for å jobbe med dokumentlageret i LangChain.

Konklusjon

For å implementere ReAct-logikken for arbeid med dokumentlageret i LangChain, installer modulene eller rammeverket for å bygge språkmodellen. Sett deretter opp miljøet for OpenAI for å konfigurere LLM og last inn modellen fra dokumentlageret for å implementere ReAct-logikken. Denne veiledningen har utdypet implementeringen av ReAct-logikken for arbeid med dokumentlageret.