Hvordan bruke minne i LLMChain gjennom LangChain?

Hvordan Bruke Minne I Llmchain Gjennom Langchain



LangChain er rammeverket som kan brukes til å importere biblioteker og avhengigheter for å bygge store språkmodeller eller LLM-er. Språkmodellene bruker minne til å lagre data eller historikk i databasen som observasjon for å få konteksten til samtalen. Minnet er konfigurert til å lagre de siste meldingene, slik at modellen kan forstå de tvetydige spørsmålene som er gitt av brukeren.

Denne bloggen forklarer prosessen med å bruke minne i LLMChain gjennom LangChain.







Hvordan bruke minne i LLMChain gjennom LangChain?

For å legge til minne og bruke det i LLMChain gjennom LangChain, kan ConversationBufferMemory-biblioteket brukes ved å importere det fra LangChain.



For å lære prosessen med å bruke minnet i LLMChain gjennom LangChain, gå gjennom følgende veiledning:



Trinn 1: Installer moduler

Start først prosessen med å bruke minnet ved å installere LangChain ved å bruke pip-kommandoen:





pip installer langkjede

Installer OpenAI-modulene for å få avhengighetene eller bibliotekene til å bygge LLM-er eller chattemodeller:



pip installer openai

Sett opp miljøet for OpenAI ved å bruke API-nøkkelen ved å importere OS- og getpass-bibliotekene:

importere oss
importere getpass

os.environ['OPENAI_API_KEY'] = getpass.getpass('OpenAI API Key:')

Trinn 2: Importere biblioteker

Etter å ha satt opp miljøet, importerer du bare bibliotekene som ConversationBufferMemory fra LangChain:

fra langchain.chains import LLMChain
fra langchain.llms importerer OpenAI

fra langchain.memory import ConversationBufferMemory

fra langchain.prompts importer PromptTemplate

Konfigurer malen for ledeteksten ved å bruke variabler som 'input' for å få spørringen fra brukeren og 'hist' for å lagre dataene i bufferminnet:

template = '''Du er en modell som snakker med et menneske

{histo}
Menneske: {input}
Chatbot:'''

prompt = PromptTemplate(
input_variables=['hist', 'input'], template=mal
)
minne = ConversationBufferMemory(memory_key='hist')

Trinn 3: Konfigurere LLM

Når malen for spørringen er bygget, konfigurer LLMChain()-metoden ved å bruke flere parametere:

llm = OpenAI()
llm_chain = LLMChain(
llm=llm,
prompt = ledetekst,
verbose=Sant,
minne = minne,
)

Trinn 4: Testing av LLMChain

Deretter tester du LLMChain ved å bruke inngangsvariabelen for å få forespørselen fra brukeren i tekstform:

llm_chain.predict(input='Hei min venn')

Bruk en annen inngang for å få dataene lagret i minnet for å trekke ut utdata ved å bruke konteksten:

llm_chain.predict(input='Bra! jeg er god - hvordan har du det')

Trinn 5: Legge til minne til en chat-modell

Minnet kan legges til den chat-modellbaserte LLMChain ved å importere bibliotekene:

fra langchain.chat_models importer ChatOpenAI
fra langchain.schema import SystemMessage
fra langchain.prompts importer ChatPromptTemplate, HumanMessagePromptTemplate, MessagesPlaceholder

Konfigurer ledetekstmalen ved å bruke ConversationBufferMemory() ved å bruke forskjellige variabler for å angi inndata fra brukeren:

prompt = ChatPromptTemplate.from_messages([
SystemMessage(content='Du er en modell som prater med et menneske'),
MessagesPlaceholder(variable_),
HumanMessagePromptTemplate.from_template('{input}'),
])

minne = ConversationBufferMemory(memory_key='hist', return_messages=True)

Trinn 6: Konfigurere LLMChain

Sett opp LLMChain()-metoden for å konfigurere modellen ved å bruke forskjellige argumenter og parametere:

llm = ChatOpenAI()

chat_llm_chain = LLMChain(
llm=llm,
prompt=spørring,
verbose=Sant,
minne = minne,
)

Trinn 7: Testing av LLMChain

På slutten tester du bare LLMChain ved å bruke inngangen slik at modellen kan generere teksten i henhold til ledeteksten:

chat_llm_chain.predict(input='Hei min venn')

Modellen har lagret den forrige samtalen i minnet og viser den før den faktiske utgangen av spørringen:

llm_chain.predict(input='Bra! jeg er god - hvordan har du det')

Det handler om å bruke minne i LLMChain ved å bruke LangChain.

Konklusjon

For å bruke minnet i LLMChain gjennom LangChain-rammeverket, installer ganske enkelt modulene for å sette opp miljøet for å få avhengighetene fra modulene. Etter det importerer du bare bibliotekene fra LangChain for å bruke bufferminnet til å lagre den forrige samtalen. Brukeren kan også legge til minne til chat-modellen ved å bygge LLMChain og deretter teste kjeden ved å gi input. Denne veiledningen har utdypet prosessen med å bruke minnet i LLMChain gjennom LangChain.