Hvordan bygge LangChain-applikasjoner ved å bruke ledetekstmal og utdataparser?

Hvordan Bygge Langchain Applikasjoner Ved A Bruke Ledetekstmal Og Utdataparser



LangChain brukes til å bygge chatbots og store språkmodeller for å få maskinen til å forstå tekst eller data på menneskelignende språk. For å lage en chatbot i LangChain, må brukeren trene den på data skrevet på menneskelig språk ved å bygge spørsmålsmaler slik at maskinen kan forstå spørsmålene. Utdataparserfunksjoner brukes for å få svar fra modellen når den har forstått spørringen.

Dette innlegget vil illustrere prosessen med å bygge LangChain-applikasjoner ved hjelp av promptmal og utdataparser.

Hvordan bygge LangChain-applikasjoner ved å bruke ledetekstmal og utdataparser?

For å bygge LangChain-applikasjonen ved å bruke ledetekstmalen og utdataparseren, gå ganske enkelt gjennom denne enkle veiledningen:







Trinn 1: Installer LangChain



Start først prosessen med å bygge LangChain-applikasjoner ved å installere LangChain-rammeverket ved å bruke ' pip ' kommando:



pip installer langkjede





Trinn 2: Bruke ledetekstmal

Etter å ha installert LangChain-modulene, importer ' PromptTemplate ”-biblioteket for å bygge en ledetekstmal ved å gi en spørring for at modellen skal forstå spørsmålet:



fra langchain.prompts importer PromptTemplate

prompt = PromptTemplate.from_template('Hva er en god fargekombinasjon for {product}?')
prompt.format(product='fargerike sokker')

Utdata kombinerte automatisk setningen med verdien av ' produkt variabel:

Deretter bygger du en annen ledetekstmal ved å importere HumanMessagePromptTemplate-, ChatPromptTemplate- og SystemMessagePromptTemplate-bibliotekene fra LangChain:

fra langchain.prompts.chat import (
ChatPromptTemplate,
SystemMessagePromptTemplate,
HumanMessagePromptTemplate,
)
#Konfigurer ledetekstmalen for LangChain-modellen
template = 'Du er en hjelper som oversetter {input_language} til {output_language}'
system_message_prompt = SystemMessagePromptTemplate.from_template(mal)
human_template = '{tekst}'
human_message_prompt = HumanMessagePromptTemplate.from_template(human_template)

chat_prompt = ChatPromptTemplate.from_messages([system_message_prompt, human_message_prompt])

chat_prompt.format_messages(input_language='fransk', output_language='engelsk', text='Jeg liker AI')

Etter å ha importert alle de nødvendige bibliotekene, konstruer ganske enkelt den tilpassede malen for spørringene ved å bruke malvariabelen:

Spørsmålene brukes kun til å angi malen for spørringen/spørsmålet, og den svarer ikke med noe svar på spørsmålet. Imidlertid kan OutputParser()-funksjonen trekke ut svar som følgende seksjon forklarer med eksempelet:

Trinn 3: Bruke Output Parser

Importer nå BaseOutputParser-biblioteket fra LangChain for å skille tekstverdiene atskilt med kommaer og returnere listen i utdataene:

fra langchain.schema import BaseOutputParser

klasse CommaSeparatedListOutputParser(BaseOutputParser):

def parse(selv, tekst: str):
returner text.strip().split(', ')

CommaSeparatedListOutputParser().parse('Takk, velkommen')

Det handler om å bygge LangChain-applikasjonen ved å bruke ledetekstmalen og utdataparseren.

Konklusjon

For å bygge en LangChain-applikasjon ved å bruke ledetekstmalen og utdataparseren, installerer du bare LangChain og importerer biblioteker fra den. PromptTemplate-biblioteket brukes til å bygge strukturen for spørringen slik at modellen kan forstå spørsmålet før den trekker ut informasjon ved å bruke Parser()-funksjonen. OutputParser()-funksjonen brukes til å hente svar basert på spørringene som er tilpasset tidligere. Denne veiledningen har forklart prosessen med å bygge LangChain-applikasjoner ved å bruke ledetekstmalen og utdataparseren.