Slik bruker du LangChain LLMChain-funksjonen i Python

Slik Bruker Du Langchain Llmchain Funksjonen I Python



LangChain har en mengde moduler for å lage språkmodellapplikasjoner. Applikasjoner kan gjøres mer kompliserte ved å kombinere moduler, eller de kan gjøres enklere ved å bruke en enkelt modul. Å ringe en LLM på en bestemt inngang er den mest essensielle LangChain-komponenten.

Kjeder fungerer ikke bare for et enkelt LLM-anrop; de er samlinger av samtaler, enten til en LLM eller et annet verktøy. End-to-end-kjeder for mye brukte applikasjoner leveres av LangChain sammen med en standard kjede-API og en rekke verktøyintegrasjoner.

Fleksibiliteten og muligheten til å koble sammen flere elementer til en enkelt enhet kan være nyttig når vi ønsker å designe en kjede som godtar brukerinndata, konfigurerer den ved hjelp av en PromptTemplate og deretter leverer det genererte resultatet til en LLM.







Denne artikkelen hjelper deg med å forstå bruken av en LangChain LLMchain-funksjon i Python.



Eksempel: Hvordan bruke LLMchain-funksjonen i LangChain

Vi snakket om hva kjeder er. Nå vil vi se en praktisk demonstrasjon av disse kjedene som er implementert i et Python-skript. I dette eksemplet bruker vi den mest grunnleggende LangChain-kjeden som er LLMchain. Den inneholder en PromptTemplate og en LLM, og lenker dem sammen for å generere en utgang.



For å begynne å implementere konseptet, må vi installere noen nødvendige biblioteker som ikke er inkludert i Python-standardbiblioteket. Bibliotekene vi må installere er LangChain og OpenAI. Vi installerer LangChain-biblioteket fordi vi må bruke LLMchain-modulen så vel som PromptTemplate. OpenAI-biblioteket lar oss bruke OpenAIs modeller for å forutsi utdataene, det vil si GPT-3.





For å installere LangChain-biblioteket, kjør følgende kommando på terminalen:

$ pip installer langkjede

Installer OpenAI-biblioteket med følgende kommando:



$ pip installer openai

Når installasjonene er fullført, kan vi begynne å jobbe med hovedprosjektet.

fra langkjede. spør import PromptTemplate

fra langkjede. llms import OpenAI

import du

du . omtrent [ 'OPENAI_API_KEY' ] = 'sk-DIN API NØKKEL'

Hovedprosjektet starter med å importere de nødvendige modulene. Så vi importerer først PromptTemplate fra 'langchain.prompts'-biblioteket. Deretter importerer vi OpenAI fra 'langchain.llms'-biblioteket. Deretter importerer vi 'os' for å angi miljøvariabelen.

Til å begynne med satte vi OpenAI API-nøkkelen som miljøvariabel. Miljøvariabelen er en variabel som består av et navn og en verdi og er satt på operativsystemet vårt. 'os.environ' er et objekt som brukes til å kartlegge miljøvariablene. Så vi kaller 'os.environ'. Navnet vi angir for API-nøkkelen er OPENAI_API_KEY. Vi tildeler deretter API-nøkkelen som verdien. API-nøkkelen er unik for hver bruker. Så når du øver på dette kodeskriptet, skriv din hemmelige API-nøkkel.

llm = OpenAI ( temperatur = 0,9 )

ledetekst = PromptTemplate (

input_variables = [ 'Produkter' ] ,

mal = 'Hva vil en merkevare hete som selger {produkter}?' ,

)

Nå som nøkkelen er satt som miljøvariabel, initialiserer vi en wrapper. Still inn temperaturen for OpenAI GPT-modellene. Temperaturen er en egenskap som hjelper oss å bestemme hvor uforutsigbar responsen vil være. Jo høyere temperaturverdien er, desto mer uregelmessig er responsene. Vi setter temperaturverdien til 0,9 her. Dermed får vi de mest tilfeldige resultatene.

Deretter initialiserer vi en PromptTemplate-klasse. Når vi bruker LLM, genererer vi en forespørsel fra inndataene som er hentet fra brukeren og sender den deretter til LLM i stedet for å sende innspillet direkte til LLM som krever hard koding (en forespørsel er en inngang som vi tok fra bruker og som den definerte AI-modellen skal opprette et svar på). Så vi initialiserer PromptTemplate. Deretter, innenfor de krøllete klammeparentesene, definerer vi input_variablen som 'Produkter', og malteksten er 'Hva vil en merkevare hete som selger {produkter}?' Brukerinnspillet forteller hva merket gjør. Deretter formaterer den ledeteksten basert på denne informasjonen.

fra langkjede. kjeder import LLMChain

kjede = LLMChain ( llm = llm , ledetekst = ledetekst )

Nå som vår PromptTemplate er formatert, er neste trinn å lage en LLMchain. Først importerer du LLMchain-modulen fra 'langchain.chain'-biblioteket. Deretter lager vi en kjede ved å kalle LLMchain()-funksjonen som tar brukerinndata og formaterer ledeteksten med den. Til slutt sender den svaret til LLM. Så den kobler PromptTemplate og LLM.

skrive ut ( kjede. løpe ( 'Kunstartikler' ) )

For å utføre kjeden kaller vi chain.run()-metoden og gir brukerinndata som parameteren som er definert som 'Art Supplies'. Deretter sender vi denne metoden til Python print()-funksjonen for å vise det anslåtte resultatet på Python-konsollen.

AI-modellen leser ledeteksten og gir et svar basert på det.

Siden vi ba om å navngi et merke som selger kunstrekvisita, kan det forutsagte navnet av AI-modellen sees i følgende øyeblikksbilde:

Dette eksemplet viser oss LLMchaining når en enkelt inngangsvariabel er gitt. Dette er også mulig når du bruker flere variabler. For det må vi ganske enkelt lage en ordbok med variabler for å legge inn dem helt. La oss se hvordan dette fungerer:

fra langkjede. spør import PromptTemplate

fra langkjede. llms import OpenAI

import du

du . omtrent [ 'OPENAI_API_KEY' ] = 'sk-Din-API-nøkkel'

llm = ÅpenAI(temperatur=0,9)

prompt = PromptTemplate(

input_variables=['
Merke ', ' Produkt '],

mal='
Hva skulle hete { Merke } som selger { Produkt } ? ',

)

fra langchain.chains import LLMChain

kjede = LLMChain(llm=llm, prompt=ledetekst)

print(chain.run({

'Merke': '
Kunstartikler ',

'Produkt': '
farger '

}))

Koden går på samme måte som i forrige eksempel, bortsett fra at vi må sende to variabler i ledetekstmalklassen. Så lag en ordbok med input_variables. De lange parentesene representerer en ordbok. Her har vi to variabler - 'Merke' og 'Produkt' - som er atskilt med et komma. Nå er malteksten som vi gir, 'Hva ville være navnet på {Brand} som selger {Produkt}?' Dermed spår AI-modellen et navn som fokuserer på disse to inngangsvariablene.

Deretter oppretter vi en LLM-kjede som formaterer brukerinndata med spørsmålet om å sende svaret til LLM. For å kjøre denne kjeden bruker vi chain.run()-metoden og sender ordboken over variabler med brukerinndata som 'Brand': 'Art supplies' og 'Product' som 'Colors'. Deretter sender vi denne metoden til Python print()-funksjonen for å vise det oppnådde svaret.

Utdatabildet viser det anslåtte resultatet:

Konklusjon

Kjeder er byggesteinene til LangChain. Denne artikkelen går gjennom konseptet med å bruke LLMchain i LangChain. Vi gjorde en introduksjon til LLMchain og skildret behovet for å bruke dem i Python-prosjektet. Deretter utførte vi en praktisk illustrasjon som demonstrerer implementeringen av LLMchain ved å koble PromptTemplate og LLM. Du kan opprette disse kjedene med én enkelt inngangsvariabel i tillegg til flere brukerangitte variabler. De genererte svarene fra GPT-modellen er også gitt.