Hvordan utføre tekstklassifisering ved hjelp av transformatorer

Hvordan Utfore Tekstklassifisering Ved Hjelp Av Transformatorer



I denne epoken er Transformers de kraftigste modellene som har gitt de beste resultatene i flere NLP-operasjoner (Natural Language Processing). Opprinnelig ble det brukt til språkmodelleringsoppgaver inkludert tekstgenerering samt klassifisering, maskinoversettelse og mange flere. Men nå brukes den også til objektgjenkjenning, bildeklassifisering og flere andre datasynsoppgaver.

I denne opplæringen vil vi gi prosedyren for å utføre tekstklassifiseringen ved hjelp av Transformers.







Hvordan utføre tekstklassifisering ved hjelp av transformatorer?

For å utføre tekstklassifiseringen ved hjelp av Transformers, installer først ' transformatorer ”-biblioteket ved å utføre den angitte kommandoen:



! pip installere transformatorer


Som du kan se, har det angitte biblioteket blitt installert:




Importer deretter ' rørledning ' fra ' transformatorer ' bibliotek:





fra transformatorer import rørledning


Her er ' rørledning ” vil inkludere NLP-oppgaven som vi må utføre og ønsket transformatormodell for denne operasjonen sammen med tokenizeren.

Merk: Tokenizeren brukes til å utføre prosessering av teksten som skal gis modellens input ved å separere tekst i tokens.



Etter det bruker du ' pipeline() '-funksjonen og gi den ' nullskuddsklassifisering ' som et argument. Deretter sender du en annen parameter som er vår modell. Vi bruker Facebooks ' BART ' transformatormodell. Her bruker vi ikke tokenizeren fordi den automatisk kan utledes av den angitte modellen:

text_classifier = pipeline ( 'nullskuddsklassifisering' , modell = 'facebook/bart-large-mnli' )


Nå, erklær ' seq ”-variabel som inneholder vår inndatatekst som må klassifiseres. Deretter gir vi kategoriene som vi ønsker å klassifisere teksten i og lagre i ' lab ' som er kjent som etiketter:

seq = 'Korrekturlesing og redigering er nødvendige komponenter for å sikre klarhet, sammenheng og feilfritt innhold'
lab = [ 'Oppdater' , 'feil' , 'viktig' , 'bekreftelse' ]


Til slutt kjører du rørledningen sammen med inngangen:

tekstklassifiserer ( seq , lab )


Etter å ha utført rørledningen, som du kan se, spådde modellen at sekvensen vår ble klassifisert:


Ytterligere informasjon: Hvis du vil øke ytelsen til modellen, må du bruke GPU. Hvis ja, for det formålet kan du spesifisere et enhetsargument til rørledningen og sette det til ' 0 ' for å bruke GPU.

Hvis du vil klassifisere teksten på mer enn én sekvens/inndatatekstsetning, kan du legge dem til en liste og sende den som input til rørledningene. For det formålet, sjekk ut kodebiten:

seq = [ 'Korrekturlesing og redigering er nødvendige komponenter for å sikre klarhet, sammenheng og feilfritt innhold' ,
'I denne moderne tid er SEO-optimalisering avgjørende for at artikler skal rangeres godt og nå bredere målgrupper' ]

tekstklassifiserer ( seq , lab )


Produksjon


Det er det! Vi har samlet den enkleste måten for å utføre tekstklassifiseringen ved hjelp av Transformers.

Konklusjon

Transformatorer brukes til å utføre språkmodelleringsoppgaver, som tekstgenerering, tekstklassifisering og maskinoversettelse, samt datasynsoppgaver inkludert objektgjenkjenning og bildeklassifisering. I denne opplæringen har vi illustrert prosessen for å utføre tekstklassifisering ved hjelp av Transformers.