XLM-RoBERTa-large-XNLI

von Hugginface

 

XLM-RoBERTa-large-XNLI

von Hugginface

 

Hauptanwendungsfälle: Modell das für die Anliegenerkennung und Textklassifizierung feinabgestimmt wurde. Es basiert auf der Variation RoBERTa des Grundlagenmodells BERT und kann Anliegen auch in komplexen Emails erkennen, wenn man nur den Namen des Intents angibt (zero shot).  

 
Inputlänge: 512 Tokens (ca. 384 Wörter)  

 
Sprachen: Englisch, Französisch, Deutsch, Spanisch, Griechisch & 10 weitere  

 
Modellgröße: ~355 Millionen Parameter

Hauptanwendungsfälle: Modell das für die Anliegenerkennung und Textklassifizierung feinabgestimmt wurde. Es basiert auf der Variation RoBERTa des Grundlagenmodells BERT und kann Anliegen auch in komplexen Emails erkennen, wenn man nur den Namen des Intents angibt (zero shot).  

 
Inputlänge: 512 Tokens (ca. 384 Wörter)  

 
Sprachen: Englisch, Französisch, Deutsch, Spanisch, Griechisch & 10 weitere  

 
Modellgröße: ~355 Millionen Parameter