BART-large-MNLI

von Meta

BART-large-MNLI

von Meta

Hauptanwendungsfälle: Ein allgemeines Sprachmodell, das auf der Transformer-Architektur beruht. Es wurde explizit für die Anliegenerkennung und Textklassifizierung ohne Beispiele (zero shot) trainiert.  

 
Inputlänge: 1024 Tokens (ca.768 Wörter)  

 
Sprachen: vorwiegend Englisch  

 
Modellgröße: ~407 Millionen Parameter

Hauptanwendungsfälle: Ein allgemeines Sprachmodell, das auf der Transformer-Architektur beruht. Es wurde explizit für die Anliegenerkennung und Textklassifizierung ohne Beispiele (zero shot) trainiert.  

 
Inputlänge: 1024 Tokens (ca.768 Wörter)  

 
Sprachen: vorwiegend Englisch  

 
Modellgröße: ~407 Millionen Parameter