mDeBERTa-v3-base-MNLI-XNLI

von Vrije Universiteit Amsterdam

mDeBERTa-v3-base-MNLI-XNLI

von Vrije Universiteit Amsterdam

Hauptanwendungsfälle: Ein mehrsprachiges Modell, das auf einer Weiterentwicklung der BERT-Architektur basiert. Es wurde explizit für die Anliegenerkennung und Textklassifizierung ohne Beispiele (zero shot) trainiert.  

 
Inputlänge: 512 Tokens (ca. 384 Wörter) – theoretisch 24.528 Tokens, über 512 Tokens sind allerdings erhebliche Geschwindigkeitseinbußen zu erwarten.  

 
Sprachen: Evaluiert für 15 Sprachen, darunter Englisch und Deutsch. In geringerem Umfang 85 weitere Sprachen.  

 
Modellgröße: ~86 Millionen Parameter

Hauptanwendungsfälle: Ein mehrsprachiges Modell, das auf einer Weiterentwicklung der BERT-Architektur basiert. Es wurde explizit für die Anliegenerkennung und Textklassifizierung ohne Beispiele (zero shot) trainiert.  

 
Inputlänge: 512 Tokens (ca. 384 Wörter) – theoretisch 24.528 Tokens, über 512 Tokens sind allerdings erhebliche Geschwindigkeitseinbußen zu erwarten.  

 
Sprachen: Evaluiert für 15 Sprachen, darunter Englisch und Deutsch. In geringerem Umfang 85 weitere Sprachen.  

 
Modellgröße: ~86 Millionen Parameter