Claude 2

von Anthropic

 
Das Modell wurde gerade veröffentlicht und erste Tests haben gezeigt, dass es besser sein könnte als die anderen Modelle, die wir zuvor getestet haben. Deshalb wollten wir es sofort ausprobieren, noch bevor der API-Zugang von Deutschland aus möglich ist.

Claude 2

von Anthropic

 
Das Modell wurde gerade veröffentlicht und erste Tests haben gezeigt, dass es besser sein könnte als die anderen Modelle, die wir zuvor getestet haben. Deshalb wollten wir es sofort ausprobieren, noch bevor der API-Zugang von Deutschland aus möglich ist.

Hauptanwendungsfälle: Kann ähnlich wie GPT-4 für jegliche Form der Sprachgenerierung verwendet werden, beispielsweise zur kreativen Contenterstellung, Textzusammenfassung, Texteditierung, für tiefgehende Dialoge, Verständnis komplexer Zusammenhänge oder Coding.  

 
Inputlänge: 100.000 Tokens (ca. 300 Seiten Fließtext)  

 
Sprachen: optimal in Englisch, aber auch möglich in mindestens 43 weiteren Sprachen  

 
Modellgröße: ~130 Milliarden Parameter

Hauptanwendungsfälle: Kann ähnlich wie GPT-4 für jegliche Form der Sprachgenerierung verwendet werden, beispielsweise zur kreativen Contenterstellung, Textzusammenfassung, Texteditierung, für tiefgehende Dialoge, Verständnis komplexer Zusammenhänge oder Coding.  

 
Inputlänge: 100.000 Tokens (ca. 300 Seiten Fließtext)  

 
Sprachen: optimal in Englisch, aber auch möglich in mindestens 43 weiteren Sprachen  

 
Modellgröße: ~130 Milliarden Parameter