Claude v1

von Anthropic

 

 
Anthropic ist ein Unternehmen, das von ehemaligen OpenAI-Leitern und -Entwicklern gegründet wurde, um KI zu entwickeln, die ethischen Grundsätzen folgt. Sie glauben an die enormen Auswirkungen der KI und wollen sie in eine bessere Richtung lenken. Ihr Ziel sind zuverlässige, interpretierbare und lenkbare Systeme. Claude ist ein Modell, das von Anthropic in zwei verschiedenen Versionen veröffentlicht wurde. Für diesen Test haben wir Claude v1, das größere Modell, verwendet.

Claude v1

von Anthropic

 

 
Anthropic ist ein Unternehmen, das von ehemaligen OpenAI-Leitern und -Entwicklern gegründet wurde, um KI zu entwickeln, die ethischen Grundsätzen folgt. Sie glauben an die enormen Auswirkungen der KI und wollen sie in eine bessere Richtung lenken. Ihr Ziel sind zuverlässige, interpretierbare und lenkbare Systeme. Claude ist ein Modell, das von Anthropic in zwei verschiedenen Versionen veröffentlicht wurde. Für diesen Test haben wir Claude v1, das größere Modell, verwendet.

Hauptanwendungsfälle: Ein allgemeines Modell zur Sprachgenerierung, das für jegliche Form der Sprachgenerierung verwendet werden, beispielsweise zur kreativen Contenterstellung, Textzusammenfassung, Texteditierung, für erweiterte Dialoge oder Verständnis komplexer Zusammenhänge.  

 
Inputlänge: 9.000 Tokens (ca. 6750 Wörter)  

 
Sprachen: Hauptsächlich Englisch. Zusätzlich auch Spanisch und Französisch. In geringerem Umfang auch Deutsch, Italienisch, Portugiesisch und evtl. weitere Sprachen.  

 
Modellgröße: ~93 Milliarden Parameter (Schätzung, da unveröffentlicht)  

Hauptanwendungsfälle: Ein allgemeines Modell zur Sprachgenerierung, das für jegliche Form der Sprachgenerierung verwendet werden, beispielsweise zur kreativen Contenterstellung, Textzusammenfassung, Texteditierung, für erweiterte Dialoge oder Verständnis komplexer Zusammenhänge.  

 
Inputlänge: 9.000 Tokens (ca. 6750 Wörter)  

 
Sprachen: Hauptsächlich Englisch. Zusätzlich auch Spanisch und Französisch. In geringerem Umfang auch Deutsch, Italienisch, Portugiesisch und evtl. weitere Sprachen.  

 
Modellgröße: ~93 Milliarden Parameter (Schätzung, da unveröffentlicht)