Tag: llm-speicherbedarf
All the articles with the tag "llm-speicherbedarf".
Kontextgröße bei Large Language Models: Alles was du über Context Windows wissen musst
Updated: at 14:02Kontextgröße bei Large Language Models erklärt: Wie Input- und Output-Tokens berechnet werden und wie du Context Windows optimal für deine KI-Projekte nutzt.
LLM Model Parameter – Wie groß sind moderne Sprachmodelle wirklich?
Updated: at 13:05LLM Model Parameter verstehen - Erfahre, wie die Anzahl der Parameter, Quantisierung und Datentypen die GPU-Anforderungen und Ressourcen moderner Sprachmodelle beeinflussen.