DeepSeek V3 – Das Open-Source Mixture-of-Experts KI-Modell im Überblick

DeepSeek V3 ist ein neues, leistungsstarkes Open-Source-Sprachmodell mit Mixture-of-Experts (MoE)-Architektur und 671 Milliarden Parametern. Es wurde Ende 2024 vom Forschungsunternehmen DeepSeek AI (Hangzhou) vorgestellt und bietet eine freie GPT-Alternative auf Augenhöhe mit den besten kommerziellen KI-Modellen. Dieser Fachartikel führt in…