Open-Source-KI

Neuronales Netzwerk mit leuchtenden Verbindungsknoten symbolisiert KI-Architektur
Open-Source-KI, wt

DeepSeek V4: Chinesisches KI-Labor veröffentlicht bislang größtes Open-Weights-Modell mit wettbewerbsfähiger Preisgestaltung

Das chinesische KI-Labor DeepSeek hat mit V4-Pro und V4-Flash zwei neue Modelle veröffentlicht, die sowohl in der Modellgröße als auch beim Preis neue Maßstäbe setzen. Mit bis zu 1,6 Billionen Parametern übertrifft DeepSeek V4-Pro alle bisher öffentlich verfügbaren Open-Weights-Modelle – und liegt preislich deutlich unter den vergleichbaren Angeboten von OpenAI, Google und Anthropic.

KI-gestütztes maschinelles Lernen und Modelltraining
Open-Source-KI, wt

Hugging Face automatisiert LLM-Training mit Open-Source-Agent

Hugging Face hat mit „ml-intern” einen Open-Source-Agenten veröffentlicht, der den Post-Training-Workflow von Large Language Models weitgehend automatisiert. Das Tool soll den bislang aufwändigen manuellen Prozess des Modell-Finetunings erheblich vereinfachen und auch kleineren Teams ohne spezialisierte ML-Infrastruktur zugänglich machen.

Abstrakte Netzwerkarchitektur mit leuchtenden Knotenpunkten
Open-Source-KI, wt

OpenMythos: Open-Source-Implementierung schlägt größere Transformer-Modelle mit 770 Millionen Parametern

Eine neue Open-Source-Implementierung namens OpenMythos rekonstruiert die Architektur von Anthropics Claude-Mythos-Modell in PyTorch – und erzielt dabei mit lediglich 770 Millionen Parametern Ergebnisse, die mit deutlich größeren Transformer-Modellen vergleichbar sind. Das Projekt richtet sich an Forscher und Entwickler, die effiziente Sprachmodelle ohne proprietäre Beschränkungen einsetzen wollen.

Sparse MoE Vision Language Model Architecture
Open-Source-KI, wt

Alibabas Qwen-Team veröffentlicht effizientes Vision-Language-Modell mit Sparse-MoE-Architektur

Das Qwen-Team von Alibaba hat mit Qwen3.6-35B-A3B ein neues Open-Source-Modell vorgestellt, das trotz 35 Milliarden Gesamtparametern lediglich 3 Milliarden Parameter aktiv nutzt. Die Sparse-Mixture-of-Experts-Architektur (Sparse MoE) soll damit eine deutlich ressourcenschonendere Inferenz ermöglichen, ohne wesentliche Leistungseinbußen in Kauf nehmen zu müssen.

Lizenzänderung bei KI-Modellen und Open-Source-Verlässlichkeit
Open-Source-KI, wt

MiniMax M27: Lizenzänderung nach Veröffentlichung wirft Fragen zur Open-Source-Verlässlichkeit auf

Das chinesische KI-Labor MiniMax hat mit dem Modell M2.7 einen leistungsstarken Agenten-Ansatz vorgestellt, der auf wichtigen Coding-Benchmarks mit Anthropics Claude Opus konkurriert. Kurz nach der Veröffentlichung der Modellgewichte auf der Plattform Hugging Face änderte MiniMax jedoch still und ohne gesonderte Ankündigung die Lizenzbedingungen – ein Vorgang, der in der Open-Source-Community erhebliche Aufmerksamkeit erregt hat.

Scroll to Top