Alibabas Qwen-Team veröffentlicht effizientes Vision-Language-Modell mit Sparse-MoE-Architektur
Das Qwen-Team von Alibaba hat mit Qwen3.6-35B-A3B ein neues Open-Source-Modell vorgestellt, das trotz 35 Milliarden Gesamtparametern lediglich 3 Milliarden Parameter aktiv nutzt. Die Sparse-Mixture-of-Experts-Architektur (Sparse MoE) soll damit eine deutlich ressourcenschonendere Inferenz ermöglichen, ohne wesentliche Leistungseinbußen in Kauf nehmen zu müssen.