KI-Forschung

Neuronales Netzwerk mit rekurrenten Schleifen – abstrakte KI-Architektur-Visualisierung
KI-Forschung, sci

Parcae: Neue LLM-Architektur erreicht doppelte Modellleistung bei halbem Parameterumfang

Forscher der University of California San Diego (UCSD) und des KI-Unternehmens Together AI haben eine neue Architektur für Large Language Models vorgestellt, die unter dem Namen Parcae firmiert. Das System soll die Qualität eines herkömmlichen Transformer-Modells doppelter Größe erreichen – bei deutlich reduziertem Parameterumfang. Die Veröffentlichung adressiert ein zentrales Problem sogenannter Looped Language Models, die bislang mit Instabilitäten im Training kämpften.

Mathematische Formeln auf einer Tafel – KI löst offenes Forschungsproblem
KI-Forschung, sci

GPT-5.4 Pro löst offenes Mathematikproblem – KI übernimmt erstmals echte Forschungsaufgabe

OpenAIs Modell GPT-5.4 Pro hat nach übereinstimmenden Berichten eigenständig das seit Jahrzehnten offene Mathematikproblem Erdős #1196 gelöst – und das in einer Bearbeitungszeit von 80 Minuten. Fields-Medaillengewinner Terence Tao, einer der renommiertesten Mathematiker der Gegenwart, hat das Ergebnis als sinnvollen Beitrag zur mathematischen Forschung eingestuft.

Neuronales Computermodell vereint Rechnen und Speicher
KI-Forschung, sci

Meta AI und KAUST entwickeln neuronales Computermodell, das Rechnen, Speicher und Ein-/Ausgabe vereint

Forscher von Meta AI und der King Abdullah University of Science and Technology (KAUST) haben ein Konzept vorgestellt, das grundlegende Prinzipien klassischer Computerarchitektur neu denkt. Ihr Ansatz beschreibt sogenannte „Neural Computers” – Modelle, die Berechnung, Speicher und Ein-/Ausgabe nicht als getrennte Komponenten behandeln, sondern als eine gemeinsam trainierte Einheit.

Neural network training with noise visualization
KI-Forschung, sci

Zufälliges Rauschen im Training verbessert die Verlässlichkeit von KI-Modellen

Forscher der Korea Advanced Institute of Science and Technology (KAIST) haben eine Trainingsmethode entwickelt, die sich an neurowissenschaftlichen Erkenntnissen orientiert und die Kalibrierungsqualität neuronaler Netze messbar verbessert. Die Studie, veröffentlicht in *Nature Machine Intelligence*, zeigt: Ein gezielter Rausch-Warm-up vor dem eigentlichen Training reduziert systematisch die Tendenz von KI-Modellen, ihre eigene Unsicherheit falsch einzuschätzen.

Scroll to Top