sci

Vernetzte Knotenpunkte symbolisieren kollektive Intelligenz in verteilten KI-Systemen
KI-Forschung, sci

Kollektive Intelligenz: Neue Forschungsperspektiven auf verteilte KI-Entscheidungssysteme

Ein Perspektiv-Beitrag im Fachjournal *Nature Machine Intelligence* beleuchtet, wie das Konzept der kollektiven Intelligenz in der KI-Forschung neu gedacht werden könnte. Autor Justin Werfel argumentiert, dass bisherige Modelle zu starr gefasst sind – und dass ein flexibleres Verständnis verteilter Entscheidungsprozesse neue Wege in der Systemgestaltung eröffnen könnte.

KI-Roboter im wissenschaftlichen Labor
KI-Forschung, sci

KI-Systeme übernehmen zunehmend eigenständige Aufgaben in der wissenschaftlichen Forschung

Künstliche Intelligenz dringt in wissenschaftliche Labore vor – nicht mehr nur als Analyse-Werkzeug, sondern als eigenständiger Akteur, der Hypothesen formuliert, Experimente plant und Ergebnisse auswertet. Dieser Trend beschleunigt sich laut einer aktuellen Bestandsaufnahme des MIT Technology Review erheblich und verändert die Arbeitsweise in Forschungseinrichtungen weltweit.

Abstrakte mathematische Formeln auf einem digitalen Bildschirm
KI-Forschung, sci

KI-Systeme lösen mathematische Forschungsprobleme und setzen neue Maßstäbe in der Leistungsdebatte

Aktuelle KI-Modelle können erstmals mathematische Beweise auf Forschungsniveau selbstständig lösen – ein Leistungssprung, der die Diskussion über den Zeitpunkt einer möglichen Superintelligenz neu befeuert. Für Unternehmen und Entscheider stellt sich damit die Frage, wie nah der Übergang von nützlichem Werkzeug zu autonomem Wissensarbeiter tatsächlich ist.

Neuronales Netzwerk mit rekurrenten Schleifen – abstrakte KI-Architektur-Visualisierung
KI-Forschung, sci

Parcae: Neue LLM-Architektur erreicht doppelte Modellleistung bei halbem Parameterumfang

Forscher der University of California San Diego (UCSD) und des KI-Unternehmens Together AI haben eine neue Architektur für Large Language Models vorgestellt, die unter dem Namen Parcae firmiert. Das System soll die Qualität eines herkömmlichen Transformer-Modells doppelter Größe erreichen – bei deutlich reduziertem Parameterumfang. Die Veröffentlichung adressiert ein zentrales Problem sogenannter Looped Language Models, die bislang mit Instabilitäten im Training kämpften.

Mathematische Formeln auf einer Tafel – KI löst offenes Forschungsproblem
KI-Forschung, sci

GPT-5.4 Pro löst offenes Mathematikproblem – KI übernimmt erstmals echte Forschungsaufgabe

OpenAIs Modell GPT-5.4 Pro hat nach übereinstimmenden Berichten eigenständig das seit Jahrzehnten offene Mathematikproblem Erdős #1196 gelöst – und das in einer Bearbeitungszeit von 80 Minuten. Fields-Medaillengewinner Terence Tao, einer der renommiertesten Mathematiker der Gegenwart, hat das Ergebnis als sinnvollen Beitrag zur mathematischen Forschung eingestuft.

Neuronales Computermodell vereint Rechnen und Speicher
KI-Forschung, sci

Meta AI und KAUST entwickeln neuronales Computermodell, das Rechnen, Speicher und Ein-/Ausgabe vereint

Forscher von Meta AI und der King Abdullah University of Science and Technology (KAUST) haben ein Konzept vorgestellt, das grundlegende Prinzipien klassischer Computerarchitektur neu denkt. Ihr Ansatz beschreibt sogenannte „Neural Computers” – Modelle, die Berechnung, Speicher und Ein-/Ausgabe nicht als getrennte Komponenten behandeln, sondern als eine gemeinsam trainierte Einheit.

Neural network training with noise visualization
KI-Forschung, sci

Zufälliges Rauschen im Training verbessert die Verlässlichkeit von KI-Modellen

Forscher der Korea Advanced Institute of Science and Technology (KAIST) haben eine Trainingsmethode entwickelt, die sich an neurowissenschaftlichen Erkenntnissen orientiert und die Kalibrierungsqualität neuronaler Netze messbar verbessert. Die Studie, veröffentlicht in *Nature Machine Intelligence*, zeigt: Ein gezielter Rausch-Warm-up vor dem eigentlichen Training reduziert systematisch die Tendenz von KI-Modellen, ihre eigene Unsicherheit falsch einzuschätzen.

Scroll to Top