Liquid AI veröffentlicht kompaktes Vision-Language-Modell für den Einsatz am Edge

Mit dem LFM2.5-VL-450M bringt Liquid AI ein Vision-Language-Modell auf den Markt, das Bildverarbeitung und Sprachverständnis direkt auf ressourcenbeschränkter Hardware ermöglicht – eine relevante Entwicklung für Industrie, Logistik und den deutschen Mittelstand.

Liquid AI veröffentlicht kompaktes Vision-Language-Modell für den Einsatz am Edge

Liquid AI hat mit dem LFM2.5-VL-450M ein Vision-Language-Modell mit 450 Millionen Parametern vorgestellt, das speziell für den Einsatz auf ressourcenbeschränkten Edge-Geräten konzipiert ist. Das Modell erreicht Inferenzzeiten von unter 250 Millisekunden und soll damit Bildverarbeitungsaufgaben direkt auf der Hardware ermöglichen – ohne Anbindung an Cloud-Dienste.

Technische Eigenschaften

Das LFM2.5-VL-450M kombiniert visuelle Wahrnehmung mit Sprachverständnis in einem vergleichsweise kleinen Modell. Zu den zentralen Fähigkeiten zählen:

  • Objekterkennung und -lokalisierung mittels Bounding-Box-Vorhersagen
  • Mehrsprachige Unterstützung für internationale Produktionsumgebungen
  • Echtzeitfähigkeit bei unter 250 ms Inferenzzeit

Die Architektur basiert auf Liquid AIs eigenem LFM-Ansatz (Liquid Foundation Model), der sich von klassischen Transformer-Modellen unterscheidet. Das Unternehmen, das aus dem MIT-Umfeld hervorgegangen ist, setzt dabei auf dynamische, zustandsbasierte Netzwerke, die effizienter mit sequenziellen Daten umgehen sollen.

Diese Eigenschaft kommt besonders beim Einsatz auf eingebetteten Systemen mit begrenztem Arbeitsspeicher und eingeschränkter Rechenleistung zum Tragen.

Anwendungsfelder in der Industrie

Für Unternehmen, die visuelle Qualitätskontrolle, Lagerlogistik oder Maschinenwartung automatisieren wollen, adressiert das Modell ein praktisches Problem: Viele bestehende Vision-KI-Systeme erfordern entweder leistungsstarke Server-Hardware oder verursachen durch Cloud-Anbindung Latenz und Datenschutzrisiken.

Denkbare Einsatzszenarien umfassen:

  • Visuelle Inspektion von Bauteilen in der Fertigung
  • Automatisches Auslesen von Etiketten und Dokumenten
  • Erkennung von Sicherheitsrisiken in Produktionsanlagen

Ein Modell, das auf einem Industriecomputer, einem Embedded-System oder einem modernen Smartphone ausführbar ist und dabei Objekte in Echtzeit lokalisieren und klassifizieren kann, reduziert Abhängigkeiten von zentraler Infrastruktur erheblich.

Bounding-Box-Vorhersagen sind kein neues Konzept – in Kombination mit Sprachsteuerung und Edge-Fähigkeit werden sie jedoch praxistauglicher als je zuvor.

Verfügbarkeit und Positionierung

Liquid AI stellt das Modell als Open-Source-Veröffentlichung bereit, was Unternehmen die Möglichkeit gibt, es ohne Lizenzkosten zu evaluieren und in eigene Systeme zu integrieren. Die Gewichte sind über gängige Plattformen abrufbar.

Damit positioniert sich Liquid AI im zunehmend kompetitiven Segment der sogenannten Small Language Models (SLMs), in dem auch Anbieter wie Microsoft mit Phi oder Google mit Gemma aktiv sind.

Während viele kompakte Modelle durch simples Komprimieren größerer Systeme entstehen, soll LFM2.5-VL-450M von Grund auf für Effizienz ausgelegt sein – ohne wesentliche Abstriche bei der Aufgabenqualität.

Einordnung für deutsche Unternehmen

Für den deutschen Mittelstand und Industrieunternehmen ist das Modell aus mehreren Gründen relevant:

  • DSGVO-Konformität: Edge-Inferenz ohne Datenübertragung in externe Clouds
  • Niedrige Einstiegshürden durch Open-Source-Verfügbarkeit
  • Pilotprojekte ohne Lizenzkosten evaluierbar

Entscheidend wird sein, wie das Modell in standardisierten Evaluierungen gegenüber etablierten Alternativen abschneidet. Entsprechende Benchmarks sollten vor einem produktiven Einsatz sorgfältig geprüft werden.


Quelle: MarkTechPost

Scroll to Top