Liquid AI veröffentlicht kompaktes Vision-Language-Modell für den Einsatz am Edge
Liquid AI hat mit dem LFM2.5-VL-450M ein Vision-Language-Modell mit 450 Millionen Parametern vorgestellt, das speziell für den Einsatz auf ressourcenbeschränkten Edge-Geräten konzipiert ist. Das Modell erreicht Inferenzzeiten von unter 250 Millisekunden und soll damit Bildverarbeitungsaufgaben direkt auf der Hardware ermöglichen – ohne Anbindung an Cloud-Dienste.