Wenn wir an KI denken, denken wir sofort an die leistungsstarken, großen Sprachmodelle wie GPT4, Claude, Mixtral oder Llama. Bei proprietären Modellen bedeutet dies die Abhängigkeit von einem kostspieligen externen Anbieter. Bei Open-Source-Modellen können wir entweder externe Anbieter nutzen oder das Modell selbst auf unseren eigenen Maschinen, typischerweise in der Cloud, hosten.
Es besteht jedoch auch die Möglichkeit, KI-Modelle direkt im Browser auszuführen. Heutige Endbenutzergeräte wie Laptops oder Mobiltelefone werden zunehmend mit einer GPU oder sogar einem dedizierten KI-Prozessor ausgeliefert. WebGPU, der Nachfolger von WebGL, wurde mit Blick auf maschinelles Lernen entwickelt und wird immer breiter unterstützt, erst kürzlich auch auf Android-Mobilgeräten.
Moderne Geräte unterstützen zunehmend KI-Workloads und ermöglichen neue Möglichkeiten:
Bei betalyra verfügen wir über umfangreiche Erfahrung mit browserbasierter KI und können Sie bei der End-to-End-Gestaltung Ihres KI-Anwendungsfalls unterstützen: