Unser Wechsel von VMware auf Proxmox

Fast 20 Jahre haben wir von der CIIT Software unsere Infrastruktur auf VMware vSphere betrieben. Die Übernahme VMwares durch Broadcom und die damit einhergehenden Änderungen in den Lizenzierungs- und Preismodellen haben uns gezwungen, die Virtualisierungsplattform zu wechseln. Nach einer mehrmonatigen Evaluierungs- und Planungsphase haben wir schließlich im März dieses Jahres erfolgreich auf Proxmox migriert. Wir […]

Calling Large Language Models with Ollama via ReST Services

Large Language Models mit Ollama über ReST-Services aufrufen: Eine Schritt-für-Schritt Anleitung für Linux Server. In unserem vorigen Video, haben wir gezeigt, wie man Ollama und das Open WebUI auf einem Linux System lokal installieren kann. Du findest diesen ersten Teil hier. In diesem Video zeigen wir, wie du dein lokales LLM Modell über ReST Services […]

Installing Local Large Language Models with Ollama on Linux

In today's digital world, Large Language Models (LLMs) are playing an increasingly important role. However, many companies are faced with the challenge of keeping their sensitive data secure while using powerful AI models. One solution: install local Large Language Models. In this article, we will show you how to use the Ollama software to create a local LLM […]