Lokale Large Language Models mit Ollama auf Linux installieren

In der heutigen digitalen Welt spielen Large Language Models (LLMs) eine immer größere Rolle. Viele Unternehmen stehen jedoch vor der Herausforderung, ihre sensiblen Daten sicher zu halten und gleichzeitig leistungsfähige KI-Modelle zu nutzen. Eine Lösung: lokale Large Language Models installieren. In diesem Beitrag zeigen wir Ihnen, wie Sie mit der Software Ollama ein lokales LLM auf einem Linux-Server einrichten. Dies ermöglicht Ihnen, die Vorteile leistungsstarker Sprachmodelle zu nutzen, ohne sensible Daten in die Cloud zu senden.

Warum lokale LLMs?

Viele Unternehmen bevorzugen lokale LLMs, um die Kontrolle über ihre Daten zu behalten. Cloud-basierte Lösungen wie Microsoft Azure oder AWS bieten zwar immense Rechenleistung, doch die Datenhoheit bleibt oft ein kritischer Punkt. Lokale Installationen ermöglichen es, hochsensible Informationen intern zu verarbeiten und gleichzeitig die Leistungsfähigkeit moderner Sprachmodelle auszuschöpfen. Für die Installation von Ollama auf einem Linux-Server benötigen Sie:

  • Linux-Distribution: beliebige Linux Distribution, wir verwenden hier Ubuntu Server 24.04 LTS 
  • Nvidia-Grafikkarte: Eine leistungsfähige Karte wie die Nvidia RTX A5000 sorgt für die nötige Rechenleistung, die LLMs benötigen
  • Docker: Zum Starten von Open WebUI als Docker-Container.
 

Schritt 1: Ollama installieren

Ollama ermöglicht die Verwaltung und Nutzung lokaler LLMs. Die Installation ist unkompliziert:

				
					sudo curl -fsSL https://ollama.com/install.sh | sh

				
			

Nach der Installation sollten Sie den Server neu starten, um sicherzustellen, dass alle Kernel-Komponenten korrekt geladen werden.

Schritt 2: Überprüfen der Nvidia-Grafikkarte

Nutzen Sie nvidia-smi, um den Status Ihrer Grafikkarte zu überwachen:

				
					nvidia-smi -l 1
				
			


Schritt 3: Docker installieren

Docker wird benötigt, um Open WebUI zu betreiben. Die Installationsanleitung finden Sie hier.

Schritt 4: Open WebUI starten

 Starten Sie Open WebUI als Docker-Container, um die Benutzeroberfläche für Ihre LLMs zu nutzen:
				
					docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main

				
			


Schritt 5: Zugriff auf die Benutzeroberfläche

Rufen Sie Open WebUI im Browser auf, indem Sie die IP-Adresse Ihres Servers eingeben, z. B.:
				
					http://192.168.0.5:8080

				
			
Erstellen Sie einen Admin-Account, um Modelle zu installieren und Abfragen an die Sprachmodelle zu stellen.


Schritt 6: Modelle installieren und nutzen

Modelle können entweder direkt über die Kommandozeile oder die WebUI installiert werden. Zum Beispiel:
				
					ollama pull llama3

				
			
Die WebUI bietet eine benutzerfreundliche Möglichkeit, Modelle zu verwalten und Abfragen zu stellen, ähnlich wie bei ChatGPT.


Tipps zur Hardware-Optimierung

Für den produktiven Einsatz von LLMs sind leistungsfähige Hardware-Ressourcen entscheidend. Eingesetzte Grafikkarten und Server-Boards mit ausreichendem RAM und guter Erweiterbarkeit bzgl. PCI Steckplätzen für die Grafikkarten sind ideal, um anspruchsvolle Modelle effizient zu betreiben. Die Größe der verwendbaren Modelle hängt entscheiden von Anzahl und Leistungsfähigkeit der Grafikkarten ab.
 

Beispiel-Konfigurationen

Einstiegskonfiguration (für Llama 7B und einfache Anwendungen)

  • CPU: AMD Ryzen 9 oder Intel i9
  • GPU: NVIDIA RTX 3060 mit 12 GB VRAM
  • RAM: 32 GB
  • Speicher: 1 TB NVMe SSD

 

Fortgeschrittene Konfiguration (für Llama 13B bis 30B)

  • CPU: AMD Threadripper oder Intel Xeon
  • GPU: NVIDIA RTX 3090 oder A6000 mit mindestens 24 GB VRAM
  • RAM: 64-128 GB
  • Speicher: 2 TB NVMe SSD

 

High-End-Konfiguration (für Llama 65B und anspruchsvolle Anwendungen)

  • CPU: Dual AMD EPYC oder Intel Xeon
  • GPU: NVIDIA A100 oder H100 (40 GB oder mehr VRAM) oder ein Cluster aus mehreren GPUs
  • RAM: 128 GB oder mehr
  • Speicher: 4 TB NVMe SSD


Fazit

Mit Ollama können Sie lokale LLMs effizient auf Ihrem Linux-Server betreiben und dabei die volle Kontrolle über Ihre Daten behalten. Diese Lösung ist besonders für Unternehmen geeignet, die sensible Informationen verarbeiten und dennoch die Vorteile moderner Sprachmodelle nutzen möchten. Zum praktischen Video Tutorial geht es hier:

Outsourcing around the world

Outsourcing in der IT

Outsourcing in der IT: Strategien, Vorteile und Herausforderungen Outsourcing in der IT-Branche hat sich als eine effektive Strategie für Unternehmen etabliert, um Zugang zu spezialisierten

Weiterlesen »

Neuronale Netze

Neuronale Netze: Die Architektur des Künstlichen Gehirns Neuronale Netze, oft als das Herzstück moderner Künstlicher Intelligenz (KI) und Maschinelles Lernen (ML) bezeichnet, sind von der

Weiterlesen »

ReST Services

ReST Services: Einführung in die Welt der Web-Kommunikation In der heutigen digitalen Welt spielen ReST Services (Representational State Transfer Services) eine zentrale Rolle in der

Weiterlesen »

Amazon Web Services (AWS)

Amazon Web Services: Ein umfassender Überblick über den Cloud-Riesen Amazon Web Services (AWS), der Cloud-Computing-Arm des E-Commerce-Giganten Amazon, ist ein führender Anbieter von Cloud-Diensten, der

Weiterlesen »

Cloud Computing

Cloud Computing hat sich als revolutionäre Technologie etabliert, die eine neue Ära der Datenverarbeitung und -speicherung eingeläutet hat. Mit dem Aufkommen von Cloud-Diensten können Unternehmen

Weiterlesen »