de en

Ollama Installation für Einsteiger

Im Podcast „Künstlich Klug” den wir zusammen mit afritz Consulting produzieren erklären wir Euch, wie man selber LLMs betreiben kann und damit ein Maximum an Datenschutz und Unabhängigkeit erreichen kann. Das Tool der Wahl ist hier Ollama. Wem unser Einstieg in Ollama für Entwickler zu sperrig ist, für den haben wir hier eine einsteigerfreundliche Installationsanleitung zusammengetragen.

Was kann Ollama?

Ollama ist ein Programm um LLMs/Chatbots auf eigener Hardware zu betreiben. Neben den „großen“ Modellen von Google, OpenAI, Anthropic und co. gibt es zahlreiche sogenannte „Open Weights“ Modelle, die klein genug sind, um sogar auf dem heimischen PC/Laptop genutzt zu werden. Diese sind zwar nicht ganz so mächtig wie die Flagschiffe der großen Anbieter, aber hier greift das Pareto Prinzip: mit 20% (oder sogar 2%) der Rechenleistung und Modellgröße kann man 80-95% der Leistung (je nach Aufgabe und Modell) der großen Modelle erreichen. Generell gilt: je größer und neuer das Open Weights Modell, desto besser, man sollte sich also von kleinen Modellen nach oben durchtesten, um rauszufinden, welches das größte Modell ist, das auf dem eigenen Computer noch in akzeptabler Geschwindigkeit läuft.

Das praktische an Ollama: die gängigen Open Weights Modelle werden auf Wunsch automatisch heruntergeladen, es gibt eine praktische Übersichtsseite mit Detailinformationen. Unter Windows und Mac gibt es eine grafische Benutzeroberfläche, mit der man gleich loschatten kann. Unter Linux muss man mit der Konsole vorliebt nehmen oder eine alternative Chatoberfläche wie [Librechat nutzen] (https://www.librechat.ai/).

Installation unter Windows

Zunächst muss man sich die Ollama Installationsdatei unter [https://ollama.com/download/windows] herunterladen:

Ein Screenshot der Ollama Windows Downloadseite

Dann muss man den Installer ausführen. Dafür muss man bestätigen, das man das Programm OllamaSetup.exe ausführen möchte:

Ein Screenshot der Sicherheitsabfrage unter Windows für den Ollama Installer

Dann muss man durch einen Klick auf „Install“ die eigentliche Installation starten:

Ein Screenshot des Ollama Installers

Nun installiert der Installer alle notwendigen Dateien - das kann eine Weile dauern (LLMs werden hier noch nicht installiert):

Ein Screenshot des Fortschritts des Ollama Installers

Nun ist die Installation abgeschlossen und man wird mit einem Chat Fenster begrüßt. Man muss allerdings noch einen Moment geduld haben, denn Ollama lädt nun die aktuelle Lister der zum Download verfügbaren LLMs (zu erkennen am ausgegrauten Dropdown Menü unten rechts mit der Beschriftung „Loading…“):

Ein Screenshot des Ollama Chat Fensters gleich nach der Installation

Ist diese Liste aktualisiert, kann man über das Drowpdown Menü das gewünschte Modell zum chatten auswählen. Ist es noch nicht installiert wird es automatisch heruntergeladen, das kann eine Weile dauern. Gute erste Kandidaten sind die qwen3 und gemma Modelle. Die Zahl nach dem Dopplpunkt ist die Anzahl an Parametern in Milliarden (das b kommt vom Englischen „billion“ für Milliarde). Hier sollte man klein anfangen und sich hocharbeiten um zu sehen, was auf dem eigenen Computer gut zu nutzen ist. Modelle ab 2 Milliarden Parameterns sollten (zumindest auf Englisch) mit chatGPT 3.5 mithalten können, ab 8 Milliarden Parametern hat man fast die Leistung von chatGPT 4, bei noch größeren Modellen kommt man immer näher an die großen kommerziellen Modelle heran.

Ein Screenshot der Modellauswahl in der Ollama UI

Ein Screenshot des automatischen Downloads eines Modells in der Ollama UI

Ist der Download abgeschlossen kann man einfach loschatten - aber vorsicht, „thinking“ / „reasoning“ Modelle denken recht viel nach, da kann die Antwort eine Weile auf sich warten lassen.

Ein Screenshot eines ersten Chats in der Ollama UI

Mehr Infos zur Benutzeroberfläche von Ollama findet sich hier: [https://ollama.com/blog/new-app]

Wer möchte, kann mit Ollama auch lokale LLMs in eigene Software integrieren, die Dokumentation findet man hier: [https://docs.ollama.com/]

Installation unter Mac

Gehe auf [https://ollama.com] und klicke auf den Download-Button. Die Installationsdatei landet in deinem Download-Ordner.

Die Ollama Homepage, auf der der Mac Installer heruntergeladen werden kann

Öffne die heruntergeladene Ollama.dmg-Datei und ziehe das Ollama-Symbol in den Programme-Ordner.

Ein Screenshot der Installation unter Mac

Dann Öffne Ollama aus dem Programme-Ordner - ein kleines Lama-Symbol erscheint in deiner Menüleiste, die App startet! Ab hier geht es genauso weiter wie unter windows im vorigen Abschnitt, da die Benutzeroberfläche unter beiden Betriebssystemen gleich ist.

Installation unter Linux

Unter Linux kann ollama mittels eines installer scripts nach /usr/local installiert werden:

curl -fsSL https://ollama.com/install.sh | sh

Alternativ kann man ollama auch manuell an einen beliebigen Ort installieren, die Anleitung dafür ist hier zu finden: https://docs.ollama.com/linux

Hat man ollama installiert so kann man es mit ollama run <modellname> starten. Die möglichen Modellnamen und die Beschreibung der Modelle findet man hier: https://ollama.com/library Googles “gemma 3” Modell wird zum Beispiel wie folgt gestartet: ollama run gemma3.

Manche Modelle gibt es in mehreren Größen, hier kann man dann die Größe manuell durch einen Doppelpunkt getrennt angeben, z.B.: ollama run gemma3:1b. Gibt mein keine Größe an, so wird die neueste Version des Modells genutzt, auf der Webseite unter der Detailbeschreibung des Modells mit “latest” gekennzeichnet, z.B.: https://ollama.com/library/gemma3 Falls das Modell noch nicht lokal vorhanden ist, so wird es automatisch heruntergeladen, da die Modelle oft größer sind, kann das eine Weile dauern.

Möchte man Ollama unter Linux komfortabel benutzen, so empfiehlt sich die Installation einer passenden Chatoberfläche wie LibreChat oder AnythingLLM.