Casibase Installatie & Configuratie

🔧 Casibase Installeren & Configureren zonder OpenAI

🎯 Doel:

Casibase on-premise installeren zonder externe API’s, zodat de klant volledige controle heeft over hun data.


1️⃣ Systeemvereisten & Voorbereiding

✅ Benodigdheden

  • Server of VM
    • Minimaal 8GB RAM en 4 CPU’s (voor kleine modellen zoals Mistral-7B, FAISS)
    • 32GB RAM of meer (voor grotere modellen zoals Llama-13B)
  • Besturingssysteem: Ubuntu 22.04 (aanbevolen) of een ander Linux OS.
  • Docker & Docker Compose: Voor containerisatie.
  • Python 3.10+ (voor extra configuraties).
  • PostgreSQL / FAISS / ChromaDB: Voor vector-opslag.
  • GPU (optioneel): NVIDIA-kaarten met CUDA aanbevolen voor snellere verwerking.

2️⃣ Installatie van Docker & Casibase

🛠 Stap 1: Installeer Docker en Docker Compose

bashKopiërenBewerkensudo apt update && sudo apt upgrade -y
sudo apt install -y docker.io docker-compose
sudo systemctl enable docker
sudo systemctl start docker

Controleer de installatie:

bashKopiërenBewerkendocker --version
docker-compose --version

🛠 Stap 2: Clone Casibase Repository

bashKopiërenBewerkengit clone https://github.com/casibase/casibase.git
cd casibase

🛠 Stap 3: Configureer Casibase zonder OpenAI

  1. Maak een .env-bestand aan:
bashKopiërenBewerkencp .env.example .env
nano .env
  1. Wijzig de volgende instellingen:
envKopiërenBewerken# ✅ Basisinstellingen
PORT=8000
SECRET_KEY="JouwSterkeSecretKey"

# ✅ Database (Gebruik FAISS of ChromaDB voor lokale opslag)
DB_BACKEND=faiss
DB_URL=file:///data/casibase_vector_store

# ✅ AI-Model Configuratie (Gebruik een lokaal model)
LLM_BACKEND=llama
LLM_MODEL_PATH=/models/llama-2-7b

# ✅ Embeddings voor vector search (Gebruik een meertalig model)
EMBEDDING_MODEL=paraphrase-multilingual-MiniLM-L12-v2

# ❌ Zet OpenAI UIT
OPENAI_API_KEY=

Sla op met CTRL+X, Y, en Enter.


🛠 Stap 4: Start Casibase

bashKopiërenBewerkendocker-compose up -d

Controleer of alles draait:

bashKopiërenBewerkendocker ps

Dit start:

  • Casibase Backend (AI-verwerking)
  • FAISS/ChromaDB (Vector database)
  • Frontend UI (optioneel)

3️⃣ AI-Model Configureren (Lokaal)

Casibase kan verschillende Nederlandstalige AI-modellen gebruiken.

📌 Optie 1: Llama 2-7B (Aanbevolen)

  1. Download Llama 2-7B:
bashKopiërenBewerkenmkdir -p /models
wget -O /models/llama-2-7b.ggml https://huggingface.co/meta-llama/Llama-2-7b-chat-hf/resolve/main/llama-2-7b.ggml
  1. Pas .env aan:
envKopiërenBewerkenLLM_BACKEND=llama
LLM_MODEL_PATH=/models/llama-2-7b.ggml
  1. Herstart Casibase:
bashKopiërenBewerkendocker-compose restart

📌 Optie 2: Mistral-7B (Sneller)

  1. Download het model:
bashKopiërenBewerkenwget -O /models/mistral-7b.ggml https://huggingface.co/mistralai/Mistral-7B-v0.1/resolve/main/mistral-7b.ggml
  1. Pas .env aan:
envKopiërenBewerkenLLM_BACKEND=mistral
LLM_MODEL_PATH=/models/mistral-7b.ggml
  1. Herstart Casibase:
bashKopiërenBewerkendocker-compose restart

4️⃣ Nederlands Inschakelen

📝 Stap 1: Meertalige Embeddings Instellen

Casibase gebruikt vector embeddings voor tekstvergelijking. Stel een Nederlandstalig embedding-model in .env:

envKopiërenBewerkenEMBEDDING_MODEL=paraphrase-multilingual-MiniLM-L12-v2

📝 Stap 2: Pas de UI aan

Bewerk frontend/config.json:

jsonKopiërenBewerken{
    "language": "nl",
    "welcome_message": "Welkom bij Casibase! Stel hier je vragen.",
    "search_placeholder": "Typ je vraag in het Nederlands..."
}

📝 Stap 3: Pas prompts aan

Bewerk .env:

envKopiërenBewerkenDEFAULT_PROMPT="Beantwoord de volgende vraag in het Nederlands op basis van de kennisdatabase."

Herstart Casibase:

bashKopiërenBewerkendocker-compose restart

5️⃣ Beveiliging & Toegangsbeheer

🔒 Stap 1: Firewall instellen

Beperk toegang tot interne netwerken:

bashKopiërenBewerkensudo ufw allow from 192.168.1.0/24 to any port 8000
sudo ufw enable

🔒 Stap 2: Login & Gebruikersbeheer

Maak een admin-gebruiker:

bashKopiërenBewerkendocker exec -it casibase_backend python manage.py createsuperuser

🔒 Stap 3: Implementeren van SSO

Casibase ondersteunt SSO via OAuth2, Okta, Active Directory.

Voor Google OAuth2, voeg toe aan .env:

envKopiërenBewerkenAUTH_METHOD=oauth2
OAUTH_CLIENT_ID=xxxxxx
OAUTH_CLIENT_SECRET=xxxxxx

6️⃣ Integratie met Documenten

Casibase ondersteunt:

  • PDF, Word, TXT bestanden.
  • Google Drive & SharePoint (optioneel).
  • API-koppelingen met ERP/CRM-systemen.

Om documenten toe te voegen:

  1. Log in op Casibase (http://<server-ip>:8000).
  2. Ga naar “Documents” > “Upload”.
  3. Voeg bestanden toe en kies metadata.

7️⃣ Performance & Schaalbaarheid

🚀 Voor Snellere AI-antwoorden:

  • Gebruik een NVIDIA GPU (Llama + CUDA).
  • Gebruik Redis caching:envKopiërenBewerkenCACHE_BACKEND=redis CACHE_URL=redis://localhost:6379/0
  • Load balancing met Nginx:nginxKopiërenBewerkenserver { listen 80; server_name casibase.local; location / { proxy_pass http://localhost:8000; } }

🟢 Conclusie

Casibase draait nu volledig on-premise zonder OpenAI!
Klantdata blijft binnen de organisatie.
Lokaal AI-model + vector database zonder internetverbinding.
Nederlandstalige ondersteuning.