🔧 Casibase Installeren & Configureren zonder OpenAI
🎯 Doel:
Casibase on-premise installeren zonder externe API’s, zodat de klant volledige controle heeft over hun data.
1️⃣ Systeemvereisten & Voorbereiding
✅ Benodigdheden
- Server of VM
- Minimaal 8GB RAM en 4 CPU’s (voor kleine modellen zoals Mistral-7B, FAISS)
- 32GB RAM of meer (voor grotere modellen zoals Llama-13B)
- Besturingssysteem: Ubuntu 22.04 (aanbevolen) of een ander Linux OS.
- Docker & Docker Compose: Voor containerisatie.
- Python 3.10+ (voor extra configuraties).
- PostgreSQL / FAISS / ChromaDB: Voor vector-opslag.
- GPU (optioneel): NVIDIA-kaarten met CUDA aanbevolen voor snellere verwerking.
2️⃣ Installatie van Docker & Casibase
🛠 Stap 1: Installeer Docker en Docker Compose
bashKopiërenBewerkensudo apt update && sudo apt upgrade -y
sudo apt install -y docker.io docker-compose
sudo systemctl enable docker
sudo systemctl start docker
Controleer de installatie:
bashKopiërenBewerkendocker --version
docker-compose --version
🛠 Stap 2: Clone Casibase Repository
bashKopiërenBewerkengit clone https://github.com/casibase/casibase.git
cd casibase
🛠 Stap 3: Configureer Casibase zonder OpenAI
- Maak een
.env
-bestand aan:
bashKopiërenBewerkencp .env.example .env
nano .env
- Wijzig de volgende instellingen:
envKopiërenBewerken# ✅ Basisinstellingen
PORT=8000
SECRET_KEY="JouwSterkeSecretKey"
# ✅ Database (Gebruik FAISS of ChromaDB voor lokale opslag)
DB_BACKEND=faiss
DB_URL=file:///data/casibase_vector_store
# ✅ AI-Model Configuratie (Gebruik een lokaal model)
LLM_BACKEND=llama
LLM_MODEL_PATH=/models/llama-2-7b
# ✅ Embeddings voor vector search (Gebruik een meertalig model)
EMBEDDING_MODEL=paraphrase-multilingual-MiniLM-L12-v2
# ❌ Zet OpenAI UIT
OPENAI_API_KEY=
Sla op met CTRL+X
, Y
, en Enter
.
🛠 Stap 4: Start Casibase
bashKopiërenBewerkendocker-compose up -d
Controleer of alles draait:
bashKopiërenBewerkendocker ps
Dit start:
- Casibase Backend (AI-verwerking)
- FAISS/ChromaDB (Vector database)
- Frontend UI (optioneel)
3️⃣ AI-Model Configureren (Lokaal)
Casibase kan verschillende Nederlandstalige AI-modellen gebruiken.
📌 Optie 1: Llama 2-7B (Aanbevolen)
- Download Llama 2-7B:
bashKopiërenBewerkenmkdir -p /models
wget -O /models/llama-2-7b.ggml https://huggingface.co/meta-llama/Llama-2-7b-chat-hf/resolve/main/llama-2-7b.ggml
- Pas
.env
aan:
envKopiërenBewerkenLLM_BACKEND=llama
LLM_MODEL_PATH=/models/llama-2-7b.ggml
- Herstart Casibase:
bashKopiërenBewerkendocker-compose restart
📌 Optie 2: Mistral-7B (Sneller)
- Download het model:
bashKopiërenBewerkenwget -O /models/mistral-7b.ggml https://huggingface.co/mistralai/Mistral-7B-v0.1/resolve/main/mistral-7b.ggml
- Pas
.env
aan:
envKopiërenBewerkenLLM_BACKEND=mistral
LLM_MODEL_PATH=/models/mistral-7b.ggml
- Herstart Casibase:
bashKopiërenBewerkendocker-compose restart
4️⃣ Nederlands Inschakelen
📝 Stap 1: Meertalige Embeddings Instellen
Casibase gebruikt vector embeddings voor tekstvergelijking. Stel een Nederlandstalig embedding-model in .env
:
envKopiërenBewerkenEMBEDDING_MODEL=paraphrase-multilingual-MiniLM-L12-v2
📝 Stap 2: Pas de UI aan
Bewerk frontend/config.json
:
jsonKopiërenBewerken{
"language": "nl",
"welcome_message": "Welkom bij Casibase! Stel hier je vragen.",
"search_placeholder": "Typ je vraag in het Nederlands..."
}
📝 Stap 3: Pas prompts aan
Bewerk .env
:
envKopiërenBewerkenDEFAULT_PROMPT="Beantwoord de volgende vraag in het Nederlands op basis van de kennisdatabase."
Herstart Casibase:
bashKopiërenBewerkendocker-compose restart
5️⃣ Beveiliging & Toegangsbeheer
🔒 Stap 1: Firewall instellen
Beperk toegang tot interne netwerken:
bashKopiërenBewerkensudo ufw allow from 192.168.1.0/24 to any port 8000
sudo ufw enable
🔒 Stap 2: Login & Gebruikersbeheer
Maak een admin-gebruiker:
bashKopiërenBewerkendocker exec -it casibase_backend python manage.py createsuperuser
🔒 Stap 3: Implementeren van SSO
Casibase ondersteunt SSO via OAuth2, Okta, Active Directory.
Voor Google OAuth2, voeg toe aan .env
:
envKopiërenBewerkenAUTH_METHOD=oauth2
OAUTH_CLIENT_ID=xxxxxx
OAUTH_CLIENT_SECRET=xxxxxx
6️⃣ Integratie met Documenten
Casibase ondersteunt:
- PDF, Word, TXT bestanden.
- Google Drive & SharePoint (optioneel).
- API-koppelingen met ERP/CRM-systemen.
Om documenten toe te voegen:
- Log in op Casibase (
http://<server-ip>:8000
). - Ga naar “Documents” > “Upload”.
- Voeg bestanden toe en kies metadata.
7️⃣ Performance & Schaalbaarheid
🚀 Voor Snellere AI-antwoorden:
- Gebruik een NVIDIA GPU (Llama + CUDA).
- Gebruik Redis caching:envKopiërenBewerken
CACHE_BACKEND=redis CACHE_URL=redis://localhost:6379/0
- Load balancing met Nginx:nginxKopiërenBewerken
server { listen 80; server_name casibase.local; location / { proxy_pass http://localhost:8000; } }
🟢 Conclusie
✔ Casibase draait nu volledig on-premise zonder OpenAI!
✔ Klantdata blijft binnen de organisatie.
✔ Lokaal AI-model + vector database zonder internetverbinding.
✔ Nederlandstalige ondersteuning.