Intelligence artificielle

Assistant local (Ollama)

Le mode local connecte l'assistant IA intégré à Ordicab à un modèle de langage qui tourne entièrement sur votre machine, via Ollama. Aucune donnée ne quitte votre ordinateur — confidentialité totale, sans compromis.

Principe

Ollama est un outil open source qui permet de télécharger et d'exécuter des modèles de langage (Llama, Mistral, Qwen, Phi…) localement sur votre machine, sans connexion internet. Ordicab se connecte à Ollama via une interface locale pour alimenter son assistant IA intégré.

Tout reste sur votre disque : vos questions, les données de vos dossiers, les réponses du modèle. Aucun tiers n'y a accès.

Prérequis

Un ordinateur relativement récent est recommandé. Les performances dépendent de la puissance de votre machine et du modèle choisi. Sur un Mac avec puce Apple Silicon (M1/M2/M3/M4), les modèles 7B–13B paramètres sont fluides. Sur Windows avec un GPU récent, les résultats sont similaires.

Installation et configuration

  1. Installez Ollama depuis ollama.com. L'installation est disponible pour macOS, Windows et Linux.
  2. Téléchargez un modèle. Ouvrez un terminal et exécutez par exemple :
    ollama pull llama3
    D'autres modèles sont disponibles sur ollama.com/library. Pour un usage juridique ou professionnel, mistral ou qwen3 sont également de bons choix.
  3. Dans Ordicab, ouvrez Paramètres → Configuration IA et sélectionnez Local (Ollama).
  4. Vérifiez l'endpoint. Par défaut, Ordicab pointe vers http://localhost:11434 — c'est l'adresse standard d'Ollama. Si vous avez configuré un port différent, modifiez-le ici.
  5. Sélectionnez le modèle que vous venez de télécharger dans la liste déroulante, puis cliquez sur Vérifier la connexion.
  6. Ordicab confirme la connexion. L'assistant IA est maintenant disponible dans l'interface.
Confidentialité maximale.
En mode local, aucune donnée ne sort de votre machine. C'est le seul mode compatible avec les obligations de secret professionnel les plus strictes (avocat, médecin, notaire…) sans nécessiter d'accord avec un sous-traitant de données.

L'assistant intégré

Une fois le mode local activé, l'onglet Assistant IA d'Ordicab affiche un chat directement dans l'application. L'assistant connaît le contexte du dossier actif — il peut répondre à des questions sur un dossier, aider à rédiger, reformuler ou analyser un texte.

Des outils spécialisés permettent aussi à Ordicab de piloter l'IA pour des opérations structurées : mise à jour de contacts, extraction de dates, annotation de documents. Le résultat est validé par Ordicab avant d'être appliqué.

Limitations

Les modèles locaux sont moins puissants que les grands modèles cloud (GPT-4, Claude 3 Opus…). Pour des tâches simples — résumé, reformulation, extraction de dates, saisie de coordonnées — ils sont tout à fait adaptés. Pour des analyses juridiques complexes ou la rédaction de documents longs et structurés, un modèle cloud via API donnera de meilleurs résultats.

Pas de pseudonymisation nécessaire.
En mode local, vos données ne quittent jamais votre machine. La pseudonymisation n'a pas d'utilité ici — elle est réservée aux modes qui transmettent des données à l'extérieur.
Suivant : Assistant via API →