
I. Présentation
Découvrez comment intégrer l’IA à la suite bureautique ONLYOFFICE sans remettre en cause la confidentialité de vos données : l’application LM Studio va nous permettre d’exécuter un LLM en local. Autrement dit, vous bénéficiez de l’IA sans recourir au Cloud.
L’IA est un formidable outil, y compris dans le cas de l’utilisation d’applications de bureautique. Que ce soit pour résumer un texte ou reformuler une phrase, elle peut s’avérer très pratique au quotidien. Le problème, c’est que l’IA travaille sur nos données et donc ces dernières sont exposées lorsque l’on s’appuie sur un service Cloud (c’est d’autant plus vrai avec les offres gratuites). Pour ne pas remettre en cause la confidentialité des données tout en profitant de l’IA dans les applications de bureautique, il existe une solution gratuite : les applications de bureau ONLYOFFICE et LM Studio.
Cet article explique comment utiliser un modèle d’IA en local avec LM Studio et l’intégrer à ONLYOFFICE pour enrichir la création de documents avec de l’intelligence artificielle, sans dépendre d’outils en ligne.
Avant de commencer, lisez ce qui suit :
Les assistants basés sur l’IA, comme ChatGPT et Copilot, offrent de meilleures performances (et de meilleurs résultats, en fonction des besoins), car les infrastructures sur lesquelles ils sont exécutés sont conçues pour faire tourner ces modèles très gourmands.
Les ressources de votre machine locale ne peuvent pas rivaliser, donc le choix du modèle LLM sélectionné est important. Il est inutile de sélectionner un modèle avec un grand nombre de paramètres si votre machine n’est pas capable de le faire tourner convenablement. Autrement dit, si vous devez attendre 5 minutes pour résumer un texte d’une page, ce n’est surement pas adapté. L’idée étant de trouver un bon compromis entre performance et résultat.
Une machine avec 16 Go de RAM, c’est le strict minimum. 32 Go de RAM, ce sera plus confortable si vous souhaitez utiliser plusieurs applications en même temps, tout en faisant tourner LM Studio. Il est à noter aussi que LM Studio peut tourner sur une machine dédiée que vous interrogez à distance à partir de la suite ONLYOFFICE. Veillez à disposer aussi d’un espace disque confortable, surtout si vous souhaitez télécharger plusieurs LLM en local : chacun d’entre eux peut représenter au moins 10 Go à télécharger.
II. Cas d’usage
Voici quelques exemples d’utilisation concrète de l’IA avec ONLYOFFICE :
Rédaction assistée : générer un texte à partir d’un prompt.
Réécriture de paragraphes : améliorer la clarté, la concision ou le ton d’un texte.
Traduction automatique : traduire un document ou un paragraphe.
Résumé de contenu : générer un résumé d’un document.
Ce sont des cas classiques, mais l’intérêt ici étant de s’appuyer uniquement sur des ressources locales.
III. Installation et configuration de LM Studio
LM Studio est une application gratuite, que ce soit pour un usage personnel ou professionnel, capable de télécharger, exécuter et interroger localement des modèles de langage (LLM). L’interface utilisateur plutôt conviviale permet d’interagir avec ces modèles, mais surtout ce qui est intéressant dans notre cas, c’est la présence d’une API locale ! En effet, celle-ci permet d’interfacer LM Studio, et donc les LLM, avec des applications tierces comme ONLYOFFICE.
Les avantages de LM Studio :
Exécution locale : aucune donnée ne quitte la machine.
Flexibilité : compatibilité avec de nombreux modèles (LLaMA, Mistral, etc.).
Interface simple : gestion simplifiée des modèles et de leur configuration.
API REST locale : permet une intégration facile dans d’autres outils.
Voici les grandes étapes pour installer et configurer LM Studio :
A. Installation de LM Studio
LM Studio est disponible pour Windows, macOS et Linux. On peut le télécharger depuis le site officiel lmstudio.ai. Un exécutable prêt à l’emploi est disponible pour Windows.
L’installation s’effectue facilement, il n’y a pas de choix particulier à faire lors de celle-ci. Vous pouvez décider de l’installer uniquement pour votre session ou pour toutes les sessions. Ce choix n’a pas d’impact sur la suite.
Lors de la première exécution, un assistant se lance. Cliquez sur “Get Started” (ou sur “Skip” en haut à droite).
Positionnez-vous en tant que Power User. Ce choix influence l’interface de LM Studio, et donc les options visibles.
Ensuite, LM Studio propose de télécharger un modèle gratuit de chez OpenAI. Ici, nous allons plutôt regarder du côté des modèles open source de chez Mistral AI, une entreprise française. Cliquez donc sur “Skip” en haut à droite pour éviter de télécharger ce modèle inutilement (soit 12 Go).
Voilà, l’installation est terminée !
B. Téléchargement d’un modèle
LM Studio est désormais installé sur notre machine Windows, mais il n’y a pas de modèle téléchargé en local. Il est donc difficile d’en faire quoi que ce soit. Pour remédier à cela, cliquez sur l’icône “Mes modèles” situé sur la gauche, puis sur le lien “Go and explore some local LLMs!”.
La liste de tous les modèles disponibles s’affiche : il y en a plus de 500 à l’heure actuelle. Si vous recherchez Mistral, vous verrez tous les modèles publiés par Mistral AI. Le modèle NeMo est assez polyvalent et il dispose de 12 milliards de paramètres. Ce n’est pas le plus léger, mais il peut tourner sur un ordinateur personnel bien équipé. Si vous lancez le téléchargement, cela va télécharger un fichier GGUF de 7,48 Go sur votre ordinateur.
Note : pour télécharger d’autres modèles par la suite, il faudra passer directement par le bouton “Loupe” situé sur la gauche.
Une fois le téléchargement terminé, cliquez sur le bouton “Load Model” visible dans la notification en bas à droite.
C. Lancement du serveur API
Actuellement, le LLM est chargé dans LM Studio, donc vous pouvez interagir avec lui par l’intermédiaire de la section “Discussion” (premier bouton dans le menu latéral). Néanmoins, pour autoriser les interactions via l’API, et donc via ONLYOFFICE, il faut activer le mode serveur.
Dans l’onglet “Développeur” (deuxième bouton, en vert, dans le menu latéral), il faut :
Activer l’option au niveau de la ligne “Status:” pour que le statut passe en “Running”.
L’API est accessible via l’adresse http://localhost:1234/v1
Cette configuration permet d’accéder à l’API de LM Studio uniquement en local. Si vous avez besoin d’y accéder depuis une autre machine, cliquez sur le bouton “Settings”, et activez l’option “Servir sur le réseau local”.
Par défaut, LM Studio a tendance à générer des réponses en anglais. En ajoutant une précision du type “Les réponses doivent être rédigées en français.” dans les paramètres de contexte, cela influence ses résultats et permet d’obtenir des résultats en français. Sinon, quand vous lui demandez de résumer un texte, il a tendance à fournir un résumé en anglais…
À ce stade, le modèle LLM est exécuté sur votre serveur AI local.
IV. Intégration de LM Studio avec ONLYOFFICE
ONLYOFFICE propose des outils gratuits et open source, notamment ONLYOFFICE DocSpace et ONLYOFFICE Docs. Mais, dans cet article, nous allons utiliser les applications de bureautique qu’il est possible d’installer sur n’importe quelle machine (pas de dépendance à un serveur).
ONLYOFFICE Desktop Editors permet de créer et modifier des fichiers en local, que ce soit sur Windows, Linux ou Mac. Vous pouvez éditer des documents, des feuilles de calcul, des présentations ou encore des PDF. Les formats de fichiers de Microsoft Office sont supportés, à savoir DOCX, XLSX et PPTX.
A. Télécharger et installer la suite bureautique ONLYOFFICE
Depuis le site officiel d’ONLYOFFICE, vous devez donc télécharger les applications de bureau pour votre OS.
L’installation s’effectue facilement, en quelques clics. Une seule étape est impactante : celle où ONLYOFFICE vous demande de choisir les formats de fichiers pour lesquels vous souhaitez utiliser ONLYOFFICE par défaut. Ce choix vous appartient, mais par défaut, c’est positionné sur “Associer tous”.
Voilà, vous disposez de la suite ONLYOFFICE sur votre machine. Que faire ensuite ?
B. Connecter ONLYOFFICE à l’IA
Dès à présent, vous devez ouvrir l’interface de ONLYOFFICE pour activer et configurer le module IA. Dans l’éditeur, cliquez sur l’onglet “Modules complémentaires” puis sur le “Gestionnaire de plugins”. Ici, vous devez installer le module “AI”, qui est d’ailleurs peut-être déjà actif.
Ensuite, cliquez sur “Plugins d’arrière-plan” et activez le plugin “AI”.
Désormais, vous devez configurer le module AI d’ONLYOFFICE pour qu’il interroge LM Studio via l’API. Cliquez sur l’onglet “AI” puis sur “Paramètres”. Cliquez ensuite sur “Modifier les modèles d’IA”. Il est important de comprendre que ONLYOFFICE peut solliciter des modèles différents (locaux ou distants), en fonction du type de tâches à accomplir.
Cliquez sur le “+” pour ajouter un nouveau modèle et, dans la liste des fournisseurs, choisissez “LM Studio”. ONLYOFFICE va directement détecter l’instance LM Studio sur votre machine locale et afficher le nom du LLM téléchargé précédemment. Vous devez aussi spécifier pour quels types de tâches utiliser ce modèle : texte, image, traitement de l’audio, etc… C’est bien vu de la part d’ONLYOFFICE puisque certains modèles sont conçus pour des usages spécifiques.
Au-delà de LM Studio, vous pouvez solliciter OpenAI, Google Gemini, Deepseek, Mistral AI (en direct), ou encore GPT4All : mais attention à la confidentialité de vos données, et surtout, les API des services Cloud sont souvent payantes ou limitées.
Dans cet exemple, le modèle est associé à différentes tâches liées au traitement du texte et à la partie chatbot. Vous pouvez ajouter plusieurs fois votre instance LM Studio pour pointer vers des modèles différents. Par exemple, le modèle mistral-ocr-2505 de chez Mistral AI est adapté pour l’OCR.
Le déploiement est désormais opérationnel ! Vous pouvez tester avec une simple requête auprès du chatbot.
C. Utilisation de l’IA
Au-delà du chatbot classique à partir duquel vous pouvez amorcer une conversation, l’IA dans ONLYOFFICE intègre des fonctionnalités pour résumer, reformuler, traduire, etc… Elles sont visibles dans le menu contextuel. Par exemple :
Vous pouvez tout à fait sélectionner un texte et lui demander de le réécrire. Il n’est pas possible, depuis ONLYOFFICE, de spécifier le ton ou d’influencer la réponse. Voici un exemple où l’opération a été effectuée en 13 secondes.
Texte original rédigé par mes soins :
“En cette fin d’année 2025, la migration d’un parc informatique de Windows 10 vers Windows 11 est un enjeu important pour de nombreuses entreprises et pour les administrateurs système en charge de réaliser ce projet. Pour effectuer cette transition, il existe des outils Microsoft et des solutions tierces, notamment WAPT, une solution développée du côté de Nantes par l’entreprise française Tranquil IT. Comment utiliser WAPT pour migrer son parc informatique de Windows 10 vers Windows 11 ? Réponse dans cet article.”
Texte réécrit par l’IA locale :
“En fin d’année 2025, la migration d’un parc informatique sous Windows 10 vers Windows 11 sera un enjeu crucial pour de nombreuses entreprises et leurs administrateurs système. Pour effectuer cette transition, Microsoft propose des outils ainsi que des solutions tierces, notamment WAPT, développé par l’entreprise française Tranquil IT basée à Nantes. Découvrez dans cet article comment utiliser WAPT pour migrer votre parc informatique de Windows 10 vers Windows 11.”
Le Chatbot ne tient pas compte du document actuel comme contexte, mais il peut fournir des informations génériques pour répondre à vos interrogations. Par contre, les actions sur le texte sont liées directement au texte sélectionné.
Texte traduit en anglais par l’IA locale :
“In late 2025, the migration of a computer park from Windows 10 to Windows 11 is an important challenge for many companies and system administrators in charge of carrying out this project. To perform this transition, there are Microsoft tools and third-party solutions, such as WAPT, a solution developed by French company Tranquil IT based in Nantes. How to use WAPT to migrate your computer park from Windows 10 to Windows 11? Answer in this article.”
V. Conclusion
Associer LM Studio à ONLYOFFICE permet de bénéficier des avantages de l’IA tout en gardant le contrôle complet sur son environnement et ses données. En effet, l’exécution locale évite la transmission de données à des services Cloud.
Cet usage est intéressant si vous disposez d’une machine performante, qu’elle soit sous Windows, Linux ou Mac. Les possesseurs de Mac avec les puces Apple ont généralement de bons résultats grâce aux performances des puces Apple. Dans le cadre de ces tests, je me suis appuyé sur une machine GEEKOM A9 MAX, équipée d’un processeur AMD avec NPU et de 32 Go de RAM.
Cet article a été sponsorisé par ONLYOFFICE.
Ingénieur système et réseau, cofondateur d’IT-Connect et Microsoft MVP “Cloud and Datacenter Management”. Je souhaite partager mon expérience et mes découvertes au travers de mes articles. Généraliste avec une attirance particulière pour les solutions Microsoft et le scripting. Bonne lecture.
