Vous aimez ChatGPT mais préférez ne pas envoyer de données à OpenAI ? Utilisez la version locale de ChatGPT. Nous vous expliquons comment démarrer.
ChatGPT contient un LLM (Large Language Model) en arrière-plan. Celui-ci fonctionne sur les serveurs d'OpenAI, où une puissance de calcul considérable assure une réponse immédiate à vos questions. L'inconvénient est que vous utilisez un service cloud. Vos questions (et réponses) ne sont pas privées. Il est préférable de ne pas transmettre des données d'entreprise sensibles pour en tirer des conclusions.
Pour utiliser ChatGPT tout de même, vous pouvez désormais utiliser une version téléchargeable open source. Télécharger et utiliser rapidement ? Malheureusement, ce n'est pas si simple. L'utilisation locale d'un LLM nécessite des outils spécifiques.
Pour ce tutoriel, nous utilisons Ollama, l'une des options les plus conviviales du marché. Les captures d'écran que vous voyez ici proviennent d'un PC Windows, mais les étapes sont identiques pour Mac.
Vous devez parfois attendre des minutes pour une réponse ? Maintenant vous réalisez la puissance de ChatGPT dans le cloud avec des millions de GPU « s qui sont prêts pour vous. En exécutant un modèle localement, vous prenez conscience de la puissance de calcul nécessaire pour les modèles de langage. Et l'énergie nécessaire pour alimenter (et refroidir) les GPU » s. Utilisez donc la version en ligne de ChatGPT de manière judicieuse.
Détail intéressant : le modèle local de ChatGPT indique aussi son raisonnement. Vous pouvez ainsi littéralement suivre comment il veut aborder une question et parfois ajoute une note critique lorsque vous approfondissez les détails ou les faits.
Entre-temps, OpenAI se prépare pour le lancement de GPT-5. GitHub a déjà divulgué les premières données.