Plus d’options pour le chatbot local ChatRTX de Nvidia : LLM, photos et voix

Nvidia lance une mise à jour majeure de son alternative pour des chatbots qui est exécutée localement. ChatRTX prendra en charge plus de LLM et gérera plus facilement les photos.

Nvidia multiplie les capacités de ChatRTX. L’application prend désormais en charge plus de LLM et la parole, et peut mieux gérer vos photos. ChatRTX est une alternative intéressante aux chatbots d’IA générative classiques, car l’application fonctionne localement. Avec un PC suffisamment puissant (c’est-à-dire équipé d’un GPU Nvidia adéquat), les utilisateurs peuvent parler à leurs propres données à l’aide d’un LLM, sans que les données ou les requêtes ne soient envoyées dans le cloud.

Parole et images

ChatRTX prend en charge les LLM de Google, ChatGLM3 et Gemma. Mistral et Llama 2 étaient déjà inclus. L’outil fonctionne avec vos propres données locales, et on peut donc poser des questions à ce sujet. Grâce au support de Whisper, plus besoin d’écrire pour poser des questions. Les questions parlées sont ainsi converties en requêtes. ChatRTX prend désormais en charge plusieurs langues.

ChatRTX gère aussi mieux vos photos. Grâce à l’intégration de l’algorithme de Pré-formation contrastive language-image d’OpenAI (« Contrastive Language-Image Pre-training », CLIP), il est possible de rechercher instantanément dans vos images, sans avoir besoin d’étiqueter les métadonnées.

Au début, ChatRTX s’appelait Chat with RTX. Selon Nvidia, cet outil n’est encore qu’une démo. Cette démo montre effectivement le futur potentiel du PC IA, en intégrant des capacités très puissantes à l’ordinateur local sans intervention du cloud.

newsletter

Abonnez-vous gratuitement à ITdaily !

Category(Required)
This field is for validation purposes and should be left unchanged.
retour à la maison