Les modèles GPT d'OpenAI ont révolutionné le traitement du langage naturel (NLP), mais à moins que vous ne payiez pour une prime accéder aux services d'OpenAI, vous ne pourrez pas affiner et intégrer leurs modèles GPT dans votre applications. De plus, OpenAI aura accès à toutes vos conversations, ce qui peut poser un problème de sécurité si vous utilisez ChatGPT pour les affaires et d'autres domaines plus sensibles de votre vie. Si vous n'aimez pas cela, vous pouvez essayer GPT4All.

Alors, qu'est-ce que GPT4All? Comment ça marche, et pourquoi l'utiliser sur ChatGPT ?

Qu'est-ce que GPT4All?

GPT4All est un écosystème open source utilisé pour intégrer des LLM dans des applications sans payer pour une plate-forme ou un abonnement matériel. Il a été créé par Nomic AI, une société de cartographie de l'information qui vise à améliorer l'accès aux ressources de l'IA.

GPT4All est conçu pour fonctionner sur des PC modernes à relativement modernes sans avoir besoin d'une connexion Internet ou même d'un GPU! Cela est possible car la plupart des modèles fournis par GPT4All ont été quantifiés pour être aussi petits que quelques gigaoctets, ne nécessitant que 4 à 16 Go de RAM pour fonctionner.

Cela permet aux petites entreprises, aux organisations et aux chercheurs indépendants d'utiliser et d'intégrer un LLM pour des applications spécifiques. Et avec GPT4All facilement installable via un programme d'installation en un clic, les gens peuvent désormais utiliser GPT4All et bon nombre de ses LLM pour la création de contenu, l'écriture de code, la compréhension de documents et d'informations rassemblement.

Pourquoi utiliser GPT4ALL plutôt que ChatGPT?

Crédit image: bruce mars/Unsplash

Il existe plusieurs raisons pour lesquelles vous pourriez vouloir utiliser GPT4All sur ChatGPT.

  • Portabilité: Les modèles fournis par GPT4All ne nécessitent que quatre à huit gigaoctets de stockage de mémoire, ne nécessitent pas de GPU pour fonctionner et peuvent facilement être enregistrés sur une clé USB avec le programme d'installation en un clic de GPT4All. Cela rend GPT4All et ses modèles vraiment portables et utilisables sur à peu près n'importe quel ordinateur moderne.
  • Confidentialité et sécurité: Comme expliqué précédemment, à moins que vous n'ayez accès à ChatGPT Plus, toutes vos conversions ChatGPT sont accessibles par OpenAI. GPT4All se concentre sur la transparence et la confidentialité des données; vos données ne seront enregistrées que sur votre matériel local, sauf si vous les partagez intentionnellement avec GPT4All pour aider à développer leurs modèles.
  • Mode hors-ligne: GPT est un modèle propriétaire nécessitant un accès API et une connexion Internet constante pour interroger ou accéder au modèle. Si vous perdez une connexion Internet ou rencontrez un problème de serveur, vous n'aurez pas accès à ChatGPT. Ce n'est pas le cas avec GPT4All. Étant donné que toutes les données sont déjà stockées sur un package de quatre à huit gigaoctets et que l'inférence est effectuée localement, vous n'avez pas besoin d'une connexion Internet pour accéder aux modèles de GPT4All. Vous pouvez continuer à discuter et à affiner votre modèle même sans connexion Internet.
  • Gratuit et Open Source: Plusieurs LLM fournis par GPT4All sont sous licence GPL-2. Cela permet à quiconque d'affiner et d'intégrer ses propres modèles à des fins commerciales sans avoir à payer de licence.

Comment fonctionne GPT4All

Comme indiqué précédemment, GPT4All est un écosystème utilisé pour former et déployer des LLM localement sur votre ordinateur, ce qui est un exploit incroyable! En règle générale, le chargement d'un LLM standard de 25 à 30 Go nécessiterait 32 Go de RAM et un GPU de niveau entreprise.

Pour comparer, les LLM que vous pouvez utiliser avec GPT4All ne nécessitent que 3 Go à 8 Go de stockage et peuvent fonctionner sur 4 Go à 16 Go de RAM. Cela rend possible l'exécution d'un LLM entier sur un périphérique périphérique sans avoir besoin d'un GPU ou d'une assistance cloud externe.

La configuration matérielle requise pour exécuter des LLM sur GPT4All a été considérablement réduite grâce à la quantification du réseau de neurones. En réduisant le poids de précision et les activations dans un réseau de neurones, de nombreux modèles fournis par GPT4All peuvent être exécutés sur la plupart des ordinateurs relativement modernes.

Les données de formation utilisées dans certains des modèles disponibles ont été collectées via "la pile", qui ne sont que des données extraites du contenu publié publiquement sur Internet. Les données sont ensuite envoyées à la base de données Atlas AI de Nomic AI, qui peut être vue sur la base de corrélations sur une carte vectorielle 2D facile à voir (également connue sous le nom de une base de données de vecteurs IA).

En formant le modèle Groovy à Nomic AI et en utilisant des données accessibles au public, Nomic AI a pu publier le modèle sur une licence GPL ouverte qui permet à quiconque de l'utiliser, même pour des applications commerciales.

Comment installer GPT4All

L'installation de GPT4All est simple, et maintenant que la version 2 de GPT4All est sortie, c'est encore plus simple! La meilleure façon d'installer GPT4All 2 est de télécharger le programme d'installation en un clic :

Télécharger:GPT4All pour Windows, macOS ou Linux (gratuit)

Les instructions suivantes concernent Windows, mais vous pouvez installer GPT4All sur chaque système d'exploitation majeur.

Une fois téléchargé, double-cliquez sur le programme d'installation et sélectionnez Installer. Windows Defender peut considérer l'installation comme malveillante car le processus permettant à Microsoft de donner des signatures valides pour les applications tierces peut prendre beaucoup de temps. Cependant, cela devrait être corrigé prochainement. Au moment d'écrire ces lignes, tant que vous avez téléchargé l'application GPT4All sur le site officiel, vous devriez être en sécurité. Cliquer sur Installer quand même pour installer GPT4All.

Une fois que vous ouvrez l'application, vous devrez sélectionner un modèle à utiliser. GPT4ALL met à votre disposition plusieurs modèles, qui auront tous leurs forces et leurs faiblesses. Pour savoir quel modèle télécharger, voici un tableau montrant leurs forces et leurs faiblesses.

Modèle

Taille

Note

Paramètres

Taper

Quantification

Hermès

7,58 Go

  • Basé sur les instructions
  • Donne de longues réponses
  • Organisé avec 300 000 instructions non censurées
  • Ne peut pas être utilisé commercialement

13 milliards

Lama

q4_0

GPT4All Falcon

3,78 Go

  • Réponses rapides
  • Instruction basée
  • Licence pour un usage commercial

7 milliards

Faucon

q4_0

Sensationnel

8 Go

  • Réponses rapides
  • -Réponses créatives
  • Instruction basée
  • Licence pour un usage commercial

7 milliards

GPT-J

q4_0

ChatGPT-3.5 Turbo

Minimal

  • Nécessite une API personnelle
  • Enverra vos chats à OpenAI
  • GPT4All n'est utilisé que pour communiquer avec OpenAI

?

Google Tag

N / A

ChatGPT-4

Minimal

  • Nécessite une API personnelle
  • Enverra vos chats à OpenAI
  • GPT4All n'est utilisé que pour communiquer avec OpenAI

?

Google Tag

N / A

Sommeil

7,58 Go

  • Instruction basée
  • Plus lent que Groovy mais avec des réponses de meilleure qualité
  • Ne peut pas être utilisé commercialement

13 milliards

Lama

q4_0

Chat MPT

4,52 Go

  • Réponses rapides
  • Basé sur le chat
  • Ne peut pas être utilisé commercialement

7 milliards

MPT

q4_0

Orque

3,53 Go

  • Instruction basée
  • Explique les ensembles de données optimisés
  • Approches de construction d'ensembles de données d'Orca Research Paper
  • Licence pour un usage commercial

7 milliards

OpenLLaMA

q4_0

Vigogne

3,92 Go

  • Instruction basée
  • Ne peut pas être utilisé commercialement

7 milliards

Lama

q4_2

Magicien

3,92 Go

  • Instruction basée
  • Ne peut pas être utilisé commercialement

7 milliards

Lama

q4_2

Assistant non censuré

7,58 Go

  • Instruction basée
  • Ne peut pas être utilisé commercialement

13 milliards

Lama

q4_0

Gardez à l'esprit que les modèles fournis ont différents niveaux de restrictions. Tous les modèles ne peuvent pas être utilisés gratuitement dans le commerce; certains auront besoin de plus de ressources matérielles, tandis que d'autres auront besoin d'une clé API. Les modèles les moins restrictifs disponibles dans GPT4All sont Groovy, GPT4All Falcon et Orca.

Pouvez-vous former des modèles GPT4All?

Oui, mais pas les versions quantifiées. Pour affiner efficacement les modèles GPT4All, vous devez télécharger les modèles bruts et utiliser des GPU de niveau entreprise tels que Les accélérateurs Instinct d'AMD ou les GPU Ampere ou Hopper de NVIDIA. De plus, vous devrez former le modèle via un cadre de formation AI comme LangChain, ce qui nécessitera des connaissances techniques.

Le réglage fin d'un modèle GPT4All nécessitera des ressources monétaires ainsi qu'un certain savoir-faire technique, mais si vous souhaitez uniquement alimenter un modèle GPT4All en données personnalisées, vous pouvez continuer à former le modèle grâce à la génération augmentée de récupération (qui aide un modèle de langage à accéder et à comprendre des informations en dehors de sa formation de base pour compléter Tâches). Vous pouvez le faire en demandant au GPT4All de modéliser vos données personnalisées avant de poser une question. Les données personnalisées doivent être enregistrées localement et, lorsque vous y êtes invité, le modèle doit être en mesure de vous fournir les informations que vous avez fournies.

Devriez-vous utiliser GTP4All?

L'idée de GPT4All est de fournir une plate-forme gratuite et open source où les gens peuvent exécuter de grands modèles de langage sur leurs ordinateurs. Actuellement, GPT4All et ses modèles quantifiés sont parfaits pour expérimenter, apprendre et essayer différents LLM dans un environnement sécurisé. Pour les charges de travail professionnelles, nous recommandons toujours d'utiliser ChatGPT car le modèle est beaucoup plus performant.

Dans l'ensemble, il n'y a aucune raison pour que vous vous limitiez à un seul. Étant donné que leur cas d'utilisation ne se chevauche pas, vous devriez essayer d'utiliser les deux.