LangChain LLM est le sujet de conversation brûlant de la ville. Obtenez un aperçu de ce que c'est et comment vous pouvez commencer avec.

Avec l'introduction de grands modèles de langage (LLM), le traitement du langage naturel a fait parler d'eux sur Internet. De nouvelles applications sont développées quotidiennement grâce à des LLM comme ChatGPT et LangChain.

LangChain est un framework Python open-source permettant aux développeurs de développer des applications alimentées par de grands modèles de langage. Ses applications sont les chatbots, le résumé, le questionnement et la réponse génératifs, et bien d'autres.

Cet article fournira une introduction à LangChain LLM. Il couvrira les concepts de base, comment il se compare à d'autres modèles de langage et comment démarrer avec.

Comprendre le LangChain LLM

Avant d'expliquer le fonctionnement de LangChain, vous devez d'abord comprendre comment fonctionnent les grands modèles de langage. Un grand modèle de langage est un type d'intelligence artificielle (IA) qui

instagram viewer
utilise l'apprentissage en profondeur pour former les modèles d'apprentissage automatique sur des données volumineuses composées de données textuelles, numériques et codées.

La grande quantité de données permet au modèle d'apprendre les modèles existants et les relations entre les mots, les chiffres et les symboles. Cette fonctionnalité permet au modèle d'effectuer un éventail de tâches, telles que :

  • Génération de texte, traduction linguistique, rédaction de contenu créatif, technique et académique, et réponse aux questions précises et pertinentes.
  • Détection d'objets dans les images.
  • Résumé de livres, d'articles et de documents de recherche.

La limitation la plus importante des LLM est que les modèles sont très généraux. Cette caractéristique signifie que malgré leur capacité à effectuer plusieurs tâches efficacement, ils peuvent parfois fournir des réponses générales à des questions ou des invites nécessitant une expertise et une connaissance approfondie du domaine plutôt que des réponses spécifiques réponses.

Développé par Harrison Chase fin 2022, le framework LangChain offre une approche innovante des LLM. Le processus commence par prétraiter les textes du jeu de données en le décomposant en parties plus petites ou résumés. Les résumés sont ensuite intégrés dans un espace vectoriel. Le modèle reçoit une question, recherche les résumés et fournit la réponse appropriée.

La méthode de prétraitement de LangChain est une fonctionnalité essentielle qui est inévitable car les LLM deviennent plus puissants et gourmands en données. Cette méthode est principalement utilisée dans les cas de recherche de code et sémantique car elle permet une collecte et une interaction en temps réel avec les LLM.

LangChain LLM contre. Autres modèles de langage

L'aperçu comparatif suivant vise à mettre en évidence les fonctionnalités et capacités uniques qui distinguent LangChain LLM des autres modèles de langage existants sur le marché :

  • Mémoire: Plusieurs LLM ont une mémoire courte, ce qui entraîne généralement une perte de contexte si les invites dépassent la limite de mémoire. LangChain, cependant, fournit les invites et réponses de chat précédentes, résolvant le problème des limites de mémoire. L'historique des messages permet à un utilisateur de répéter les messages précédents au LLM pour récapituler le contexte précédent.
  • Commutation LLM: Comparé à d'autres LLM qui verrouillent votre logiciel avec l'API d'un seul modèle, LangChain fournit une abstraction qui simplifie le changement de LLM ou l'intégration de plusieurs LLM dans votre application. Ceci est utile lorsque vous souhaitez mettre à niveau vos capacités logicielles à l'aide d'un modèle compact, tel que StableLM de Stability AI, disons à partir du GPT-3.5 d'OpenAI.
  • L'intégration: L'intégration de LangChain dans votre application est facile par rapport aux autres LLM. Il fournit des flux de travail de pipeline via Chaînes et agents, vous permettant d'intégrer rapidement LangChain dans votre application. En termes de pipelines linéaires, les chaînes sont des objets qui relient essentiellement de nombreuses pièces. Les agents sont plus avancés, vous permettant de choisir comment les composants doivent interagir à l'aide de la logique métier. Par exemple, vous pouvez utiliser une logique conditionnelle pour déterminer le prochain plan d'action en fonction des résultats d'un LLM.
  • Transmission de données: En raison de la nature textuelle générale des LLM, il est généralement difficile de transmettre des données au modèle. LangChain résout ce problème en utilisant index. Les index permettent à une application d'importer des données dans des formats variables et de les stocker de manière à pouvoir les servir ligne par ligne à un LLM.
  • Réponses: LangChain fournit des outils d'analyse de sortie pour donner des réponses dans un format approprié, contrairement aux autres LLM dont la réponse modèle consiste en un texte général. Lorsque vous utilisez l'IA dans une application, il est préférable d'avoir une réponse structurée sur laquelle vous pouvez programmer.

Premiers pas avec LangChain LLM

Vous allez maintenant apprendre à implémenter LangChain dans un scénario d'utilisation réel pour comprendre son fonctionnement. Avant de commencer le développement, vous devez configurer l'environnement de développement.

Configuration de votre environnement de développement

D'abord, créer un environnement virtuel et installez les dépendances ci-dessous :

  • OpenAI: Pour intégrer l'API GPT-3 dans votre application.
  • LangChain: Pour intégrer LangChain dans votre application.

À l'aide de pip, exécutez la commande ci-dessous pour installer les dépendances :

 pipenv installer langchain openai

La commande ci-dessus installe les packages et crée un environnement virtuel.

Importer les dépendances installées

Tout d'abord, importez les classes nécessaires telles que LLMChain, OpenAI, ConversationChaîne, et Modèle d'invite du langchain emballer.

depuis langchain importer ConversationChain, OpenAI, PromptTemplate, LLMChain

depuis langchain.memory importer ConversationBufferFenêtreMémoire

Les classes LangChain décrivent et exécutent les chaînes de modèles de langage.

Accéder à la clé API OpenAI

Ensuite, récupérez la clé API OpenAI. Pour accéder à la clé API d'OpenAI, vous devez avoir un compte OpenAI, puis passer à la Plateforme d'API OpenAI.

Sur le tableau de bord, cliquez sur l'icône Profil. Ensuite, cliquez sur le Afficher les clés API bouton.

Ensuite, cliquez sur le Créer une nouvelle clé secrète bouton pour obtenir une nouvelle clé API.

Entrez le nom demandé de la clé API.

Vous recevrez un clef secrète rapide.

Copiez et stockez la clé API dans un endroit sûr pour une utilisation future.

Développement d'une application à l'aide de LangChain LLM

Vous allez maintenant procéder au développement d'une application de chat simple comme suit :

# Personnalisez le modèle LLM 
modèle = Assistant est un grand modèle de langage formé par OpenAI.

{histoire}
Humain: {human_input}
Assistant:

prompt = PromptTemplate (input_variables=["histoire", "entrée_humaine"], modèle=modèle)

Ensuite, vous chargerez la chaîne ChatGPT à l'aide de la clé API que vous avez stockée précédemment.

chatgpt_chain = LLMChain(

llm=OpenAI(openai_api_key="OPENAI_API_KEY",température=0),
invite=invite,
verbeux =Vrai,
mémoire=ConversationBufferWindowMemory (k=2),

)
# Prédire une phrase en utilisant la chaîne chatgpt
sortie = chatgpt_chain.predict(
entrée_humaine="Qu'est-ce que MakeUseOf ?"
)
# Afficher la réponse du modèle
impression (sortie)

Ce code charge la chaîne LLM avec la clé API OpenAI et le modèle d'invite. L'entrée de l'utilisateur est alors fournie et sa sortie est affichée.

Ci-dessus, la sortie attendue.

L'influence croissante des LLM

La consommation de LLM augmente rapidement et modifie la façon dont les humains interagissent avec les machines de connaissance. Des frameworks comme LangChain sont à l'avant-garde pour fournir aux développeurs un moyen simple et fluide de servir les LLM aux applications. Les modèles d'IA générative comme ChatGPT, Bard et Hugging Face ne sont pas non plus en reste dans l'avancement des applications LLM.