Découvrez la puissance de l'API d'OpenAI et toutes les possibilités qu'elle permet.

La puissance générative de ChatGPT a provoqué une frénésie dans le monde de la technologie depuis son lancement. Pour partager l'intuition de l'IA, OpenAI a publié les API ChatGPT et Whisper le 1er mars 2023, pour que les développeurs puissent explorer et consommer dans l'application.

Les API d'OpenAI comportent de nombreux points de terminaison précieux qui facilitent l'intégration de l'IA. Explorons la puissance des API OpenAI pour voir comment elles peuvent vous être utiles.

Que peut faire l'API OpenAI?

Le API OpenAI packs dans un tas d'utilitaires pour les programmeurs. Si vous avez l'intention de fournir quotidiennement une IA intégrée à l'application, OpenAI vous facilitera la vie avec les capacités suivantes.

Discuter

Le point de terminaison d'achèvement de chat de l'API OpenAI aide l'utilisateur final à démarrer une session interactive naturelle et conviviale avec un assistant virtuel utilisant le modèle GPT-3.5-turbo.

instagram viewer

Dans les coulisses, l'appel d'API utilise un tableau de messages de rôles et de contenu. Du côté de l'utilisateur, le contenu est un ensemble d'instructions pour l'assistant virtuel, qui engage l'utilisateur, tandis que pour le modèle, le contenu est sa réponse.

Le rôle de niveau supérieur est le système, où vous définissez la fonction globale de l'assistant virtuel. Par exemple, lorsque le programmeur dit au système quelque chose comme "vous êtes un assistant virtuel utile", vous vous attendez à ce qu'il réponde à diverses questions dans le cadre de sa capacité d'apprentissage.

Après avoir dit qu'il s'agissait d'un "assistant virtuel utile", voici comment s'est déroulée l'une de nos discussions en ligne de commande avec le modèle GPT-3.5-turbo :

Vous pouvez même améliorer les performances du modèle en fournissant des paramètres tels que la température, la pénalité de présence, la pénalité de fréquence, etc. Si vous avez déjà utilisé ChatGPT, vous savez déjà comment fonctionne le modèle d'achèvement de chat d'OpenAI.

Complétion de texte

L'API de complétion de texte fournit des fonctionnalités de conversation, d'insertion de texte et de complétion de texte basées sur des modèles GPT-3.5 avancés.

Le modèle champion du point de terminaison de complétion de texte est text-davinci-003, qui est considérablement plus intuitif que les modèles de langage naturel GPT-3. Le point de terminaison accepte une invite de l'utilisateur, permettant au modèle de répondre naturellement et de compléter des phrases simples à complexes en utilisant un texte convivial.

Bien que le point de terminaison de complétion de texte ne soit pas aussi intuitif que le point de terminaison de chat, il s'améliore à mesure que vous augmentez les jetons de texte fournis au modèle text-davinci-003.

Par exemple, nous avons obtenu des achèvements à moitié cuits lorsque nous avons placé le modèle sur un max_tokens de sept :

Cependant, augmenter le max_tokens à 70 a généré des pensées plus cohérentes :

Discours en texte

Vous pouvez transcrire et traduire un discours audio à l'aide des points de terminaison de transcription et de traduction OpenAI. Les points de terminaison de la parole en texte sont basés sur le modèle Whisper v2-large, développé grâce à une supervision faible à grande échelle.

Cependant, OpenAI dit qu'il n'y a pas de différence entre son modèle Whisper et celui en open source. Il offre donc des possibilités infinies d'intégration d'une IA multilingue de transcription et de traduction dans votre application à grande échelle.

L'utilisation du terminal est simple. Il vous suffit de fournir au modèle un fichier audio et d'appeler le openai. Audio.translate ou openai. Audio.transcribe endpoint pour le traduire ou le transcrire respectivement. Ces points de terminaison acceptent une taille de fichier maximale de 25 Mo et prennent en charge la plupart des types de fichiers audio, y compris mp3, mp4, MPEG, MPGA, m4a, wav et webm.

Comparaison de texte

Le point de terminaison de comparaison de texte de l'API OpenAI mesure la relation entre les textes à l'aide du modèle text-embedding-ada-002, un modèle d'intégration de deuxième génération. L'API d'intégration utilise ce modèle pour évaluer la relation entre les textes en fonction de la distance entre deux points vectoriels. Plus la différence est grande, moins les textes comparés sont liés.

Le point de terminaison d'intégration comprend le regroupement de texte, les différences, la pertinence, les recommandations, les sentiments et la classification. De plus, il facture par volume de jeton.

Bien que la documentation OpenAI indique que vous pouvez utiliser les autres modèles d'intégration de première génération, le premier est meilleur avec un prix moins cher. Cependant, OpenAI avertit que le modèle d'intégration pourrait montrer un biais social envers certaines personnes, comme le prouvent les tests.

Achèvement du code

Le point de terminaison de complétion de code est construit sur le Codex OpenAI, un ensemble de modèles formés à l'aide d'un langage naturel et de milliards de lignes de code provenant de référentiels publics.

Le point de terminaison est en version bêta limitée et gratuit au moment de l'écriture, offrant une prise en charge de nombreux langages de programmation modernes, notamment JavaScript, Python, Go, PHP, Ruby, Shell, TypeScript, Swift, Perl et SQL.

Avec le modèle code-davinci-002 ou code-cushman-001, le point de terminaison de complétion de code peut insérer automatiquement des lignes de code ou faire tourner des blocs de code à partir de l'invite de l'utilisateur. Alors que ce dernier modèle est plus rapide, le premier est la centrale électrique du point de terminaison, car il comporte des insertions de code pour l'auto-complétion du code.

Par exemple, vous pouvez générer un bloc de code en envoyant une invite au point de terminaison dans le commentaire de la langue cible.

Voici quelques réponses que nous avons obtenues lorsque nous avons essayé de générer des blocs de code en Python et JavaScript via le terminal :

Génération d'images

C'est l'une des fonctionnalités les plus intuitives de l'API OpenAI. Basée sur le modèle d'image DALL.E, la fonctionnalité d'image de l'API OpenAI comprend des points de terminaison pour générer, éditer et créer des variations d'image à partir d'invites en langage naturel.

Bien qu'il n'ait pas encore de fonctionnalités avancées comme la mise à l'échelle car il est encore en version bêta, ses sorties non mises à l'échelle sont plus impressionnantes que celles de générative modèles d'art comme Midjourney et diffusion stable.

Lorsque vous atteignez le point de terminaison de génération d'image, il vous suffit de fournir une invite, une taille d'image et un nombre d'images. Mais le point final d'édition d'image vous oblige à inclure l'image que vous souhaitez éditer et un masque RGBA marquant le point d'édition en plus des autres paramètres.

Le point final de variation, en revanche, ne nécessite que l'image cible, le nombre de variations et la taille de sortie. Au moment de la rédaction, les points de terminaison d'image bêta d'OpenAI ne peuvent accepter que des cadres carrés dans la plage 256x256, 512x512 et 1024x1024 pixels.

Nous avons créé une application de génération d'images simple à l'aide de ce point de terminaison, et bien qu'il manque quelques détails, cela a donné un résultat incroyable :

Comment utiliser l'API OpenAI

L'utilisation de l'API OpenAI est simple et suit le modèle de consommation d'API conventionnel.

  1. Installez le openai paquet utilisant pip: pip installer openai.Si vous utilisez Node à la place, vous pouvez le faire en utilisant npm: npm installer openai.
  2. Récupérez vos clés API: Connectez-vous à votre tableau de bord OpenAI et cliquez sur l'icône de votre profil en haut à droite. Aller à Afficher les clés API et cliquez Créer une nouvelle clé secrète pour générer votre clé secrète API.
  3. Effectuez des appels d'API vers les points de terminaison de votre modèle choisi via un langage côté serveur comme Python ou JavaScript (Node). Envoyez-les à vos API personnalisées et testez vos points de terminaison.
  4. Alors récupérer des API personnalisées via JavaScript des frameworks comme React, Vue ou Angular.
  5. Présentez les données (demandes des utilisateurs et réponses des modèles) dans une interface utilisateur visuellement attrayante, et votre application est prête pour une utilisation dans le monde réel.

Que pouvez-vous créer avec l'API OpenAI?

Les API OpenAI créent des points d'entrée pour une utilisation réelle de l'apprentissage automatique et de l'apprentissage par renforcement. Alors que les opportunités de créativité abondent, voici quelques exemples de ce que vous pouvez créer avec les API OpenAI :

  1. Intégrez un chatbot d'assistant virtuel intuitif à votre site Web ou à votre application à l'aide du point de terminaison de chat.
  2. Créez une application d'édition et de manipulation d'images capable d'insérer naturellement un objet dans une image à n'importe quel point spécifié à l'aide des points de terminaison de génération d'image.
  3. Créez un modèle d'apprentissage automatique personnalisé à partir de zéro à l'aide du point de terminaison de réglage fin du modèle d'OpenAI.
  4. Corrigez les sous-titres et les traductions des vidéos, de l'audio et des conversations en direct à l'aide du point de terminaison du modèle de synthèse vocale.
  5. Identifiez les sentiments négatifs dans votre application à l'aide du point de terminaison du modèle d'intégration OpenAI.
  6. Créez des plug-ins de complétion de code spécifiques au langage de programmation pour les éditeurs de code et les environnements de développement intégrés (IDE).

Construisez à l'infini avec les API OpenAI

Notre communication quotidienne implique souvent l'échange de contenu écrit. L'API OpenAI ne fait qu'étendre ses tendances créatives et son potentiel, avec des cas d'utilisation du langage naturel apparemment illimités.

L'API OpenAI n'en est qu'à ses débuts. Mais attendez-vous à ce qu'il évolue avec plus de fonctionnalités au fil du temps.