Ce glossaire définit les termes techniques et concepts utilisés dans la documentation AlphaEdge AI. Utilisez-le comme référence pour mieux comprendre notre API et nos modèles.
API
API Endpoint
L'URL de base utilisée pour accéder à l'API AlphaEdge. Toutes les requêtes doivent être envoyées à https://api.alphaedge.ai suivi du chemin spécifique de l'endpoint (par exemple /v1/chat/completions).
API Key
Clé d'authentification unique requise pour accéder à l'API AlphaEdge. Elle doit être incluse dans l'en-tête Authorization de chaque requête sous la forme Bearer YOUR_API_KEY. Vous pouvez obtenir une clé API depuis votre tableau de bord.
REST API
L'API AlphaEdge utilise l'architecture REST (Representational State Transfer), un style d'architecture web qui utilise des méthodes HTTP standard (GET, POST, PUT, DELETE) pour communiquer avec le serveur.
Streaming
Mode de réponse où les données sont envoyées progressivement au client au fur et à mesure de leur génération, plutôt qu'en une seule réponse complète. Activez le streaming en définissant le paramètre stream: true dans votre requête.
Modèles
Modèle de langage
Un modèle d'intelligence artificielle entraîné pour comprendre et générer du texte naturel. Les modèles AlphaEdge sont optimisés pour la vitesse et la frugalité énergétique tout en maintenant des performances élevées.
Context Length
La longueur maximale du contexte que le modèle peut traiter en une seule requête, mesurée en tokens. Les modèles AlphaEdge supportent jusqu'à 128K tokens de contexte, permettant de traiter de très longs documents.
Max Output
La longueur maximale de la réponse générée par le modèle, mesurée en tokens. Par défaut, les modèles AlphaEdge génèrent jusqu'à 4K tokens, avec un maximum de 8K tokens pour les réponses plus longues.
Multimodal
Un modèle capable de traiter plusieurs types de données d'entrée, comme le texte et les images. AlphaEdge Vision est un exemple de modèle multimodal qui peut analyser des images et générer des descriptions textuelles.
Tokens
Token
La plus petite unité de texte que le modèle reconnaît. Un token peut être un mot complet, une partie de mot, un nombre, ou même un signe de ponctuation. La tokenisation varie selon la langue et le contexte.
Input Tokens
Les tokens que vous envoyez à l'API dans votre requête, incluant les messages système, les messages utilisateur, et tout autre contenu d'entrée. Les input tokens sont facturés selon le tarif d'entrée.
Output Tokens
Les tokens générés par le modèle dans sa réponse. Les output tokens sont facturés selon le tarif de sortie, qui est généralement plus élevé que le tarif d'entrée car la génération nécessite plus de ressources.
Tokenization
Le processus de division du texte en tokens. Chaque modèle utilise un tokenizer spécifique qui détermine comment le texte est segmenté. La tokenisation affecte le nombre total de tokens et donc le coût de votre requête.
Fonctionnalités
Chat Completions
Endpoint principal permettant d'avoir des conversations avec le modèle. Vous envoyez une série de messages (système, utilisateur, assistant) et le modèle génère une réponse contextuelle basée sur l'historique de la conversation.
Function Calling
Fonctionnalité permettant au modèle d'appeler des fonctions externes pendant la génération. Le modèle peut décider d'appeler une fonction basée sur le contexte de la conversation, permettant une intégration avec des systèmes externes.
Structured Outputs
Capacité du modèle à générer des réponses dans un format structuré spécifique (JSON, XML, etc.) selon un schéma défini. Utile pour intégrer les réponses du modèle directement dans vos applications sans parsing supplémentaire.
FIM (Fill-In-The-Middle)
Technique permettant au modèle de compléter du code ou du texte en remplissant une partie manquante au milieu d'un contexte. Particulièrement utile pour la génération et l'édition de code.
Prefix Completion
Fonctionnalité permettant de fournir un préfixe de texte que le modèle doit compléter. Le modèle génère une continuation naturelle basée sur le préfixe fourni, utile pour l'autocomplétion et la génération de contenu.
Tool Calls
Mécanisme permettant au modèle d'utiliser des outils externes (fonctions, APIs, bases de données) pendant la génération. Le modèle peut décider d'appeler un outil pour obtenir des informations avant de générer sa réponse finale.
Tarification
Prix par million de tokens
Les tarifs AlphaEdge sont exprimés en unités par million (1M) de tokens. Le coût total d'une requête est calculé en multipliant le nombre de tokens utilisés par le prix correspondant, puis en divisant par 1 000 000.
Solde rechargé
Crédits que vous avez achetés et ajoutés à votre compte. Les frais sont déduits de ce solde en priorité après épuisement du solde accordé.
Solde accordé
Crédits gratuits ou promotionnels accordés par AlphaEdge. Ce solde est utilisé en priorité avant le solde rechargé pour couvrir les frais d'utilisation de l'API.