xAI a lancé Grok Voice la même semaine qu'OpenAI a déployé GPT-Realtime-2. Pour les développeurs qui choisissent un modèle vocal en 2026, les deux options sont crédibles : parole-à-parole, raisonnement, WebSocket, utilisation d'outils et voix avec intonation humaine. Le choix se joue surtout sur cinq critères : latence, prix, catalogue de voix, profondeur de raisonnement, et besoins spécifiques comme SIP, entrée image ou clonage vocal.
Cet article compare les deux modèles côté implémentation : chiffres clés, surfaces d'API, compromis techniques et recommandations par type d'agent vocal.
Pour les guides détaillés, consultez Comment utiliser GPT-Realtime-2 et Comment utiliser Grok Voice gratuitement. Pour tester l'un ou l'autre modèle sous charge, Apidog gère les sessions WebSocket nativement.
En bref
-
Grok Voice (
grok-voice-think-fast-1.0) est le meilleur choix si la latence est prioritaire : temps avant le premier audio inférieur à 1 seconde selon xAI, avec une affirmation d'environ 5x plus rapide que le concurrent le plus proche. - GPT-Realtime-2 est plus adapté aux agents qui demandent du raisonnement avancé, une entrée image, du SIP natif ou une intégration MCP.
- Côté prix, GPT-Realtime-2 facture l'audio à 32 $/M tokens en entrée et 64 $/M tokens en sortie. Grok Voice ne facture pas l'audio sur console ; vous payez surtout le raisonnement Grok 4.3 à 1,25 $/M tokens d'entrée et 2,50 $/M tokens de sortie.
- Choisissez Grok Voice pour les applications vocales grand public, les volumes élevés, le multilingue large et le clonage vocal.
- Choisissez GPT-Realtime-2 pour les agents complexes, multimodaux, connectés à beaucoup d'outils ou déployés dans des centres d'appels.
- Vous pouvez construire une intégration de test dans Apidog, puis changer de modèle en modifiant l'URL WebSocket.
Tableau comparatif
| Capacité | Grok Voice (grok-voice-think-fast-1.0) |
GPT-Realtime-2 |
|---|---|---|
| Temps avant le premier audio | < 1 seconde selon xAI | Sous la seconde en raisonnement low, plus lent en high / xhigh
|
| Niveaux de raisonnement | faible / moyen / élevé | minimal / faible / moyen / élevé / très élevé |
| Intelligence sous-jacente | Grok 4.3, Indice d'Intelligence 53 | Classe GPT-5 |
| Fenêtre contextuelle | 1 000 000 tokens avec Grok 4.3 | 128 000 tokens |
| Voix prédéfinies | Plus de 80, dont 5 personas d'agent : Eve, Ara, Rex, Sal, Leo | 10 voix : Cedar, Marin, alloy, ash, ballad, coral, echo, sage, shimmer, verse |
| Langues TTS | 28 | Non officiellement comptées |
| Langues STT | 25 | Hérité de GPT-Realtime |
| Clonage vocal | Oui, voix personnalisées avec échantillon d'environ 1 minute, entraînement < 2 minutes | Non |
| Entrée image | Non, texte + audio uniquement | Oui, photo ou capture d'écran |
| MCP distant | Utilisation d'outils oui ; MCP natif non annoncé | Oui, outils MCP exécutés par l'API |
| SIP natif | Fournisseur SIP externe requis |
Oui, endpoint ?call_id={call_id}
|
| Formats audio | PCM16, MP3, μ-law | PCM16, G.711 μ-law, A-law |
| Tarification | Voix gratuite sur console ; raisonnement Grok 4.3 à 1,25 $ / 2,50 $ par million de tokens | 32 $/M audio entrant, 64 $/M audio sortant, 4 $/24 $ par M texte |
| Conformité | SOC 2 Type II, éligible HIPAA avec BAA, RGPD | SOC 2, RGPD selon OpenAI Enterprise |
Latence : choisir selon l'expérience utilisateur
xAI affirme que grok-voice-think-fast-1.0 est presque 5x plus rapide que le concurrent le plus proche. Comme il s'agit d'un benchmark fournisseur, il faut le lire avec prudence. En pratique, la tendance reste claire : Grok Voice descend confortablement sous la seconde pour le premier audio, tandis que GPT-Realtime-2 varie plutôt entre 800 ms et 1500 ms selon le niveau de raisonnement.
Dans un agent vocal, cette différence est très visible. Entre 600 ms et 1200 ms, l'utilisateur passe souvent de :
- “l'agent réagit naturellement”
- à “l'agent marque une pause comme un bot”
Recommandation
Utilisez Grok Voice si votre application est conversationnelle, grand public et sensible à la latence : assistant mobile, onboarding vocal, compagnon interactif, support simple.
Utilisez GPT-Realtime-2 si vous acceptez un peu plus de latence pour obtenir un raisonnement plus robuste.
Prix : calculer le coût par conversation
La comparaison tarifaire n'est pas directe, car les deux modèles ne facturent pas la voix de la même manière.
GPT-Realtime-2
GPT-Realtime-2 facture l'audio en tokens :
- audio entrant : 32 $ / million de tokens
- audio sortant : 64 $ / million de tokens
- texte entrant : 4 $ / million de tokens
- texte sortant : 24 $ / million de tokens
Une seconde d'audio représente environ 50 tokens. Une conversation de 5 minutes avec échanges équilibrés peut donc consommer environ 30 000 tokens audio, soit environ 1,50 $ en E/S audio. L'entrée mise en cache peut réduire fortement les coûts pour les prompts système stables.
Grok Voice
Sur la console xAI, Grok Voice ne facture pas le TTS, le STT, l'agent vocal ou les Voix Personnalisées à la minute ou au token audio. Vous payez le raisonnement Grok 4.3 :
- entrée : 1,25 $ / million de tokens
- sortie : 2,50 $ / million de tokens
Les tokens de raisonnement sont généralement beaucoup moins nombreux que les tokens audio pour une même conversation. Dans l'exemple d'un appel de 5 minutes, le coût peut rester sous 0,10 $.
Recommandation
- > 10 000 minutes/jour : testez Grok Voice en priorité.
- Faible volume mais forte valeur par appel : GPT-Realtime-2 peut être rentable si le raisonnement réduit les erreurs.
- Support FAQ ou scripts simples : Grok Voice est souvent plus économique.
- Agent de vente, conformité, diagnostic ou orchestration d'outils : GPT-Realtime-2 peut justifier son coût.
Pour les détails de tarification de Grok 4.3, consultez Comment utiliser l'API Grok 4.3. Pour la grille tarifaire OpenAI, consultez Tarifs de GPT-5.5.
Raisonnement : GPT-Realtime-2 est plus solide
GPT-Realtime-2 est décrit par OpenAI comme un modèle parole-à-parole de “classe GPT-5”. Il propose cinq niveaux de raisonnement :
minimal
low
medium
high
xhigh
Cela permet d'ajuster la latence et la qualité selon le type de requête.
Exemple de logique de routage côté backend :
function selectReasoningLevel(intent) {
if (intent === "faq" || intent === "smalltalk") return "low";
if (intent === "tool_call" || intent === "sales") return "medium";
if (intent === "legal" || intent === "complex_debug") return "high";
return "medium";
}
Grok Voice utilise Grok 4.3 en dessous. Grok 4.3 est performant, notamment pour les tâches d'agent, mais GPT-Realtime-2 reste plus convaincant pour les conversations qui nécessitent plusieurs étapes de raisonnement, de la désambiguïsation et une orchestration d'outils complexe.
Recommandation
Choisissez GPT-Realtime-2 si l'agent doit :
- comprendre une intention ambiguë ;
- choisir entre plusieurs outils ;
- maintenir un contexte long ;
- expliquer ou corriger une décision ;
- gérer des interruptions utilisateur ;
- traiter des cas métier à fort enjeu.
Pour un agent de support simple avec scripts courts, l'écart est moins important et la latence de Grok Voice peut devenir plus décisive.
Catalogue de voix : Grok pour le choix, OpenAI pour la cohérence
Grok propose plus de 80 voix prédéfinies sur 28 langues. L'agent vocal lui-même utilise cinq personas nommées : Eve, Ara, Rex, Sal et Leo. La surface TTS plus large permet de choisir une voix plus adaptée à une marque, un accent ou un cas d'usage spécifique.
GPT-Realtime-2 propose 10 voix :
Cedar
Marin
alloy
ash
ballad
coral
echo
sage
shimmer
verse
La bibliothèque est plus petite, mais plus homogène. Les voix suivent la même pile audio et le contrôle de l'intonation se comporte de manière plus prévisible.
Recommandation
- Besoin d'une voix personnalisée, régionale ou de marque : Grok Voice.
- Besoin d'une voix stable, cohérente et facile à contrôler : GPT-Realtime-2.
Clonage vocal : uniquement Grok Voice
Les Voix Personnalisées de xAI permettent de cloner une voix à partir d'environ une minute de parole claire. Le service renvoie un voice_id en moins de deux minutes. Ce même voice_id fonctionne ensuite sur l'endpoint TTS et l'agent vocal.
OpenAI n'expose pas actuellement de clonage vocal dans l'API Realtime.
Recommandation
Si le clonage vocal est une exigence produit, choisissez Grok Voice.
Attention : le clonage d'une voix doit être fait avec consentement. Le clonage non autorisé de personnalités publiques ou de tiers viole les conditions d'utilisation des plateformes.
Entrée image : uniquement GPT-Realtime-2
GPT-Realtime-2 accepte texte, audio et images. Vous pouvez envoyer une capture d'écran ou une photo pendant une conversation et demander à l'agent de répondre vocalement.
Cas d'usage typiques :
- support technique guidé par capture d'écran ;
- assistance terrain ;
- accessibilité ;
- QA vocale sur interface visuelle ;
- agent qui commente ce que l'utilisateur voit.
Grok Voice ne prend pas en charge l'entrée image aujourd'hui.
Recommandation
Si l'agent doit “voir” l'écran ou une photo, utilisez GPT-Realtime-2.
Pour approfondir la partie vision, consultez Comment utiliser l'API GPT-Image-2.
SIP et téléphonie : OpenAI est plus direct
GPT-Realtime-2 propose un support SIP natif. Vous pouvez diriger un trunk SIP vers la passerelle OpenAI. Les appels entrants ouvrent ensuite une session WebSocket sur :
wss://api.openai.com/v1/realtime?call_id={call_id}
Cela évite de maintenir votre propre pont téléphonique.
Grok Voice prend en charge la sortie μ-law, utile pour la téléphonie, mais vous devez connecter vous-même un fournisseur SIP comme Twilio, Telnyx ou Plivo. C'est faisable, mais cela ajoute une couche d'ingénierie :
Téléphone utilisateur
↓
Fournisseur SIP
↓
Votre backend de pont audio
↓
WebSocket Grok Voice
Recommandation
Pour un centre d'appels ou un agent téléphonique de production, GPT-Realtime-2 est plus simple à intégrer si vous voulez éviter de construire un pont SIP.
MCP et utilisation d'outils
Les deux modèles prennent en charge l'appel de fonctions, mais pas avec le même niveau d'intégration.
GPT-Realtime-2
GPT-Realtime-2 prend en charge les serveurs MCP distants de manière native. Vous configurez :
- une URL de serveur MCP ;
- une liste blanche d'outils ;
- les règles d'appel ;
- la session Realtime.
L'API peut ensuite exécuter les outils MCP sans que votre serveur applicatif doive orchestrer chaque appel dans la boucle critique.
Grok Voice
Grok Voice prend en charge l'appel de fonctions et fournit un outil web_search intégré. En revanche, MCP n'est pas annoncé comme primitive native de première classe.
Recommandation
- 5 outils ou moins : les deux modèles conviennent.
- Catalogue d'outils large, par exemple 50 endpoints métier : GPT-Realtime-2 avec MCP est plus adapté.
- Agent simple avec recherche web et quelques fonctions : Grok Voice reste suffisant.
Pour tester des serveurs MCP séparément, consultez Test des serveurs MCP dans Apidog.
Exemple de configuration de test WebSocket
L'objectif est de tester les deux modèles avec le même scénario et les mêmes métriques.
Créez deux variables d'environnement :
XAI_API_KEY=...
OPENAI_API_KEY=...
Définissez ensuite deux endpoints WebSocket :
wss://api.x.ai/v1/realtime?model=grok-voice-think-fast-1.0
wss://api.openai.com/v1/realtime?model=gpt-realtime-2
Structurez votre test autour des mêmes étapes :
1. Ouvrir la session WebSocket
2. Envoyer la configuration de session
3. Envoyer un prompt système identique
4. Envoyer les mêmes tours utilisateur
5. Déclencher un appel d'outil
6. Mesurer le temps avant le premier audio
7. Capturer l'audio généré
8. Capturer l'utilisation de tokens
9. Comparer coût, latence et qualité
Métriques minimales à collecter :
first_audio_latency_ms
total_response_time_ms
input_audio_tokens
output_audio_tokens
input_text_tokens
output_text_tokens
tool_call_count
tool_call_success_rate
user_interruptions_handled
Choix rapide par cas d'usage
- Application vocale grand public, fort volume, latence critique : Grok Voice.
- Clonage vocal requis pour une voix de marque ou de personnage : Grok Voice.
- TTS multilingue à grande échelle, plus de 10 langues : Grok Voice.
- Agent vocal qui doit analyser des captures d'écran : GPT-Realtime-2.
- Centre d'appels avec SIP natif : GPT-Realtime-2.
- Agent multi-étapes avec plus de 50 outils : GPT-Realtime-2 avec MCP.
- Conversations à contexte long : GPT-Realtime-2 pour 128k tokens ; Grok 4.3 offre un contexte plus large si vous acceptez les compromis de coût et d'intégration.
- Agent vocal de production le moins cher sur console : Grok Voice.
-
Raisonnement intensif benchmarké : GPT-Realtime-2 avec raisonnement
xhigh.
Plan de test recommandé sur une semaine
Ne choisissez pas uniquement sur fiche produit. Testez les deux sur votre scénario réel.
Jour 1 : définir le scénario
Construisez une conversation de 10 tours avec :
- une salutation ;
- une demande ambiguë ;
- une désambiguïsation ;
- un appel d'outil ;
- une longue réponse ;
- une interruption utilisateur ;
- une reformulation ;
- une conclusion.
Utilisez de vrais enregistrements utilisateur si possible.
Jour 2 : implémenter la session WebSocket
Dans Apidog, créez une collection avec :
- une requête WebSocket Grok ;
- une requête WebSocket OpenAI ;
- des variables pour les clés API ;
- un script de messages JSON identique ;
- un stockage des sorties audio.
Jour 3 : mesurer la latence
Pour chaque modèle, exécutez au moins 20 fois le même scénario.
Mesurez :
p50 first_audio_latency_ms
p95 first_audio_latency_ms
p50 total_response_time_ms
p95 total_response_time_ms
Jour 4 : mesurer le coût
Calculez le coût par conversation, puis extrapolez :
coût_par_conversation × conversations_par_jour × 30
Faites le calcul pour :
- 1 000 minutes/jour ;
- 10 000 minutes/jour ;
- 100 000 minutes/jour.
Jour 5 : tester les outils
Ajoutez vos vrais outils métier :
- CRM ;
- base de connaissances ;
- recherche ;
- réservation ;
- paiement ;
- ticketing ;
- annulation ;
- authentification.
Vérifiez le taux d'appel correct et le taux d'échec.
Jour 6 : tester les cas limites
Ajoutez :
- bruit audio ;
- utilisateur qui interrompt ;
- demande hors périmètre ;
- changement de langue ;
- réponse longue ;
- outil indisponible ;
- mauvaise donnée utilisateur.
Jour 7 : décider
Choisissez le modèle selon vos métriques réelles :
score = latence + coût + qualité + intégration + risque opérationnel
Si les résultats sont proches, gardez une abstraction backend pour pouvoir router dynamiquement.
FAQ
Puis-je utiliser les deux modèles dans la même application ?
Oui. Les deux utilisent des sessions WebSocket et des formes d'événements comparables. Vous pouvez router selon :
- l'intention utilisateur ;
- la langue ;
- le niveau de complexité ;
- le coût ;
- la disponibilité du modèle ;
- le canal, par exemple web, mobile ou téléphone.
Exemple simple :
function selectVoiceModel({ intent, language, needsVision, needsSip }) {
if (needsVision || needsSip) return "gpt-realtime-2";
if (intent === "complex_reasoning") return "gpt-realtime-2";
if (language !== "en") return "grok-voice-think-fast-1.0";
return "grok-voice-think-fast-1.0";
}
Lequel offre la meilleure qualité vocale non anglophone ?
Grok Voice a l'avantage sur la couverture : plus de 80 voix et 28 langues en TTS. Pour les langues couvertes par les deux modèles, la qualité réelle doit être testée langue par langue.
GPT-Realtime-2 vaut-il son prix plus élevé ?
Cela dépend du cas d'usage. Pour une FAQ vocale, probablement non. Pour un agent qui lit un CRM, appelle plusieurs outils, gère des objections et corrige ses erreurs, le raisonnement plus profond peut justifier le coût.
L'un des modèles permet-il de cloner des personnalités publiques ?
Non. Les deux fournisseurs imposent des restrictions. Le clonage vocal doit être basé sur des échantillons consentis. Cloner une personnalité publique sans autorisation viole les conditions de service.
Comment migrer plus tard d'un modèle à l'autre ?
Les noms d'événements diffèrent, mais la structure générale reste similaire :
session setup
input audio/text
model response
tool call
tool result
audio output
session close
Prévoyez surtout du travail sur :
- le payload de
session.update; - les noms d'événements ;
- les formats audio ;
- les métadonnées d'usage ;
- la gestion des tool calls.
Si vous développez avec Apidog, la collection de test reste portable et facilite la comparaison.
En résumé
Il n'y a pas de vainqueur universel entre Grok Voice et GPT-Realtime-2.
Choisissez Grok Voice si vous optimisez pour :
- latence très faible ;
- coût à grande échelle ;
- nombreuses voix ;
- multilingue ;
- clonage vocal.
Choisissez GPT-Realtime-2 si vous optimisez pour :
- raisonnement complexe ;
- entrée image ;
- SIP natif ;
- MCP ;
- orchestration d'outils ;
- agents de centre d'appels.
Pour les cas intermédiaires, développez une fois dans Apidog, testez les deux modèles pendant une semaine, puis choisissez avec vos propres métriques de latence, coût et qualité.
Top comments (0)