Le GPT-5.5 d'OpenAI est livré avec une API payante : 5 $ par million de jetons d'entrée, 30 $ par million de jetons de sortie. Pour un projet annexe, un hackathon ou une application publique gratuite, cette facture peut bloquer le lancement. Une alternative côté navigateur consiste à utiliser Puter.js : il expose le catalogue OpenAI (GPT-5.5, GPT-5.5 Pro, variantes GPT-5.x, GPT-Image-2, DALL-E, OpenAI TTS) sans clé OpenAI côté développeur, avec une facturation portée par l'utilisateur final via son compte Puter.
En bref
- Puter.js donne accès aux modèles OpenAI depuis le navigateur, sans clé API OpenAI, sans compte OpenAI côté développeur et sans backend.
- Les modèles texte pris en charge incluent gpt-5.5, gpt-5.5-pro, gpt-5.4, gpt-5, gpt-5-mini, o1, o3, gpt-4.1, gpt-4o, ainsi que les variantes chat et codex.
- Image : gpt-image-2, gpt-image-1.5, dall-e-3.
- Synthèse vocale : gpt-4o-mini-tts, tts-1, tts-1-hd.
- Une balise
<script>, un appelputer.ai.chat(), et vous pouvez interroger GPT-5.5. - Streaming, appel de fonctions, entrée visuelle, génération d'images et TTS fonctionnent dans le navigateur.
- L'utilisateur final couvre son utilisation depuis un compte Puter ; vous ne portez pas la facture.
- Utilisez Apidog pour comparer le même prompt entre Puter et l'API officielle OpenAI lors d'une migration.
Comment fonctionne le “gratuit illimité”
Puter.js inverse le modèle classique de facturation des LLM.
Au lieu de :
- créer un compte OpenAI ;
- stocker une clé API ;
- payer tous les jetons consommés par vos utilisateurs ;
vous exécutez les appels depuis le navigateur via Puter. L'utilisateur final se connecte à Puter, puis l'appel est facturé sur son solde Puter. Les nouveaux comptes reçoivent un crédit de démarrage ; les utilisateurs peuvent recharger s'ils veulent continuer.
Concrètement, pour vous :
- Pas de clé OpenAI dans le dépôt : pas de fuite de clé, pas de rotation, pas de variable d'environnement à gérer.
- Pas de plafond global côté développeur : chaque utilisateur consomme via son propre compte Puter.
- Pas d'exposition directe à la facturation OpenAI : vous ne recevez pas la facture des usages finaux.
Le compromis : Puter est conçu d'abord pour le navigateur. Un script backend Node.js ne peut pas l'utiliser proprement sans session utilisateur connectée. Pour les jobs serveur, webhooks, batchs ou tâches cron, l'API officielle OpenAI reste le bon choix.
Étape 1 : Installer Puter.js
Pour un prototype, un site statique ou une page HTML simple, ajoutez le CDN :
<script src="https://js.puter.com/v2/"></script>
C'est suffisant pour commencer.
Pour une application packagée :
npm install @heyputer/puter.js
Puis importez le SDK :
import { puter } from '@heyputer/puter.js';
Utilisez :
- le CDN pour les prototypes, hackathons, sites statiques et extensions navigateur ;
- le package NPM si vous voulez une intégration avec bundler, tree-shaking ou TypeScript.
Étape 2 : Choisir le modèle
Puter expose la gamme GPT-5.x ainsi que des modèles OpenAI plus anciens.
| ID du modèle | Quand l'utiliser |
|---|---|
gpt-5.5-pro |
Raisonnement profond, agents de codage, analyse complexe |
gpt-5.5 |
Modèle par défaut pour un bon équilibre qualité/coût |
gpt-5.4-nano |
Texte rapide et moins coûteux, classification à grand volume |
gpt-5.4-mini |
Interfaces de chat et tâches intermédiaires |
gpt-5.3-codex |
Tâches spécifiques au code |
o3 |
Raisonnement complexe |
o1-pro |
Planification multi-étapes |
gpt-4.1, gpt-4o, gpt-4o-mini
|
Base stable et largement comprise |
Pour la génération d'images :
-
gpt-image-2: modèle récent, sortie nette, rapide. -
gpt-image-1.5,gpt-image-1,dall-e-3,dall-e-2: modèles plus anciens mais stables.
Pour la synthèse vocale :
-
gpt-4o-mini-tts: modèle TTS récent, voix plus naturelle. -
tts-1,tts-1-hd: TTS classique, latence plus faible.
Étape 3 : Appeler GPT-5.5 depuis une page HTML
Voici l'appel minimal :
<!DOCTYPE html>
<html>
<body>
<script src="https://js.puter.com/v2/"></script>
<script>
puter.ai.chat(
"Expliquez les WebSockets en trois phrases",
{ model: "gpt-5.5" }
).then(response => {
puter.print(response);
});
</script>
</body>
</html>
Ouvrez ce fichier dans un navigateur. Puter gère l'appel, l'utilisateur se connecte ou crée un compte Puter lors de la première utilisation, puis la réponse s'affiche sur la page.
Aucun backend, aucune clé OpenAI, aucune variable d'environnement.
Étape 4 : Diffuser la réponse en streaming
Pour une interface de chat, activez le streaming afin d'afficher la réponse au fil de l'eau :
const response = await puter.ai.chat(
"Expliquez la théorie de la relativité en détail",
{
model: "gpt-5.5",
stream: true
}
);
for await (const part of response) {
puter.print(part?.text);
}
Chaque part.text contient un bloc de texte. Dans une vraie interface, ajoutez ce bloc à la bulle de chat courante :
const chatBubble = document.querySelector("#assistant-message");
for await (const part of response) {
chatBubble.textContent += part?.text ?? "";
}
Étape 5 : Analyser une image avec GPT-5.5
Pour utiliser l'entrée visuelle, passez une URL d'image comme deuxième argument :
puter.ai.chat(
"Que voyez-vous sur cette image ? Décrivez les couleurs, les objets et l'ambiance.",
"https://assets.puter.site/doge.jpeg",
{ model: "gpt-5.5" }
).then(response => {
puter.print(response);
});
Cas d'utilisation :
- génération de texte alternatif ;
- QA visuel ;
- analyse de captures d'écran ;
- OCR ;
- outils d'accessibilité ;
- validation visuelle dans une interface utilisateur.
Étape 6 : Générer des images
La fonction txt2img() renvoie directement un élément <img> déjà chargé :
puter.ai.txt2img(
"Une ville futuriste la nuit, cinématographique, néon, pluie",
{ model: "gpt-image-2" }
).then(imageElement => {
document.body.appendChild(imageElement);
});
Pour l'intégrer dans une zone spécifique de votre UI :
const container = document.querySelector("#generated-image");
puter.ai.txt2img(
"Une icône minimaliste de robot assistant, fond blanc",
{ model: "gpt-image-2" }
).then(imageElement => {
container.innerHTML = "";
container.appendChild(imageElement);
});
L'utilisateur paie la génération depuis son solde Puter. Pour une application publique gratuite de génération d'images, cette architecture évite de porter vous-même le coût de chaque image.
Étape 7 : Générer de la synthèse vocale
La ligne TTS d'OpenAI est exposée via txt2speech() :
puter.ai.txt2speech(
"Bienvenue de nouveau. Le solde de votre compte est de 1 247,50 $.",
{
provider: "openai",
model: "gpt-4o-mini-tts"
}
).then(audio => {
audio.setAttribute("controls", "");
document.body.appendChild(audio);
});
Exemples d'usage :
- messages vocaux dans une application ;
- voix off ;
- narration d'accessibilité ;
- introduction audio ;
- prototype d'assistant vocal.
Étape 8 : Utiliser l'appel de fonctions
Puter reprend la forme standard d'OpenAI : vous déclarez des outils, le modèle émet des tool_calls, puis vous exécutez la fonction de votre côté.
const tools = [{
type: "function",
function: {
name: "get_weather",
description: "Obtenir la météo actuelle pour une ville.",
parameters: {
type: "object",
properties: {
city: {
type: "string"
}
},
required: ["city"]
}
}
}];
const response = await puter.ai.chat(
"Quel temps fait-il à Tokyo en ce moment ?",
{
model: "gpt-5.5",
tools
}
);
const toolCalls = response.message.tool_calls;
if (toolCalls?.length) {
console.log(
toolCalls[0].function.name,
toolCalls[0].function.arguments
);
}
Dans une application réelle, le flux ressemble à ceci :
- envoyer le prompt et la définition des outils ;
- lire
response.message.tool_calls; - exécuter la fonction correspondante côté application ;
- renvoyer le résultat au modèle si nécessaire ;
- afficher la réponse finale.
La forme des outils étant compatible avec OpenAI, vos définitions existantes sont portables. Pour tester des flux basés sur des outils dans un environnement de production, consultez les tests de serveur MCP dans Apidog.
Étape 9 : Ajuster temperature et max_tokens
Les paramètres OpenAI standards se passent dans l'objet d'options :
const response = await puter.ai.chat(
"Parlez-moi de Mars",
{
model: "gpt-5.5",
temperature: 0.2,
max_tokens: 200
}
);
Recommandations pratiques :
-
temperature: 0.0à0.3: réponses factuelles, extraction, classification. -
temperature: 0.7à1.0: brainstorming, rédaction créative, reformulation. -
max_tokens: limite la longueur de sortie et rend le coût côté utilisateur plus prévisible.
Pour une application publique, définissez toujours un max_tokens raisonnable afin d'éviter des réponses trop longues.
Ce que vous obtenez, et ce que vous n'obtenez pas
L'accès via Puter couvre beaucoup de cas d'usage côté navigateur, mais ce n'est pas une copie complète de toute la surface de l'API officielle OpenAI.
Vous obtenez
- Le catalogue GPT-5.x, y compris 5.5, 5.5 Pro, 5.4 mini/nano/pro et les variantes codex.
- Les modèles OpenAI plus anciens comme GPT-4.1, GPT-4o, o1 et o3.
- GPT-Image-2 et DALL-E pour la génération d'images.
- La gamme OpenAI TTS, dont
gpt-4o-mini-tts. - Streaming.
- Vision.
- Appel de fonctions.
- Contrôle de
temperature. - Contrôle de
max_tokens.
Vous pourriez ne pas obtenir
- L'API Responses.
- Les réductions liées à la mise en cache des prompts.
- L'API Files pour le contexte de documents téléchargés.
- L'utilisation serveur sans contexte de navigateur.
- Les en-têtes de limitation de débit directs d'OpenAI.
- Le mode de sortie structurée et l'application stricte du schéma JSON d'OpenAI.
Pour les flux de production avancés, l'API officielle OpenAI reste plus adaptée. Pour les applications navigateur, les prototypes, les sites statiques et les outils publics, Puter peut suffire.
Quand utiliser Puter ou l'API officielle OpenAI
Utilisez Puter quand
- Vous lancez une application publique gratuite et ne voulez pas porter la facture.
- Vous prototypez sans créer de relation de facturation OpenAI.
- Vous développez un site statique, une extension navigateur ou un projet de hackathon.
- Vous n'avez pas besoin de backend.
- Vos utilisateurs peuvent se connecter à Puter.
Utilisez l'API officielle OpenAI quand
- Vous avez besoin d'appels côté serveur : cron, webhooks, batchs, workers.
- Vous voulez utiliser la mise en cache des prompts.
- Vous avez besoin de l'API Responses, Files ou des sorties structurées complètes.
- Vous avez des exigences contractuelles ou de conformité.
- Vos utilisateurs ne doivent pas passer par une connexion Puter.
Une approche simple consiste à démarrer avec Puter pour valider le produit, puis à migrer vers l'API officielle lorsque vous atteignez une limite technique ou produit.
Pour une configuration de production payante, consultez Comment utiliser l'API GPT-5.5.
Tester l'intégration dans Apidog
Les appels Puter s'exécutent dans le navigateur. Vous ne pouvez donc pas les tester exactement comme une API backend classique depuis un runner serveur.
Un modèle de test pratique :
- Créez une petite page statique avec le script Puter.
- Ajoutez un paramètre de requête pour injecter le prompt.
- Gardez cette page comme environnement de prototype.
- Utilisez Apidog pour valider l'équivalent côté API OpenAI officielle.
- Conservez les deux environnements dans la même collection.
Téléchargez Apidog, puis configurez deux environnements :
-
puter-prototype: une URL localhost qui héberge votre page Puter ; -
openai-prod:https://api.openai.com/v1.
Quand vous migrez vers la production, vous pouvez comparer les prompts, les réponses et les paramètres plus facilement. Pour des modèles de test d'API plus larges, consultez l'outil de test d'API pour les ingénieurs QA.
FAQ
Est-ce vraiment illimité ?
Illimité côté développeur, oui. L'utilisateur final utilise le solde de son compte Puter. Les nouveaux comptes reçoivent un crédit de démarrage, puis les utilisateurs peuvent recharger s'ils veulent continuer.
Ai-je besoin d'un compte OpenAI ?
Non. Puter gère la relation avec OpenAI. Vous n'avez pas besoin de clé OpenAI.
Puis-je l'utiliser en production ?
Oui, pour des applications basées sur le navigateur. La vraie question produit est : vos utilisateurs acceptent-ils de se connecter à Puter ? Si oui, l'approche est viable pour ce type d'application.
GPT-5.5 via Puter fonctionne-t-il comme l'API officielle ?
Le modèle appelé est le même, car Puter appelle l'API officielle OpenAI au nom de l'utilisateur. La latence peut être légèrement plus élevée à cause de l'intermédiaire, mais le comportement du modèle reste aligné.
Qu'en est-il de la mise en cache des prompts ?
Puter n'expose pas aujourd'hui les contrôles de prix liés à la mise en cache des prompts OpenAI. Si vous avez un prompt système stable très long et que vous avez besoin de la remise de cache, utilisez l'API officielle.
Puis-je utiliser Puter dans un service backend ?
Pas proprement. Puter est orienté navigateur et suppose une session utilisateur. Pour un backend, utilisez l'API officielle OpenAI. Pour des options côté serveur gratuites, consultez Comment utiliser l'API GPT-5.5 gratuitement.
Quel modèle utiliser par défaut ?
-
gpt-5.5pour le raisonnement général. -
gpt-5.4-nanopour la classification à grand volume. -
gpt-5.5-propour les tâches complexes. -
o3pour les longues chaînes de raisonnement.
Mes utilisateurs seront-ils beaucoup facturés ?
Les usages de type chat coûtent généralement peu par session aux tarifs OpenAI. La génération d'images est plus chère. Pour contrôler l'usage, définissez max_tokens, évitez les appels inutiles et limitez les actions coûteuses dans votre interface.
Puis-je générer des images avec Puter ?
Oui, via txt2img() avec gpt-image-2 ou DALL-E. L'utilisateur paie la génération depuis son solde Puter. Pour le guide de l'API payante officielle, consultez Comment utiliser l'API GPT-Image-2.
En résumé
Puter.js est une option simple pour intégrer GPT-5.5 dans une application navigateur sans gérer de clé OpenAI ni porter directement la facture d'usage. Ajoutez le script, choisissez un modèle, envoyez le prompt, puis affichez la réponse.
Pour les charges côté serveur, la mise en cache des prompts, l'API Responses ou les sorties structurées avancées, l'API officielle OpenAI reste le meilleur choix. Pour les prototypes, hackathons, applications publiques gratuites et sites statiques, Puter est une voie rapide.
Construisez la requête une fois dans Apidog, comparez Puter à l'API officielle, puis choisissez l'architecture qui correspond à votre cas d'usage.

Top comments (0)