xAI, Grok 4.3'ü aşamalı olarak kullanıma sundu: beta 17 Nisan 2026'da, API erişimi 30 Nisan'da ve genel kullanıma açılış 6 Mayıs'ta gerçekleşti. Bu sürüm; 1.000.000 jetonluk bağlam penceresi, Grok serisinde ilk kez yerel video girişi, her zaman açık muhakeme ve Grok 4.20'ye kıyasla yaklaşık %40 fiyat indirimi getiriyor. Sekiz eski Grok modeli 15 Mayıs'ta kullanımdan kaldırılacağı için grok-3 veya grok-4 serilerinde çalışan ekiplerin geçişi hızlıca planlaması gerekiyor.
Bu rehberde Grok 4.3'ü uygulama kodunuzdan nasıl çağıracağınızı adım adım ele alacağız: uç nokta yapısı, kimlik doğrulama, OpenAI uyumlu base_url, reasoning_effort, video girişi, fonksiyon çağırma ve Apidog ile test kurulumu.
Aynı sürümün ses tarafı için Grok Sesini Ücretsiz Nasıl Kullanılır yazısına bakabilirsiniz. OpenAI'nin amiral gemisi ses modeliyle birebir kıyaslama için Grok Sesi vs GPT-Realtime yazısını inceleyin.
TL;DR
- Grok 4.3, 6 Mayıs 2026'da genel kullanıma sunuldu. Sekiz eski model 15 Mayıs 2026'da kullanımdan kaldırılıyor.
- Fiyatlandırma: 1M giriş jetonu başına 1.25 $, 1M çıkış jetonu başına 2.50 $, önbelleğe alınmış giriş için 1M başına 0.20 $.
- Grok 4.20'ye kıyasla yaklaşık %40 fiyat indirimi var.
- Bağlam penceresi: 1M jeton.
- Grok serisinde ilk kez yerel video girişi destekleniyor.
- Muhakeme her zaman açık. Derinlik için
reasoning_effortkullanılıyor:low,medium,high. - Varsayılan muhakeme seviyesi:
medium. - Uç nokta:
https://api.x.ai/v1/chat/completions. - OpenAI SDK ile kullanılabilir; yalnızca
base_urlvemodeldeğiştirmeniz yeterli. - Standart katmanlarda işlem hacmi yaklaşık 159 jeton/saniye.
- Artificial Analysis Zeka Endeksi: 53; takip edilen 146 model arasında 10. sırada.
- İstekleri betiklemek, muhakeme varyantlarını karşılaştırmak ve Grok/OpenAI uyumluluk modlarını tekrar oynatmak için Apidog kullanabilirsiniz.
Grok 4.3'te neler değişti?
Grok 4.3'te geliştiricileri doğrudan etkileyen başlıklar şunlar:
-
Daha düşük fiyat
- Giriş maliyeti Grok 4.20'ye göre %37.5 azaldı.
- Çıkış maliyeti %58.3 azaldı.
- Önbelleğe alınmış giriş fiyatı 1M jeton başına 0.20 $ oldu.
- Uzun ve stabil sistem prompt'ları olan ajan iş akışlarında bu indirim önemli.
-
1M jetonluk bağlam
- Grok 4.20'deki 256k bağlamdan 1M jetona çıkıldı.
- Orta büyüklükte bir kod tabanı, uzun sözleşmeler, çağrı dökümleri veya çok adımlı ajan geçmişleri tek isteğe sığdırılabilir.
-
Yerel video girişi
- Grok serisinde ilk kez doğrudan video URL'si ile giriş destekleniyor.
- Model, videodaki kareler üzerinde yerel olarak muhakeme yapabiliyor.
-
Her zaman açık muhakeme
- Grok 4.3 her istekte temel bir muhakeme adımı çalıştırır.
-
reasoning_effortyalnızca derinliği ayarlar. - Model
lowseviyesinden daha az muhakeme yapmaz.
-
Daha iyi araç kullanımı
- GDPval-AA üzerinde Grok 4.20'ye göre +300 Elo puanı belirtiliyor.
- Bu özellikle fonksiyon çağırma, araç seçimi ve çok adımlı ajan akışlarında etkili.
Artificial Analysis Zeka Endeksi'nde 53 puan, Grok 4.3'ü kendi fiyat kademesindeki ortalamanın üzerine ve takip edilen 146 model arasında ilk 10'a yerleştiriyor.
Önkoşullar
İlk API isteğini göndermeden önce şunlara ihtiyacınız var:
-
console.x.aiüzerinde bir xAI Console hesabı - API anahtarı oluşturulmuş, faturalandırılabilir bir katman
- OpenAI SDK veya xAI SDK
- İstekleri tekrar çalıştırabileceğiniz bir API istemcisi
Üretim ortamında proje bazlı API anahtarları kullanmanız önerilir.
API anahtarını terminalde ortam değişkeni olarak tanımlayın:
export XAI_API_KEY="xai-..."
Uç nokta ve kimlik doğrulama
Grok 4.3, xAI'nin OpenAI uyumlu Chat Completions yüzeyi üzerinden çağrılır:
POST https://api.x.ai/v1/chat/completions
Gerekli başlıklar:
Authorization: Bearer $XAI_API_KEY
Content-Type: application/json
OpenAI SDK kullanıyorsanız mevcut entegrasyonunuzu büyük ölçüde koruyabilirsiniz. Temel değişiklikler:
-
api_key: xAI API anahtarınız -
base_url:https://api.x.ai/v1 -
model:grok-4.3
Python örneği:
import os
from openai import OpenAI
client = OpenAI(
api_key=os.environ["XAI_API_KEY"],
base_url="https://api.x.ai/v1",
)
response = client.chat.completions.create(
model="grok-4.3",
messages=[
{
"role": "user",
"content": "GraphQL ve REST arasındaki trade-off'ları üç maddede özetle."
}
],
reasoning_effort="medium",
)
print(response.choices[0].message.content)
Bu yapı, OpenAI tabanlı mevcut koddan Grok 4.3'e geçiş için en düşük eforlu yoldur.
İstek parametreleri
Grok 4.3'te en sık kullanacağınız parametreler:
| Parametre | Tür | Değerler | Notlar |
|---|---|---|---|
model |
string | grok-4.3 |
Gerekli |
messages |
array | OpenAI mesaj formatı | Gerekli. system, user, assistant rollerini destekler |
reasoning_effort |
string |
low, medium, high
|
İsteğe bağlı. Varsayılan: medium
|
max_tokens |
integer | 1–32768 |
Çıktı uzunluğunu sınırlar |
temperature |
float | 0.0–2.0 |
Varsayılan: 1.0
|
top_p |
float | 0.0–1.0 |
Nucleus sampling |
stream |
boolean |
true, false
|
true ise SSE ile akış döner |
tools |
array | OpenAI araç formatı | Fonksiyon çağırma için |
tool_choice |
string/object |
auto, none veya belirli araç |
Standart OpenAI semantiği |
response_format |
object | { "type": "json_object" } |
Yapılandırılmış çıktı için |
seed |
integer | herhangi bir sayı |
temperature: 0 ile tekrarlanabilirlik için |
Çalışan curl örneği:
curl https://api.x.ai/v1/chat/completions \
-H "Authorization: Bearer $XAI_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "grok-4.3",
"messages": [
{
"role": "system",
"content": "Sen kıdemli bir backend mühendisisin."
},
{
"role": "user",
"content": "Bu sorgu planını incele ve darboğazı belirt."
}
],
"reasoning_effort": "high"
}'
Yanıt standart OpenAI şekline benzer:
choices[].message.contentusage.prompt_tokensusage.completion_tokensusage.reasoning_tokensusage.total_tokens
reasoning_effort nasıl seçilir?
Grok 4.3'te muhakeme tamamen kapatılamaz. Bunun yerine derinliği ayarlarsınız.
low
Şunlar için kullanın:
- Sınıflandırma
- Kısa özetleme
- Basit kural çıkarımı
- Basit soru-cevap
Avantajı daha düşük gecikme ve daha kısa çıktıdır.
{
"model": "grok-4.3",
"reasoning_effort": "low"
}
medium
Varsayılan seviyedir. Şunlar için uygundur:
- Müşteri destek asistanları
- Tek adımlı araç kullanımı
- Veri analizi
- Standart fonksiyon çağırma
- Üretim trafiğinin büyük bölümü
{
"model": "grok-4.3",
"reasoning_effort": "medium"
}
high
Şunlar için kullanın:
- Çok adımlı ajan iş akışları
- Uzun kod incelemeleri
- Karmaşık matematik
- Planlama gerektiren görevler
- Birden fazla araç çağrısı içeren akışlar
{
"model": "grok-4.3",
"reasoning_effort": "high"
}
Pratik öneri: Önce medium ile başlayın. Yalnızca kalite farkı ölçülebilir şekilde iyileşiyorsa high seviyesine geçin. Gecikme kritikse low deneyin.
Fonksiyon çağırma
Grok 4.3, OpenAI araç formatını destekler. Akış genel olarak şu şekildedir:
- Aracı
toolsiçinde tanımlayın. - Modelin
tool_callsüretmesini bekleyin. - Aracı kendi sisteminizde çalıştırın.
- Sonucu
toolrolüyle modele geri gönderin.
Örnek:
tools = [
{
"type": "function",
"function": {
"name": "lookup_user",
"description": "Kullanıcıyı ID ile getir.",
"parameters": {
"type": "object",
"properties": {
"user_id": {
"type": "string"
}
},
"required": ["user_id"],
},
},
}
]
response = client.chat.completions.create(
model="grok-4.3",
messages=[
{
"role": "user",
"content": "u_42 kullanıcısını bul ve son giriş zamanını söyle."
}
],
tools=tools,
reasoning_effort="medium",
)
message = response.choices[0].message
tool_calls = message.tool_calls
print(tool_calls)
Araç çağrısını çalıştırdıktan sonra sonucu modele geri verin:
messages = [
{
"role": "user",
"content": "u_42 kullanıcısını bul ve son giriş zamanını söyle."
},
message,
{
"role": "tool",
"tool_call_id": tool_calls[0].id,
"content": '{"user_id":"u_42","last_login":"2026-05-06T09:15:00Z"}'
}
]
final_response = client.chat.completions.create(
model="grok-4.3",
messages=messages,
tools=tools,
reasoning_effort="medium",
)
print(final_response.choices[0].message.content)
Araç akışlarını test ediyorsanız Apidog'daki MCP sunucu testi yazısı tekrar oynatılabilir test kurulumu için iyi bir başlangıçtır.
Video girişi
Grok 4.3, yerel video girişi destekleyen ilk Grok modelidir. Bir içerik bloğuna video URL'si ekleyebilirsiniz:
response = client.chat.completions.create(
model="grok-4.3",
messages=[
{
"role": "user",
"content": [
{
"type": "text",
"text": "Bu klipte ne olduğunu açıkla ve anomali varsa belirt."
},
{
"type": "video_url",
"video_url": {
"url": "https://example.com/clip.mp4"
}
},
],
}
],
reasoning_effort="medium",
)
print(response.choices[0].message.content)
Dikkat edilmesi gerekenler:
- Video jetonları giriş maliyetine dahil edilir.
- Uzun videolar bağlam penceresini hızlı tüketebilir.
- Maliyet önemliyse videoyu kırpın veya örnekleme oranını düşürün.
- Model kareler üzerinde yerel olarak muhakeme yaptığı için ana kareleri manuel çıkarmak zorunda değilsiniz.
1M jetonluk bağlamı pratikte kullanma
1M jetonluk bağlam penceresi yalnızca benchmark değeri değil, üretimde kullanılabilir bir kapasitedir.
Yaygın kullanım senaryoları:
1. Kod inceleme
Aşağıdakileri tek istekte birleştirebilirsiniz:
- Diff
- Dokunulan dosyalar
- Lint çıktısı
- Test çıktısı
- İlgili mimari notları
Örnek prompt yapısı:
Sen kıdemli bir code reviewer olarak davran.
Aşağıda PR diff'i, ilgili dosyalar ve test çıktısı var.
Şunları üret:
1. Bloklayıcı hatalar
2. Performans riskleri
3. Güvenlik riskleri
4. Test kapsamı eksikleri
5. Merge öncesi öneriler
2. Uzun belge soru-cevap
200 sayfalık sözleşme, teknik şartname veya politika dokümanı üzerinden hedefli sorular sorabilirsiniz.
Aşağıdaki sözleşmeyi incele.
Yalnızca ödeme, fesih ve sorumluluk sınırlaması maddelerine odaklan.
Riskli hükümleri madde numarasıyla listele.
3. Ajan hafızası
Kişiselleştirme için uzun konuşma geçmişlerini bağlamda tutabilirsiniz. Ancak maliyeti kontrol etmek için stabil bölümleri önbelleğe almak önemlidir.
Önbelleğe alınmış giriş fiyatı 1M jeton başına 0.20 $ olduğu için uzun sistem prompt'ları ve sabit bağlam blokları daha ekonomik hale gelir. Örneğin stabil 400k jetonluk bir sistem bağlamı, her çağrıda taze giriş olarak 0.50 $ yerine önbellekte yaklaşık 0.08 $ maliyet oluşturur.
Eski Grok modellerinden geçiş
Sekiz eski Grok modeli 15 Mayıs 2026, 12:00 PM PT itibarıyla kullanımdan kaldırılacak. Bu modellerden birini kullanıyorsanız kesinti yaşamamak için model değerini grok-4.3 olarak güncelleyin.
Çoğu çağrıda istek formatı aynı kalır:
- "model": "grok-4"
+ "model": "grok-4.3"
Geçişte özellikle iki noktayı test edin:
1. Muhakeme gecikmesi
Bazı eski modeller reasoning_effort parametresini desteklemiyordu. Grok 4.3 her zaman muhakeme yaptığı için ilk jeton gecikmesi değişebilir.
Gecikme kritikse:
{
"reasoning_effort": "low"
}
ile başlayın.
2. Çıktı biçimi
Grok 4.3, varsayılan olarak Grok 4.20'ye göre daha yapılandırılmış yanıtlar verebilir. Eğer regex tabanlı post-processing yapıyorsanız geçişten önce gerçek verilerle test edin.
OpenAI hattındaki fiyat karşılaştırması için GPT-5.5 fiyatlandırması, birebir muhakeme modeli kullanımı için GPT-5.5 API'sini Nasıl Kullanılır yazılarına bakabilirsiniz.
Apidog'da test etme
Grok 4.3'ü kendi kullanım senaryonuzda doğrulamak için hızlı test akışı:
- Apidog'da yeni bir ortam oluşturun.
- Ortam değişkenlerini ekleyin:
XAI_API_KEYBASE_URL = https://api.x.ai/v1
-
POST {{BASE_URL}}/chat/completionsisteği oluşturun. - Authorization başlığını ekleyin:
Authorization: Bearer {{XAI_API_KEY}}
Content-Type: application/json
- Aynı prompt için üç varyant oluşturun:
reasoning_effort: lowreasoning_effort: mediumreasoning_effort: high
Örnek gövde:
{
"model": "grok-4.3",
"messages": [
{
"role": "system",
"content": "Sen deneyimli bir API mimarısın."
},
{
"role": "user",
"content": "Bu API tasarımını incele ve versiyonlama risklerini listele."
}
],
"reasoning_effort": "medium"
}
- Üç isteği de çalıştırın.
- Şunları karşılaştırın:
- Yanıt kalitesi
- Gecikme
usage.reasoning_tokensusage.total_tokens
- Aynı koleksiyona OpenAI
base_urlkullanan dördüncü bir varyant ekleyerek Grok 4.3 ve GPT-5.5'i aynı girdide karşılaştırın.
Karşılaştırmayı çalıştırmak için Apidog'u indirin. Koleksiyonlar, sağlayıcı değiştirirken aynı istek yapısını korumanıza yardımcı olur. Daha geniş API test stratejisi için Kalite Güvence mühendisleri için API test aracı yazısını inceleyebilirsiniz.
Hız limitleri
xAI Console'daki katman limitleri, Katman 1'de dakikada birkaç bin istekten kurumsal katmanlarda yüz binlerce isteğe kadar değişebilir. Somut limitler değişebileceği için güncel değerleri konsol panosundan kontrol edin.
xAI'nin belirttiği yaklaşık 159 jeton/saniye işlem hacmi, toplam hesap limiti değil, akış başına çıktı hızıdır. Eşzamanlı istekler katman limitleri dahilinde ölçeklenir.
Hız limitine ulaşırsanız API 429 döndürür ve retry-after başlığı sağlar. Standart üstel geri çekilme kullanın:
import time
import random
def backoff_sleep(attempt: int, retry_after: float | None = None):
if retry_after:
time.sleep(retry_after)
return
delay = min(2 ** attempt, 30)
jitter = random.uniform(0, 0.5)
time.sleep(delay + jitter)
SSS
Grok 4.3 uçtan uca OpenAI uyumlu mu?
Chat Completions için evet. OpenAI SDK'yı kullanabilir, yalnızca base_url ve model değerlerini değiştirebilirsiniz. Fonksiyon çağırma, yapılandırılmış çıktı ve streaming aynı modele yakındır.
Responses API destekleniyor mu?
xAI yüzeyi bugün Chat Completions'tır. Responses API yalnızca OpenAI tarafına özeldir.
Pratik bağlam limiti nedir?
1.000.000 jeton. Ancak uzun girdiler gerçek maliyet oluşturur. Prompt veya bağlamınız stabilse önbelleğe alma stratejisi kullanın.
Her zaman açık muhakeme gecikmeyi nasıl etkiler?
İlk jeton gecikmesi, muhakeme yapmayan modellere göre biraz daha yüksek olabilir. Buna karşılık Grok 4.3 yaklaşık 159 jeton/saniye çıktı akışı sağlar. Doğruluk hassasiyeti yüksek iş yüklerinde bu denge genellikle kabul edilebilir.
Grok 4.3'ü Grok Voice ile kullanabilir miyim?
Evet. Ses ajanı grok-voice-think-fast-1.0, muhakeme için kaputun altında Grok 4.3'ü çağırır. Ayrıca TTS ve STT bileşenleri üzerine kurduğunuz kendi ses döngünüzden Grok 4.3'ü doğrudan çağırabilirsiniz.
Eski Grok 3 / Grok 4 çağrılarım 15 Mayıs'tan sonra ne olacak?
Model kullanımdan kaldırıldı hatasıyla başarısız olacaklar. Kesinti yaşamamak için 15 Mayıs'tan önce model değerini grok-4.3 olarak güncelleyin.
Grok 4.3 görüntü girişini destekliyor mu?
Evet. Yeni video girişine ek olarak görüntü girişi de desteklenir. OpenAI formatına benzer şekilde içerik bloğuna görüntü URL'si geçebilirsiniz.
Sonuç
Grok 4.3; daha düşük fiyat, 1M jetonluk bağlam, her zaman açık muhakeme ve yerel video girişiyle xAI tarafında önemli bir API güncellemesi. OpenAI uyumluluğu sayesinde çoğu entegrasyonda geçiş, yeniden yazımdan çok base_url ve model değişikliğidir.
En hızlı doğrulama yolu: Apidog içinde low, medium ve high muhakeme varyantlarını oluşturun, gerçek prompt'larınızı çalıştırın, gecikme ve reasoning_tokens değerlerini ölçün. Eski Grok modellerini kullanıyorsanız 15 Mayıs'tan önce geçişi tamamlayın.


Top comments (0)