AI Token Counter

किसी भी LLM के लिए टोकन गिनें। GPT-4o के लिए tiktoken के माध्यम से सटीक, Claude, Llama और अन्य मॉडल्स के लिए बेसलाइन के रूप में उपयोगी।

सभी tokenization आपके ब्राउज़र में स्थानीय रूप से चलती है। कोई भी टेक्स्ट हमारे सर्वर पर नहीं भेजा जाता और न ही कहीं संग्रहीत किया जाता है।
उदाहरण:

What Is a Token?

A token is the basic unit of text that AI language models process. Tokens शब्द नहीं हैं — ये अक्षरों के ऐसे खंड हैं जिन्हें मॉडल के tokenizer द्वारा निर्धारित किया जाता है। सामान्य English शब्द आमतौर पर एक token होते हैं; दुर्लभ शब्द, कोड प्रतीक, और non-Latin लिपियाँ अक्सर कई tokens में विभाजित हो जाती हैं।

Token counts matter because API costs are billed per token, context windows are measured in tokens, and non-English text typically costs 2–3× more tokens than equivalent English. → What is a token?

How This Counter Works

This tool uses tiktoken (GPT-4o's tokenizer, o200k_base) to count tokens exactly. अन्य मॉडल्स जैसे Claude और Llama के लिए, हर प्रदाता अपनी proprietary tokenizer का उपयोग करता है — इसलिए परिणाम भिन्न होंगे, परन्तु budgeting और planning के लिए पर्याप्त निकट होते हैं।

Multilingual note: English is the most token-efficient language because tokenizers are trained primarily on English text. The same sentence in Ukrainian costs roughly 2× more tokens; Arabic and Japanese are similar.

Common Use Cases

  • Prompt optimisation — production में तैनात करने से पहले system prompts को संक्षिप्त करें
  • Cost estimation — लाखों कॉल्स तक स्केल करने से पहले API खर्च की गणना करें
  • Context window planning — सुनिश्चित करें कि आपका prompt + दस्तावेज़ मॉडल की सीमा के भीतर फिट हो
  • Multilingual budgeting — non-English कंटेंट के लिए वास्तविक token लागत मापें
  • RAG chunking — retrieval बजट के अनुरूप दस्तावेज़ के chunks का आकार निर्धारित करें

Frequently Asked Questions

What is a token in AI?

A token एक टेक्स्ट का खंड है — English के लिए आम तौर पर 3–4 अक्षरों का। शब्द "token" एक token है; "tokenization" दो में विभाजित हो सकती है। विराम चिह्न और स्पेस अक्सर अलग tokens होते हैं। Models tokens को प्रोसेस करते हैं, न कि शब्दों या अक्षरों को।

How many tokens is 1000 words?

For standard English prose, roughly 1,300–1,500 tokens. एक मोटा नियम: 1 word ≈ 1.3 tokens. कोड और non-English टेक्स्ट में काफी भिन्नता होगी।

Does this count Claude or Gemini tokens accurately?

Not exactly — Claude, Gemini, Llama, और अन्य मॉडल्स प्रत्येक अपनी proprietary tokenizers का उपयोग करते हैं जो सार्वजनिक रूप से उपलब्ध नहीं हैं। यह टूल tiktoken (GPT-4o's tokenizer) का उपयोग करता है, जो अधिकांश आधुनिक LLMs के लिए planning और budgeting में पर्याप्त अनुमान देता है। सटीक गणनाओं के लिए, प्रत्येक प्रदाता के official tokenizer tool का उपयोग करें।

Why does non-English text cost more tokens?

Tokenizers मुख्य रूप से English टेक्स्ट पर प्रशिक्षित होते हैं, इसलिए English शब्द कुशलतापूर्वक single tokens में मैप होते हैं। अन्य लिपियों (Cyrillic, Arabic, CJK) के अक्षर training डेटा में कम आम होते हैं और अधिक sub-word tokens में विभाजित होते हैं। यही कारण है कि Ukrainian में वही विचार सामान्यत: English की तुलना में ~2× अधिक tokens खर्च करता है।

Does this tool send my text to any server?

No. Tokenization ब्राउज़र में ही चलती है, tiktoken लाइब्रेरी जो WebAssembly में संकलित है का उपयोग करके। आपका पाठ कभी आपके डिवाइस को नहीं छोड़ता। कोई अकाउंट, कोई API key जरूरी नहीं — पहली लोड के बाद ऑफलाइन काम करता है।

How large are modern LLM context windows?

Context windows बहुत भिन्न होते हैं: GPT-4o 128K tokens का समर्थन करता है, Claude 3.7 Sonnet 200K का, और Gemini 2.0 Flash 1M tokens का समर्थन करता है। प्रत्येक प्रदाता के वर्तमान documentation को जांचें — सीमाएँ अक्सर बढ़ती रहती हैं। 128K tokens लगभग 96,000 शब्द या ~300 पन्नों के टेक्स्ट के बराबर है।