Wklej dowolny tekst, a kalkulator policzy liczbę tokenów dla różnych modeli AI. Analiza w czasie rzeczywistym — wyniki pojawiają się podczas wpisywania.

Twój tekst

Różne modele dzielą tekst na tokeny nieco inaczej. Wynik to szacunek z dokładnością ±10%.

Jak korzystać z kalkulatora?

  1. Wklej lub wpisz tekst w pole powyżej
  2. Wyniki pojawiają się automatycznie w czasie rzeczywistym
  3. Wybierz model referencyjny, aby zobaczyć szacunek dla konkretnego tokenizera
  4. Porównaj liczbę tokenów i koszty między modelami

Czym są tokeny?

Token to kawałek tekstu, który model AI przetwarza jako jedną jednostkę. To nie jest ani litera, ani słowo — to coś pomiędzy. Tokenizery rozbijają tekst na fragmenty optymalne dla danego modelu.

Ile znaków to jeden token?

  • Angielski: ~4 znaki na token (słowa krótkie, popularne = 1 token)
  • Polski: ~2.5–3.5 znaki na token (dłuższe słowa, polskie znaki)
  • Kod źródłowy: ~2.5–3.5 znaki na token (dużo symboli, wcięcia)
  • JSON/XML: ~2–3 znaki na token (powtarzalne struktury)

Dlaczego tokeny mają znaczenie?

  • Koszt: Płacisz za tokeny wejściowe (prompt) i wyjściowe (odpowiedź)
  • Limit kontekstu: Każdy model ma max liczbę tokenów (np. 128K dla GPT-4o)
  • Szybkość: Więcej tokenów = dłuższy czas przetwarzania
  • Jakość: Zbyt długi kontekst może obniżyć jakość odpowiedzi

Jak zmniejszyć liczbę tokenów?

  • Pisz zwięźle — unikaj powtórzeń i zbędnych słów
  • Używaj JSON zamiast rozbudowanego opisu struktury
  • Korzystaj z prompt cachingu dla powtarzalnych instrukcji
  • Rozważ RAG zamiast przekazywania całych dokumentów

Wyniki to szacunek oparty na heurystyce. Dokładna liczba tokenów zależy od konkretnego tokenizera modelu. Aby uzyskać dokładną liczbę, użyj oficjalnych narzędzi: OpenAI Tokenizer lub Anthropic Token Counter.