Indice

Claude ti fa pagare di più nelle ore di punta. E no, non è normale.

Immagina di abbonarti a una palestra. Paghi la quota mensile, hai accesso illimitato, tutto bello. Poi un giorno ti appare un cartello all'ingresso: "Attenzione: dalle 17:00 alle 20:00 ogni step della tua cyclette conta il doppio. Finisci l'abbonamento prima."

Assurdo? Benvenuto nel mondo di Claude.

---

Il banner che fa riflettere (o incazzare, dipende)

Da qualche settimana, chi usa Claude di Anthropic nei giorni feriali tra le 5:00 e le 11:00 PT (che in Italia significa dalle 14:00 alle 20:00) si trova davanti a questo avviso:

Avviso ore di punta di Claude

"Questa attività viene eseguita durante le ore di punta e consumerà i tuoi limiti di utilizzo della sessione più rapidamente."

Traduzione per chi non parla corporativo: stai usando l'AI nelle ore sbagliate, quindi ti scaliamo i crediti più in fretta.

Stessa richiesta. Stesso modello. Stesso abbonamento. Risposta più costosa — in termini di quota consumata — solo perché l'orologio dice 15:30 invece di 7:00.

---

Perché lo fanno (la versione ufficiale)

Anthropic ha ammesso candidamente su Reddit il 26 marzo 2026 che il motivo è semplice: hanno più domanda di quanta GPU riescano a gestire. Con milioni di nuovi utenti arrivati anche dopo le polemiche legate a OpenAI, i server fanno fatica nelle ore di picco.

La soluzione? Non potenziare immediatamente l'infrastruttura. Non creare tier separati per l'uso intensivo. No: far sì che durante le ore di punta il tuo limite si esaurisca più in fretta, così usi meno AI quando tutti la usano.

In sostanza: il problema è loro, la soluzione la paghi tu.

---

La reazione degli utenti (spoiler: non è andata bene)

La community non ha preso bene la cosa. Per niente.

Su GitHub, Hacker News, Reddit e X sono comparse centinaia di segnalazioni nel giro di pochi giorni. Alcuni esempi reali, documentati:

  • Utenti del piano Max da $200/mese che finivano i limiti in meno di 20 minuti di utilizzo attivo
  • Un utente che ha scoperto che scrivere "Hello Claude" aveva consumato il 13% dell'intera sessione
  • Qualcuno finito in "cooldown jail" di 4 ore dopo un singolo prompt complesso
  • La GitHub Issue #41930 — intitolata "Critical: Widespread abnormal usage limit drain across all paid tiers" — ha raccolto centinaia di commenti in pochi giorni, con ingegneri e developer che documentavano casi precisi con screenshot e log
  • Su Hacker News il thread "Claude Code users hitting usage limits 'way faster than expected'" ha raggiunto la front page con oltre 400 commenti, molti dei quali di persone che descrivevano workflow completamente bloccati a metà giornata

Il problema non era solo tecnico: era la comunicazione. Per settimane Anthropic non ha pubblicato né un blog post, né mandato un'email agli abbonati, né aggiornato il proprio status page. Tutte le comunicazioni "ufficiali" sono arrivate attraverso post personali su X di singoli ingegneri Anthropic e qualche commento su Reddit. Nessun annuncio coordinato, nessun changelog, nessun preavviso.

---

La risposta di Anthropic (e perché ha peggiorato le cose)

Quando Anthropic ha finalmente risposto pubblicamente — attraverso un post su Reddit del 26 marzo 2026 — il tono era sorprendentemente diretto: hanno ammesso il problema di capacità, hanno spiegato il meccanismo dei multiplicatori, e hanno promesso miglioramenti infrastrutturali nel breve periodo.

Il problema? La community ha trovato la risposta insufficiente, se non controproducente.

I punti che hanno fatto arrabbiare di più:

  • Anthropic ha inquadrato il problema come "crescita inaspettata", ma molti utenti hanno fatto notare che la piattaforma era già sotto pressione da mesi prima dell'introduzione delle peak hours
  • L'azienda non ha offerto rimborsi né estensioni di quota a chi aveva già bruciato crediti durante il periodo non comunicato
  • Il meccanismo del multiplicatore non è mai stato documentato in modo trasparente: quante volte in più consuma un task durante le ore di punta? La risposta ufficiale è sempre stata vaga
  • Alcuni ingegneri hanno suggerito su X di "usare l'API diretta" come workaround — il che equivale a dire agli utenti del piano $200/mese di pagare ancora di più per avere prevedibilità

Secondo PiunikaWeb, il post di scuse ha generato più rabbia del silenzio iniziale, perché ha confermato che il meccanismo era intenzionale e non un bug.

---

Il problema etico (quello che nessuno vuole dire ad alta voce)

Capisco la gestione della capacità. Capisco che i datacenter hanno limiti fisici. Capisco le ore di punta.

Quello che non capisco — o meglio, quello che trovo scorretto — è il meccanismo scelto.

Quando paghi un abbonamento mensile a un servizio, ti aspetti un certo livello di servizio indipendentemente dall'orario. Se vuoi che gli utenti usino l'AI in orari diversi, ci sono modi etici per farlo:

  • Incentivi per l'uso off-peak (crediti bonus, sessioni extra)
  • Comunicazione chiara e anticipata
  • Piani diversi con SLA diversi

Invece si è scelto un meccanismo punitivo e silenzioso: riduci il valore di ciò che hai già pagato, senza preavviso, basandosi su un orario che dipende dal fuso orario PT — cioè calibrato sulla California, non sul resto del mondo.

Se sei in Italia e lavori dalle 14:00 alle 20:00... beh, sei sempre in peak hours. Benvenuto.

---

Cosa puoi fare (consigli pratici)

Inutile aspettare che Anthropic risolva il problema nell'immediato. Nel frattempo, ecco cosa puoi fare per non bruciare i tuoi crediti inutilmente:

1. Lavora fuori orario di punta

Prima delle 14:00 o dopo le 20:00 (ora italiana nei giorni feriali) i tuoi crediti si consumano normalmente. Se puoi, pianifica le sessioni intensive in queste fasce orarie. Nei weekend il problema è meno acuto, ma il banner compare comunque.

2. Apri una nuova chat per ogni task

Ogni messaggio inviato fa rileggere a Claude l'intera conversazione dall'inizio. Una chat da 20 messaggi consuma molti più token di 20 chat da 1 messaggio. Per task diversi e separati, apri sempre una nuova sessione.

3. Aggiungi "No commentary. Just the output."

Questa frase, aggiunta alla fine di qualsiasi prompt, elimina le introduzioni, i riassunti finali e i commenti sulla risposta. Il risultato è più diretto e consuma significativamente meno token di output.

4. Unisci più richieste in un solo prompt

Invece di tre messaggi separati, combina tutto: "Riassumi X, estrai i 5 punti chiave, proponi un titolo SEO. Output in formato elenco." Una sola elaborazione, output compatto, meno consumo complessivo.

5. Chiedi output in formato diff

Se stai lavorando su testo o codice e vuoi modifiche, non chiedere di riscrivere tutto. Chiedi esplicitamente: "Mostrami solo le righe modificate in formato diff" oppure "Indica solo le parti da cambiare, non riprodurre il testo invariato." La riduzione di token può essere dell'80% su testi lunghi.

6. Disabilita il "pensiero esteso" (Extended Thinking)

Extended Thinking è potente ma brutalmente costoso in termini di token. Claude ragiona "ad alta voce" prima di rispondere, e quel ragionamento consuma quota. Se non stai risolvendo un problema matematico complesso o facendo debugging articolato, disattivalo sempre.

7. Converti i PDF in testo prima di caricarli

Caricare un PDF direttamente può consumare 180.000+ token solo per la fase di parsing. Lo stesso contenuto estratto come testo pulito si aggira sui 2.000–5.000 token. Usa strumenti come pdftotext, Docling o anche una copia-incolla selettiva per estrarre solo le sezioni rilevanti.

8. Usa CLAUDE.md per i contesti ricorrenti

Se usi Claude Code o lavori su progetti ripetitivi, crea un file CLAUDE.md nella root del progetto con il contesto sempre necessario (stack tecnico, convenzioni, obiettivi). Claude lo legge automaticamente all'avvio della sessione: non devi rispiegare niente, e risparmi i token del "setup" su ogni sessione.

9. Usa l'API diretta per task intensivi

Se lavori con Claude Code o hai bisogno di prevedibilità assoluta, considera di passare all'API Anthropic diretta invece di usare Claude.ai. L'API è tariffata a token effettivi, quindi paghi esattamente quello che usi senza multiplicatori orari. Per uso professionale intensivo, spesso è più economica del piano Max.

10. Monitora la tua sessione attiva

Claude.ai non mostra in tempo reale quanto stai consumando, ma puoi stimarlo: ogni messaggio include tutti i messaggi precedenti. Una sessione con 10 scambi da 500 token l'uno ha già consumato ~27.500 token solo per il contesto (somma progressiva). Tienilo a mente prima di continuare una chat lunga.

---

Conclusione

Anthropic ha un problema di capacità. È comprensibile — la crescita è stata esplosiva. Ma la soluzione scelta — scaricare il costo della gestione dei picchi direttamente sui clienti paganti, senza comunicazione adeguata — è una scelta che ha un peso etico preciso.

L'AI sta diventando uno strumento di lavoro serio. Chi la usa professionalmente ha bisogno di prevedibilità, non di avvisi arancioni che appaiono mentre stai cercando di finire un task alle tre del pomeriggio.

La situazione si dovrebbe normalizzare man mano che Anthropic espande la propria infrastruttura — ma "si dovrebbe" è una promessa vaga. Nel frattempo, imposta un timer, ottimizza i prompt, e — se puoi — lavora di mattina presto.

Come la maggior parte delle soluzioni al capitalismo, anche questa richiede di alzarsi prima dell'alba.

---

I thread da seguire se vuoi restare aggiornato

Se il topic ti interessa, questi sono i punti di riferimento dove la community continua a discuterne:

  • GitHub Issue #41930 — La segnalazione più documentata. Contiene screenshot, log di sessione, confronti prima/dopo. Aggiornata regolarmente con nuovi casi.
  • Hacker News — Claude Code usage limits — Oltre 400 commenti, molti da developer con casi d'uso concreti e stime precise dei token bruciati.
  • r/ClaudeAI su Reddit — Il subreddit ufficioso più attivo. Cerca "peak hours" o "usage limits" per trovare i thread più recenti.
  • r/AnthropicAI su Reddit — Più istituzionale, ma spesso le risposte di ingegneri Anthropic appaiono qui.
  • The Register — Ha seguito la storia in modo continuativo, con due articoli specifici linkati nelle fonti qui sotto.

---

Fonti: