articleSimon Willisoncommand-line · reasoning-tokens
llm 0.32a2
llm 0.32a2: OpenAI passe à /v1/responses pour un raisonnement intercalé et expose les tokens; -R/--hide-reasoning permet de les masquer.
par Simon Willisonpublié 12 MAI 2026★★★★★
Lire la sourcesimonwillison.net/2026/May/12/llm/#atom-everything
[*] Ouvre dans un nouvel onglet · pas de tracking côté Lantern
Extrait · ingestion Lantern
llm 0.32a2: OpenAI passe à /v1/responses pour un raisonnement intercalé et expose les tokens; -R/--hide-reasoning permet de les masquer.
Extrait automatique · ~136 caractèresvoir la source complète →
- Source
- Simon Willison
- Ingéré
- 12 MAI 2026 · 08:06
- Score édito
- 3.0 / 5