articleSimon Willisoncommand-line · reasoning-tokens
llm 0.32a2
llm 0.32a2: OpenAI passe à /v1/responses pour un raisonnement intercalé et expose les tokens; -R/--hide-reasoning permet de les masquer.
by Simon Willisonpublished MAY 12, 2026★★★★★
Read the sourcesimonwillison.net/2026/May/12/llm/#atom-everything
[*] Opens in a new tab · no tracking on Lantern's side
Excerpt · Lantern ingestion
llm 0.32a2: OpenAI passe à /v1/responses pour un raisonnement intercalé et expose les tokens; -R/--hide-reasoning permet de les masquer.
Auto-generated excerpt · ~136 charactersview full source →
- Source
- Simon Willison
- Ingested
- MAY 12, 2026 · 08:06
- Editorial score
- 3.0 / 5