FeedCette semaineArticle
articleSimon Willisoncommand-line · reasoning-tokens

llm 0.32a2

llm 0.32a2: OpenAI passe à /v1/responses pour un raisonnement intercalé et expose les tokens; -R/--hide-reasoning permet de les masquer.

par Simon Willisonpublié 12 MAI 2026★★★★★
Lire la sourcesimonwillison.net/2026/May/12/llm/#atom-everything
[*] Ouvre dans un nouvel onglet · pas de tracking côté Lantern
Extrait · ingestion Lantern

llm 0.32a2: OpenAI passe à /v1/responses pour un raisonnement intercalé et expose les tokens; -R/--hide-reasoning permet de les masquer.

Extrait automatique · ~136 caractèresvoir la source complète
Source
Simon Willison
Ingéré
12 MAI 2026 · 08:06
Score édito
3.0 / 5