articleHacker News (100+ pts)transformers · character-tokenization
Train Your Own LLM from Scratch
Expérience pratique écrivant de zéro un pipeline GPT et entraînant un mini-modèle (~10M params) sur laptop, avec tokenizer, Transformer, training loop et génération.
publié 05 MAI 2026★★★★★
Lire la sourcegithub.com/angelos-p/llm-from-scratch
[*] Ouvre dans un nouvel onglet · pas de tracking côté Lantern
Extrait · ingestion Lantern
Expérience pratique écrivant de zéro un pipeline GPT et entraînant un mini-modèle (~10M params) sur laptop, avec tokenizer, Transformer, training loop et génération.
Extrait automatique · ~165 caractèresvoir la source complète →
- Source
- Hacker News (100+ pts)
- Ingéré
- 05 MAI 2026 · 08:28
- Score édito
- 3.7 / 5