articleHacker News (100+ pts)transformers · character-tokenization
Train Your Own LLM from Scratch
Expérience pratique écrivant de zéro un pipeline GPT et entraînant un mini-modèle (~10M params) sur laptop, avec tokenizer, Transformer, training loop et génération.
published MAY 05, 2026★★★★★
Read the sourcegithub.com/angelos-p/llm-from-scratch
[*] Opens in a new tab · no tracking on Lantern's side
Excerpt · Lantern ingestion
Expérience pratique écrivant de zéro un pipeline GPT et entraînant un mini-modèle (~10M params) sur laptop, avec tokenizer, Transformer, training loop et génération.
Auto-generated excerpt · ~165 charactersview full source →
- Source
- Hacker News (100+ pts)
- Ingested
- MAY 05, 2026 · 08:28
- Editorial score
- 3.7 / 5