FeedThis weekArticle
articleHacker News (100+ pts)transformers · character-tokenization

Train Your Own LLM from Scratch

Expérience pratique écrivant de zéro un pipeline GPT et entraînant un mini-modèle (~10M params) sur laptop, avec tokenizer, Transformer, training loop et génération.

published MAY 05, 2026★★★★
Read the sourcegithub.com/angelos-p/llm-from-scratch
[*] Opens in a new tab · no tracking on Lantern's side
Excerpt · Lantern ingestion

Expérience pratique écrivant de zéro un pipeline GPT et entraînant un mini-modèle (~10M params) sur laptop, avec tokenizer, Transformer, training loop et génération.

Auto-generated excerpt · ~165 charactersview full source
Source
Hacker News (100+ pts)
Ingested
MAY 05, 2026 · 08:28
Editorial score
3.7 / 5
Train Your Own LLM from Scratch