FeedCette semaineArticle
articleHacker News (100+ pts)transformers · character-tokenization

Train Your Own LLM from Scratch

Expérience pratique écrivant de zéro un pipeline GPT et entraînant un mini-modèle (~10M params) sur laptop, avec tokenizer, Transformer, training loop et génération.

publié 05 MAI 2026★★★★
Lire la sourcegithub.com/angelos-p/llm-from-scratch
[*] Ouvre dans un nouvel onglet · pas de tracking côté Lantern
Extrait · ingestion Lantern

Expérience pratique écrivant de zéro un pipeline GPT et entraînant un mini-modèle (~10M params) sur laptop, avec tokenizer, Transformer, training loop et génération.

Extrait automatique · ~165 caractèresvoir la source complète
Source
Hacker News (100+ pts)
Ingéré
05 MAI 2026 · 08:28
Score édito
3.7 / 5