beginner 5 Minggu

Building Transformers: A Deep Dive into Self-Attention Mechanisms

Pelajari mekanisme self-attention yang merupakan inti dari revolusi AI modern dan Large Language Models (LLM) dengan kursus 'Building Transformers' in...

Building Transformers: A Deep Dive into Self-Attention Mechanisms

Tentang Kursus

Pelajari mekanisme self-attention yang merupakan inti dari revolusi AI modern dan Large Language Models (LLM) dengan kursus 'Building Transformers' ini. Anda akan mempelajari detail terkait mekanisme Self-Attention, serta intuisi matematis di balik Query, Key, Value (QKV) dan membangun arsitektur Multi-Head Attention dari awal. Kursus ini dirancang khusus untuk praktisi machine learning dan developer

Materi yang Dipelajari

Modul 1: Neural Network Foundations and Sequence Modeling

7 Materi

Memahami Dasar-dasar Neural Network

Text Lesson 5
Gratis

Mengimplementasikan Neural Network dengan Python

Notebook 5
Gratis

Dari RNN ke LSTM: Model Sekuensial dan Keterbatasannya

Text Lesson 7
Gratis

Praktik RNN dan LSTM dengan Python

Notebook 8
Gratis

Dasar Matematika untuk Attention: Vektor, Matriks, dan Dot Product

Text Lesson 7
Gratis

Quiz: Fondasi Neural Network dan Sequence Modeling

Quiz 20 Menit
Gratis

Membangun dan Menganalisis Model Sekuensial

Assignment
Gratis

Modul 2: The Self-Attention Mechanism

7 Materi

Intuisi di Balik Attention: Mengapa Model Perlu "Memperhatikan"

Text Lesson 6
Gratis

Mengimplementasikan Query, Key, Value dari Awal

Notebook 7
Gratis

Scaled Dot-Product Attention: Matematika dan Intuisi

Text Lesson 8
Gratis

Membangun Self-Attention Layer dari Nol

Notebook 7
Gratis

Masking dan Causal Attention untuk Model Generatif

Text Lesson 6
Gratis

Quiz: Mekanisme Self-Attention

Quiz 20 Menit
Gratis

Mengimplementasikan Self-Attention dengan Masking

Assignment
Gratis

Modul 3: Multi-Head Attention and Transformer Architecture

7 Materi

Dari Single-Head ke Multi-Head Attention

Text Lesson 6
Gratis

Mengimplementasikan Multi-Head Attention di Python

Notebook 8
Gratis

Positional Encoding: Memberi Posisi pada Positionless Attention

Text Lesson 6
Gratis

Merangkai Encoder Transformer: Residual, LayerNorm, dan Feed-Forward

Notebook 9
Gratis

Arsitektur Lengkap Encoder-Decoder Transformer

Text Lesson 6
Gratis

Quiz: Multi-Head Attention dan Arsitektur Transformer

Quiz 20 Menit
Gratis

Membangun Encoder Transformer Lengkap

Assignment
Gratis

Modul 4: Advanced Transformer Concepts and Modern Variants

7 Materi

Decoder Transformer dan Autoregressive Generation

Text Lesson 7
Gratis

Mengimplementasikan Decoder Transformer di Python

Notebook 11
Gratis

Strategi Training: Optimizer, Learning Rate Schedule, dan Regularisasi

Text Lesson 7
Gratis

Varian Modern: GPT, BERT, dan Evolusi Arsitektur

Notebook 8
Gratis

Efisiensi dan Scaling: Teknik untuk Transformer Lebih Cepat

Text Lesson 7
Gratis

Quiz: Konsep Lanjutan dan Varian Modern

Quiz 20 Menit
Gratis

Membangun Decoder-Only Transformer dan Melatih Model

Assignment
Gratis

Modul 5: Portfolio Project - Build and Deploy Your Own Transformer

7 Materi

Merancang Arsitektur dan Menyiapkan Environment Proyek

Text Lesson 0
Gratis

Mengimplementasikan Komponen Inti Transformer

Text Lesson 0
Gratis

Menyiapkan Pipeline Training dan Dataset

Text Lesson 0
Gratis

Training, Evaluasi, dan Fine-Tuning Model

Text Lesson 0
Gratis

Deploy Model Transformer dengan Streamlit

Text Lesson 0
Gratis

Ujian Modul 5: Konsep Proyek dan Deployment

Quiz 30 Menit
Gratis

Proyek Portfolio: Transformer dari Awal sampai Deploy

Assignment
Gratis