Fungsi utama lapisan tersembunyi yang "besar" dalam DL adalah:, Menghitung loss function, Transformasi non-linier berulang, Mengurangi training time., Normalisasi data input, Tujuan utama Dropout (Regulasi) pada DL yang besar adalah:, Mempercepat komputasi, Mengurangi data training, Mencegah ketergantungan pada neuron spesifik (generalisasi), Membuat loss function lebih linier, Batch Normalization menstabilkan training dengan:, Mengurangi jumlah neuron, Menstabilkan distribusi input ke lapisan berikutnya, Menghilangkan fungsi aktivasi, Memaksa gradien menjadi nol., Konsekuensi langsung dari Vanishing Gradient pada lapisan awal deep network saat training adalah:, Fungsi loss menjadi nol, Pembaruan bobot lapisan awal sangat kecil, Exploding gradient., Overfitting data, ReLU membantu training kinerja tinggi karena:, Mengompresi output, Turunannya (gradien) konstan (1) untuk nilai positif, Mengurangi hidden layer., Hanya berlaku untuk data linier, Operasi Pooling pada CNN berfungsi untuk:, Menambah dimensi fitur, Meringkas fitur dan memberikan kekebalan translasi, Melakukan backpropagation, Mengubah aktivasi, GAN dilatih sebagai zero-sum game karena:, Keduanya memiliki loss yang sama, Peningkatan kinerja Generator menurunkan kinerja Diskriminator, Keduanya selalu mencapai akurasi 100%, Salah satunya harus dimatikan saat training, Tujuan utama Dropout (Regulasi) pada DL yang besar adalah:, Mempercepat komputasi, Mengurangi data training, Mencegah ketergantungan pada neuron spesifik (generalisasi), Membuat loss function lebih linier, Arsitektur terbaik untuk global context dan paralelisme training tinggi pada teks panjang (menggantikan LSTM):, Autoencoder, Transformer, MLP, GAN, Encoder pada Encoder-Decoder memadatkan input menjadi:, Data mentah, Hasil akhir prediksi, Representasi Vektor Kontekstual, Loss function.

Leaderboard

Visual style

Options

Switch template

)
Continue editing: ?