1) Mengapa penggunaan fungsi aktivasi ReLU lebih disukai dibandingkan sigmoid atau tanh dalam jaringan saraf dalam yang sangat dalam? a) relu adalah chat gpt yang berevolusi b) Relu lebih suka makan makanan sehat c) ReLU lebih disukai karena tidak mengalami saturasi pada nilai positif dan membantu mengurangi masalah vanishing gradient, sehingga mempercepat konvergensi selama pelatihan jaringan yang dalam. d) ReLU lebih disukai karena tidak mengalami saturasi pada nilai positif dan membantu mengurangi masalah vanishing gradient, sehingga mempercepat konvergensi selama pelatihan Matematika 2) Ketika melatih jaringan saraf yang sangat dalam, fenomena vanishing gradient sering menyebabkan jaringan sulit belajar. Apa penyebab utama masalah ini? a) Nilai gradien yang terlalu besar membuat bobot lapisan awal meningkat skill bermain mobile legend b) Nilai gradien yang sangat kecil untuk puasa ramadan c) Nilai gradien yang sangat kecil pada lapisan awal menyebabkan bobot tidak berubah secara makan malam d) Nilai gradien yang sangat kecil pada lapisan awal menyebabkan bobot tidak berubah secara signifikan. 3) Apa fungsi utama dari lapisan max pooling pada Convolutional Neural Network (CNN)? a) Mengurangi dimensi fitur dan membantu model tahan terhadap pergeseran lempeng tetonik b) Mengurangi dimensi fitur dan membantu model tahan terhadap pergeseran posisi kurang makan c) Mengurangi dimensi fitur dan membantu model tahan terhadap pergeseran posisi objek. d) Menambahkan lebih banyak neuron untuk bertemu guru kimia 4) Bagaimana dropout membantu mengurangi overfitting pada jaringan saraf? a) Dengan menggandakan jumlah neuron agar model pembelajaran tidur b) Dengan menonaktifkan neuron secara acak selama pelatihan agar jaringan tidak terlalu bergantung pada neuron tertentu. c) Dengan mengadakan lomba turnamen d) secara acak selama pelatin tidak terlalu bergantung pada skill boxing 5) Apa prinsip kerja dari algoritma backpropagation dalam pelatihan jaringan saraf dalam? a) Hanya memperbarui bobot di lapisan terakhir jaringan. b) Menyebarkan kesalahan dari output ke input untuk memperbarui bobot berdasarkan gradien turunan. 6) Dalam Recurrent Neural Network (RNN), bagaimana cara umum untuk mengatasi masalah exploding gradient? a) Dengan melakukan gradient clipping untuk membatasi nilai maksimum gradien. b) Dengan menambah ai di dalamnya c) Dengan menambah jumlah lapisan ozon d) jawaban ada di ai chat gpt 7) Apa manfaat utama dari penggunaan batch normalization dalam jaringan dalam? a) Menstabilkan distribusi input setiap lapisan agar pelatihan lebih cepat dan stabil. b) Menambah ukuran dataset agar lebih mudah dilatih. 8) Apa yang terjadi ketika sebuah model mengalami overfitting? a) Model belajar terlalu detail pada data pelatihan dan gagal mengenali pola baru. b) Model tidak belajar sama sekali dan memberikan prediksi acak. 9) Apa keuntungan utama dari transfer learning dalam deep learning? a) Dapat memanfaatkan model pra-latih untuk mempercepat pelatihan pada dataset lama b) Dapat memanfaatkan model pra-latih untuk mempercepat pelatihan pada dataset baru. 10) Apa tujuan utama dari algoritma gradient descent dalam pelatihan jaringan saraf? a) Menyesuaikan bobot secara iteratif menuju nilai minimum dari fungsi loss. b) Menyesuaikan bobot secara iteratif menuju nilai minimum dari fungsi makan mbg

Muhammad Aditya Fardhan XI5 (20)

排行榜

視覺風格

選項

切換範本

恢復自動保存: ?