1) Mengapa penggunaan fungsi aktivasi ReLU lebih disukai dibandingkan sigmoid atau tanh dalam jaringan saraf dalam yang sangat dalam? a) relu adalah chat gpt yang berevolusi b) Relu lebih suka makan makanan sehat c) ReLU lebih disukai karena tidak mengalami saturasi pada nilai positif dan membantu mengurangi masalah vanishing gradient, sehingga mempercepat konvergensi selama pelatihan jaringan yang dalam. d) ReLU lebih disukai karena tidak mengalami saturasi pada nilai positif dan membantu mengurangi masalah vanishing gradient, sehingga mempercepat konvergensi selama pelatihan Matematika 2) Ketika melatih jaringan saraf yang sangat dalam, fenomena vanishing gradient sering menyebabkan jaringan sulit belajar. Apa penyebab utama masalah ini? a) Nilai gradien yang terlalu besar membuat bobot lapisan awal meningkat skill bermain mobile legend b) Nilai gradien yang sangat kecil untuk puasa ramadan c) Nilai gradien yang sangat kecil pada lapisan awal menyebabkan bobot tidak berubah secara makan malam d) Nilai gradien yang sangat kecil pada lapisan awal menyebabkan bobot tidak berubah secara signifikan. 3) Apa fungsi utama dari lapisan max pooling pada Convolutional Neural Network (CNN)? a) Mengurangi dimensi fitur dan membantu model tahan terhadap pergeseran lempeng tetonik b) Mengurangi dimensi fitur dan membantu model tahan terhadap pergeseran posisi kurang makan c) Mengurangi dimensi fitur dan membantu model tahan terhadap pergeseran posisi objek. d) Menambahkan lebih banyak neuron untuk bertemu guru kimia 4) Bagaimana dropout membantu mengurangi overfitting pada jaringan saraf? a) Dengan menggandakan jumlah neuron agar model pembelajaran tidur b) Dengan menonaktifkan neuron secara acak selama pelatihan agar jaringan tidak terlalu bergantung pada neuron tertentu. c) Dengan mengadakan lomba turnamen d) secara acak selama pelatin tidak terlalu bergantung pada skill boxing 5) Apa prinsip kerja dari algoritma backpropagation dalam pelatihan jaringan saraf dalam? a) Hanya memperbarui bobot di lapisan terakhir jaringan. b) Menyebarkan kesalahan dari output ke input untuk memperbarui bobot berdasarkan gradien turunan. 6) Dalam Recurrent Neural Network (RNN), bagaimana cara umum untuk mengatasi masalah exploding gradient? a) Dengan melakukan gradient clipping untuk membatasi nilai maksimum gradien. b) Dengan menambah ai di dalamnya c) Dengan menambah jumlah lapisan ozon d) jawaban ada di ai chat gpt 7) Apa manfaat utama dari penggunaan batch normalization dalam jaringan dalam? a) Menstabilkan distribusi input setiap lapisan agar pelatihan lebih cepat dan stabil. b) Menambah ukuran dataset agar lebih mudah dilatih. 8) Apa yang terjadi ketika sebuah model mengalami overfitting? a) Model belajar terlalu detail pada data pelatihan dan gagal mengenali pola baru. b) Model tidak belajar sama sekali dan memberikan prediksi acak. 9) Apa keuntungan utama dari transfer learning dalam deep learning? a) Dapat memanfaatkan model pra-latih untuk mempercepat pelatihan pada dataset lama b) Dapat memanfaatkan model pra-latih untuk mempercepat pelatihan pada dataset baru. 10) Apa tujuan utama dari algoritma gradient descent dalam pelatihan jaringan saraf? a) Menyesuaikan bobot secara iteratif menuju nilai minimum dari fungsi loss. b) Menyesuaikan bobot secara iteratif menuju nilai minimum dari fungsi makan mbg
0%
Muhammad Aditya Fardhan XI5 (20)
共享
共享
共享
由
Aditsalbun
Kelas 11
Informatika
编辑内容
打印
嵌入
更多
作业
排行榜
显示更多
显示更少
此排行榜当前是私人享有。单击
,共享
使其公开。
资源所有者已禁用此排行榜。
此排行榜被禁用,因为您的选择与资源所有者不同。
还原选项
开箱游戏
是一个开放式模板。它不会为排行榜生成分数。
需要登录
视觉风格
字体
需要订阅
选项
切换模板
显示所有
播放活动时将显示更多格式。
打开成绩
复制链接
QR 代码
删除
恢复自动保存:
?