對(duì)于神經(jīng)網(wǎng)絡(luò)的說法,下面正確的是:()
A增加神經(jīng)網(wǎng)絡(luò)層數(shù),可能會(huì)增加測試數(shù)據(jù)集的分類錯(cuò)誤率
B減少神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小測試數(shù)據(jù)集的分類錯(cuò)誤率
C增加神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小訓(xùn)練數(shù)據(jù)集的分類錯(cuò)誤率
A增加神經(jīng)網(wǎng)絡(luò)層數(shù),可能會(huì)增加測試數(shù)據(jù)集的分類錯(cuò)誤率
B減少神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小測試數(shù)據(jù)集的分類錯(cuò)誤率
C增加神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小訓(xùn)練數(shù)據(jù)集的分類錯(cuò)誤率
第3題
A.其他選項(xiàng)都不對(duì)
B.沒啥問題,神經(jīng)網(wǎng)絡(luò)會(huì)正常開始訓(xùn)練
C.神經(jīng)網(wǎng)絡(luò)可以訓(xùn)練,但是所有的神經(jīng)元最后都會(huì)變成識(shí)別同樣的東西
D.神經(jīng)網(wǎng)絡(luò)不會(huì)開始訓(xùn)練,因?yàn)闆]有梯度改變
第4題
A.BP神經(jīng)網(wǎng)絡(luò)
B.RBF神經(jīng)網(wǎng)絡(luò)
C.SOM神經(jīng)網(wǎng)絡(luò)
D.ELMAN神經(jīng)網(wǎng)絡(luò)
第5題
1.一個(gè)機(jī)器學(xué)習(xí)模型,如果有較高準(zhǔn)確率,總是說明這個(gè)分類器是好的
2.如果增加模型復(fù)雜度,那么模型的測試錯(cuò)誤率總是會(huì)降低
3.如果增加模型復(fù)雜度,那么模型的訓(xùn)練錯(cuò)誤率總是會(huì)降低
4.我們不可以使用聚類“類別id”作為一個(gè)新的特征項(xiàng),然后再用監(jiān)督學(xué)習(xí)分別進(jìn)行學(xué)習(xí)
A.1
B.2
C.3
D.1and3
第6題
A.增加訓(xùn)練集量
B.減少神經(jīng)網(wǎng)絡(luò)隱藏層節(jié)點(diǎn)數(shù)
C.刪除稀疏的特征S
D.SVM算法中使用高斯核/RBF核代替線性核
第7題
A.增加訓(xùn)練集量
B.減少神經(jīng)網(wǎng)絡(luò)隱藏層節(jié)點(diǎn)數(shù)
C.刪除稀疏的特征
D.SVM算法中使用高斯核/RBF核代替線性核
第8題
A.分類器的構(gòu)造方法有統(tǒng)計(jì)方法、機(jī)器學(xué)習(xí)方法、神經(jīng)網(wǎng)絡(luò)方法等
B.有三種分類器評(píng)價(jià)或比較尺度:預(yù)測準(zhǔn)確度、計(jì)算復(fù)雜度、模型描述的簡潔度
C.統(tǒng)計(jì)方法包括決策樹法和規(guī)則歸納法
D.神經(jīng)網(wǎng)絡(luò)方法主要是BP算法
第9題
A.神經(jīng)網(wǎng)絡(luò)對(duì)訓(xùn)練數(shù)據(jù)中的噪聲非常魯棒
B.可以處理冗余特征
C.訓(xùn)練ANN是一個(gè)很耗時(shí)的過程
D.至少含有一個(gè)隱藏層的多層神經(jīng)網(wǎng)絡(luò)