




版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)
文檔簡介
人工智能算法知識考試題庫500題(供參考)
一、單選題
1.循環(huán)神經(jīng)網(wǎng)絡(luò)中,假設(shè)輸入是一個32*32*3的圖像,3表示RGB三通道,卷積
核的結(jié)構(gòu)是5*5*3,共6個不同的卷積核,一個卷積核產(chǎn)生一個featuremap,則
輸出的featuremap矩陣的結(jié)構(gòu)是()。
A、27*27*3
B、28*28*3
C、27*27*6
D、28*28*6
答案:D
解析:循環(huán)神經(jīng)網(wǎng)絡(luò)中,假設(shè)輸入是一個32*32*3的圖像,3表示RGB三通道,
卷積核的結(jié)構(gòu)是5*5*3,共6個不同的卷積核,一個卷積核產(chǎn)生一個featurema
P,則輸出的featuremap矩陣的結(jié)構(gòu)是28*28*6。
2.fromskIearnimportIinear_modeIreg=Iinear_modeI.Lasso,其中Lasso是用
來擬合什么樣的線性模型的?
A、稀疏數(shù)據(jù)
B、稀疏系數(shù)
C'稀疏標(biāo)簽
答案:B
3.如果問題存在最優(yōu)解,則下面幾種搜索算法中,哪一個必然可以得到該最優(yōu)解
A、廣度優(yōu)先搜索
B、深度優(yōu)先搜索
C、有界深度優(yōu)先搜索
D、啟發(fā)式搜索
答案:A
解析:廣度優(yōu)先搜索搜索的范圍最廣
4.在強化學(xué)習(xí)過程中,()表示隨機地采取某個動作,以便于嘗試各種結(jié)果;()表示
采取當(dāng)前認(rèn)為最優(yōu)的動作,以便于進(jìn)一步優(yōu)化評估當(dāng)前認(rèn)為最優(yōu)的動作的值。
A、探索
B、開發(fā)
C、開發(fā)
D、探索
E、探索
答案:A
5.對于一個分類任務(wù),如果開始時神經(jīng)網(wǎng)絡(luò)的權(quán)重不是隨機賦值的,而是都設(shè)成
0,下面哪個敘述是正確的?
A、其他選項都不對
B、沒啥問題,神經(jīng)網(wǎng)絡(luò)會正常開始訓(xùn)練
C、神經(jīng)網(wǎng)絡(luò)可以訓(xùn)練,但是所有的神經(jīng)元最后都會變成識別同樣的東西
D、神經(jīng)網(wǎng)絡(luò)不會開始訓(xùn)練,因為沒有梯度改變
答案:C
6.下列哪些不是“子集搜索”中的搜索方式(_)
A、單向搜索
B、雙向搜索
C、前向搜索
D、后向搜索
答案:A
解析:見算法解析
7.LARS屬于哪種特征選擇方法(一)
A、包裹式
B、啟發(fā)式
C、嵌入式
D、過濾式
答案:C
解析:見算法解析
8.生成式方法是直接基于(_)的方法?
A、生成式學(xué)習(xí)
B、生成式場景
C、生成式數(shù)據(jù)
D、生成式模型
答案:D
解析:見算法解析
9,下面哪個敘述是對的?Dropout對一個神經(jīng)元隨機屏蔽輸入權(quán)重Dropconnect
對一個神經(jīng)元隨機屏蔽輸入和輸出權(quán)重
A、1是對的,2是錯的
B、都是對的
C、1是錯的,2是對的
D、都是錯的
答案:D
10.機器學(xué)習(xí)中做特征選擇時,下面方法或信息不一定有用的是
A、卡方檢驗
B、信息增益
C、數(shù)據(jù)采樣
D、期望交叉熠
答案:C
11,下列關(guān)于特征選擇的說法錯誤的是(_)
A、可以提高特征關(guān)聯(lián)性
B、可以減輕維數(shù)災(zāi)難問題
C、可以降低學(xué)習(xí)任務(wù)的難度
D、特征選擇和降維具有相似的動機
答案:A
解析:見算法解析
12.全局梯度下降算法、隨機梯度下降算法和批量梯度下降算法均屬于梯度下降
算法,以下關(guān)于其有優(yōu)缺點說法錯誤的是:
A、全局梯度算法可以找到損失函數(shù)的最小值
B、批量梯度算法可以解決局部最小值問題
C、隨機梯度算法可以找到損失函數(shù)的最小值
D、全局梯度算法收斂過程比較耗時
答案:C
13.下面的問題,屬于分類問題的是;
A、根據(jù)員工的薪水、工作壓力、成長環(huán)境、工作年限、績效考核等數(shù)據(jù),預(yù)測
員工在接下來一段時間內(nèi)的工資漲幅
B、根據(jù)員工的薪水、工作壓力,成長環(huán)境、工作年限、績效考核等數(shù)據(jù),預(yù)測
員工下一季度的績效考核分?jǐn)?shù)
C、根據(jù)員工的薪水、工作壓力、成長環(huán)境、工作年限、績效考核等數(shù)據(jù),預(yù)測
員工是否可能會在接下來的一段時間內(nèi)離職
D、根據(jù)員工的薪水、工作壓力,成長環(huán)境、工作年限、績效考核等數(shù)據(jù),預(yù)測
員工下一季度的銷售額
答案:C
14.關(guān)于精度與錯誤率的說法中錯誤的是()。
A、精度與錯誤率的和為1
B、精度與錯誤率都可以反映模型的好壞
C、精度與錯誤率都可以用概率密度函數(shù)表示
D、精度是評價模型的唯一標(biāo)準(zhǔn)
答案:D
解析:精度是不是評價模型的唯一標(biāo)準(zhǔn)
15.如果問題存在最優(yōu)解,則下面幾種搜索算法中,廣度優(yōu)先搜索必然可以得到
該最優(yōu)解,()可以認(rèn)為是“智能程度相對比較高”的算法。
A、無界深度優(yōu)先搜索
B、深度優(yōu)先搜索
C、有界深度優(yōu)先搜索
D、啟發(fā)式搜索
答案:D
16.下列哪個函數(shù)不可以做非線性激活函數(shù)?()
A、y=tanh(x)
B\y=sin(x)
Gy=max(x,0)
D\y=2x
答案:D
17.Softmax算法中溫度趨近于0時Softmax將趨于(_)
A、僅探索
B、僅利用
C、全探索
D、全利用
答案:B
解析:見算法解析
18.閔可夫斯基距離表示為曼哈頓距離時,p為()。
A、1
B、2
C、3
D、4
答案:A
解析:閔可夫斯基距離定義為:該距離最常用的P是2和1,前者是歐幾里得距
離),后者是曼哈頓距離。
19.下面的問題,哪一個屬于分類問題的是()
A、根據(jù)員工的薪水、工作壓力、成長環(huán)境、工作年限、績效考核等數(shù)據(jù),預(yù)測
員工下一季度的銷售額
B、根據(jù)員工的薪水、工作壓力,成長環(huán)境、工作年限、績效考核等數(shù)據(jù),預(yù)測
員工下一季度的績效考核分?jǐn)?shù)
C、根據(jù)員工的薪水、工作壓力、成長環(huán)境、工作年限、績效考核等數(shù)據(jù),預(yù)測
員工在接下來一段時間內(nèi)的工資漲幅
D、根據(jù)員工的薪水、工作壓力,成長環(huán)境、工作年限、績效考核等數(shù)據(jù),預(yù)測
員工是否可能會在接下來的一段時間內(nèi)離職
答案:D
20.Relief屬于哪種特征選擇方法(一)
A、包裹式
B、啟發(fā)式
C、嵌入式
D、過濾式
答案:D
解析:見算法解析
21.哪種聚類方法采用概率模型來表達(dá)聚類()
A、K-means
B、LVQ
GDBSCAN
D、高斯混合聚類
答案:D
22.faster-rcnn回歸分支采用()Ioss
A、L1
B、L2
C、SmoothLI
D\nan
答案:C
解析:見算法解析
23.在一個神經(jīng)網(wǎng)絡(luò)中,知道每一個神經(jīng)元的權(quán)重和偏差是最重要的一步。如果
知道了神經(jīng)元準(zhǔn)確的權(quán)重和偏差,便可以近似任何函數(shù),但怎么獲知每個神經(jīng)的
權(quán)重和偏移呢?
A、搜索每個可能的權(quán)重和偏差組合,直到得到最佳值
B、賦予一個初始值,然后檢查跟最佳值的差值,不斷迭代調(diào)整權(quán)重
C、隨機賦值,聽天由命
D、以上都不正確的
答案:B
24.卷積神經(jīng)網(wǎng)絡(luò)中的局部連接是指:在進(jìn)行圖像識別的時候,不需要對整個圖
像進(jìn)行處理,只需要關(guān)注圖像中某些()的區(qū)域。
A\一般
B、特殊
C、連續(xù)
D\重點
答案:B
解析:見算法解析
25.下列人工神經(jīng)網(wǎng)絡(luò)屬于反饋網(wǎng)絡(luò)的是()
A、HopfieId網(wǎng)
B、BP網(wǎng)絡(luò)
C、多層感知器
D、LVQ網(wǎng)絡(luò)
答案:A
解析:$BP網(wǎng)絡(luò)'多層感知器、LVQ網(wǎng)絡(luò)屬于前饋網(wǎng)絡(luò)
26.下列關(guān)于K-Means聚類說法錯誤的是()
A、聚類的簇個數(shù)會由模型自動給出
B、可以使用多組隨機的初始中心點進(jìn)行計算
C、聚類前應(yīng)當(dāng)進(jìn)行維度分析
D、聚類前應(yīng)當(dāng)進(jìn)行數(shù)據(jù)標(biāo)準(zhǔn)化
答案:A
解析:聚類的簇個數(shù)由人為確定。
27.LSTM是一種什么網(wǎng)絡(luò)?
A、卷積神經(jīng)網(wǎng)
B、前饋神經(jīng)網(wǎng)
C\循環(huán)神經(jīng)網(wǎng)
D\攣生網(wǎng)絡(luò)
答案:C
解析:LSTM是一種循環(huán)神經(jīng)網(wǎng)絡(luò)
28.在經(jīng)典的卷積神經(jīng)網(wǎng)絡(luò)模型中,Softmax函數(shù)是跟在什么隱藏層后面的?
A、卷積層
B、池化層
C、全連接層
D、以上都可以
答案:C
29.回歸分析中定義的()
A、解釋變量和被解釋變量都是隨機變量
B、解釋變量為非隨機變量,被解釋變量為隨機變量
C、解釋變量和被解釋變量都為非隨機變量
D、解釋變量為隨機變量,被解釋變量為非隨機變量
答案:B
30.如果強行限制輸出層的分布是標(biāo)準(zhǔn)化的,可能會導(dǎo)致某些特征模式的丟失,
所以在標(biāo)準(zhǔn)化之后,BatchNorm會緊接著對數(shù)據(jù)做縮放和()
A\平移
B、刪除
C、移動
D、收斂
答案:A
解析:如果強行限制輸出層的分布是標(biāo)準(zhǔn)化的,可能會導(dǎo)致某些特征模式的丟失,
所以在標(biāo)準(zhǔn)化之后,BatchNorm會緊接著對數(shù)據(jù)做縮放和平移
31.關(guān)于MNIST,下列說法錯誤的是0。
A、是著名的手寫體數(shù)字識別數(shù)據(jù)集
B、有訓(xùn)練集和測試集兩部分
C、訓(xùn)練集類似人學(xué)習(xí)中使用的各種考試試卷
D、測試集大約包含10000個樣本和標(biāo)簽
答案:C
32.Reiu在零點不可導(dǎo),那么在反向傳播中怎么處理()
A、設(shè)為0
B、設(shè)為無窮大
C、不定義
D、設(shè)為任意值
答案:A
解析:Relu在零點不可導(dǎo),那么在反向傳播中設(shè)為0
33.神經(jīng)網(wǎng)絡(luò)由許多神經(jīng)元(Neuron)組成,每個神經(jīng)元接受一個輸入,對輸入
進(jìn)行處理后給出一個輸出。請問下列關(guān)于神經(jīng)元的描述中,哪一項是正確的?
A、每個神經(jīng)元可以有一個輸入和一個輸出
B、每個神經(jīng)元可以有多個輸入和一個輸出
C、每個神經(jīng)元可以有多個輸入和多個輸出
D、上述都正確
答案:D
解析:每個神經(jīng)元可以有一個或多個輸入,和一個或多個輸出。如圖所示的神經(jīng)
網(wǎng)絡(luò)結(jié)構(gòu)中,隱藏層的每一個神經(jīng)元都是多輸入多輸出。若將輸出層改為一個神
經(jīng)元,則隱藏層每個神經(jīng)元都是一個輸出;若將輸入層改為一個神經(jīng)元,則隱藏
層每個神經(jīng)元都是一個輸入。
34.神經(jīng)網(wǎng)絡(luò)中Dropout的作用()
A、防止過擬合
B、減小誤差
C、增加網(wǎng)絡(luò)復(fù)雜度
答案:A
解析:dropout是指在深度學(xué)習(xí)網(wǎng)絡(luò)的訓(xùn)練過程中,對于神經(jīng)網(wǎng)絡(luò)單元,按照一
定的概率將其暫時從網(wǎng)絡(luò)中丟棄。
35.人工神經(jīng)網(wǎng)絡(luò)與生物神經(jīng)網(wǎng)絡(luò)的關(guān)系:
A、完全拷貝
B、一點點關(guān)系都沒有
C、人工神經(jīng)網(wǎng)絡(luò)受生物神經(jīng)網(wǎng)絡(luò)啟發(fā)
D、同一事物的兩個名稱
答案:C
解析:人工神經(jīng)網(wǎng)絡(luò)受生物神經(jīng)網(wǎng)絡(luò)啟發(fā)
36.模型有效的基本條件是能夠()已知的樣本
A、結(jié)合
B、擬合
C、聯(lián)合
D、聚集
答案:B
解析:模型有效的基本條件是能夠擬合已知的樣本
37.如果我們希望預(yù)測n個類(p1,p2...pk)的概率使得所有n的p的和等于1,
那么下列哪個函數(shù)可以用作輸出層中的激活函數(shù)?
A、Softmax
B、ReLu
C、Sigmoid
D、Tanh
答案:A
38.在人臉檢測算法中,不屬于該算法難點的是()
A、出現(xiàn)人臉遮擋
B、人臉角度變化大
C、需要檢測分辨率很小的人臉
D、需要檢測不同性別的人臉
答案:D
解析:在人臉檢測算法中,不屬于該算法難點的是需要檢測不同性別的人臉
39.機器執(zhí)行學(xué)習(xí)的框架體現(xiàn)了其學(xué)習(xí)的本質(zhì)是()
A、參數(shù)預(yù)估
B、機器翻譯
C、圖像識別
D、參數(shù)估計
答案:D
解析:機器執(zhí)行學(xué)習(xí)的框架體現(xiàn)了其學(xué)習(xí)的本質(zhì)是參數(shù)估計
40.假設(shè)在龐大的數(shù)據(jù)集上使用Logistic回歸模型??赡苡龅揭粋€問題,logis
tics回歸需要很長時間才能訓(xùn)練。如何提高訓(xùn)練速度?()
A、降低學(xué)習(xí)率,減少迭代次數(shù)
B、降低學(xué)習(xí)率,增加迭代次數(shù)
C、提高學(xué)習(xí)率,增加迭代次數(shù)
D、增加學(xué)習(xí)率,減少迭代次數(shù)
答案:D
41.0是使用某一位置的相鄰輸出的總體統(tǒng)計特征來代替網(wǎng)絡(luò)在該位置的輸出
A、卷積
B、約化
C、池化
D、批歸一化
答案:C
解析:池化是使用某一位置的相鄰輸出的總體統(tǒng)計特征來代替網(wǎng)絡(luò)在該位置的輸
出
42.圖計算中圖數(shù)據(jù)往往是()和不規(guī)則的,在利用分布式框架進(jìn)行圖計算時,
首先需要對圖進(jìn)行劃分,將負(fù)載分配到各個節(jié)點上
A、結(jié)構(gòu)化
B、非結(jié)構(gòu)化
C\對稱化
D、規(guī)則化
答案:B
解析:圖計算中圖數(shù)據(jù)往往是非結(jié)構(gòu)化和不規(guī)則的,在利用分布式框架進(jìn)行圖計
算時,首先需要對圖進(jìn)行劃分,將負(fù)載分配到各個節(jié)點上
43.在CNN中,梯度下降法的作用是()。
A、線性變換
B、非線性變換
C、求函數(shù)最小值
D、加速訓(xùn)練
答案:C
解析:在CNN中,梯度下降法的作用是求函數(shù)最小值。
44.Y0L0v3網(wǎng)格數(shù)為輸出特征圖[N,C,H,W]的0
A、C
B、C*H
C、H*W
D、nan
答案:c
解析:見算法解析
45.目標(biāo)檢測常用性能指標(biāo)的是()
A、信噪比
B、平方誤差
C、mAP
D、分辨率
答案:C
解析:mAP表示算法處理每張照片時間。
46.在選擇神經(jīng)網(wǎng)絡(luò)的深度時,下面哪些參數(shù)需要考慮?1神經(jīng)網(wǎng)絡(luò)的類型(如M
LP,CNN)2輸入數(shù)據(jù)3計算能力(硬件和軟件能力決定)4學(xué)習(xí)速率5映射的輸出函
數(shù)
A、1,2,4,5
B、2,3,4,5
C、都需要考慮
Dx1,3,4,5
答案:C
47.以下關(guān)于降維,表述錯誤的是:()
A、降維過程中可以保留原始數(shù)據(jù)的所有信息。
B、多維縮放的目標(biāo)是要保證降維后樣本之間的距離不變。
C、線性降維方法目標(biāo)是要保證降維到的超平面能更好的表示原始數(shù)據(jù)。
D、核線性降維方法目標(biāo)是通過核函數(shù)和核方法來避免采樣空間投影到高維空間
再降維之后的低維結(jié)構(gòu)丟失。
答案:A
48.NaveBayes(樸素貝葉斯)是一種特殊的Bayes分類器,特征變量是X,類別
標(biāo)簽是C,它的一個假定是()
A、各類別的先驗概率P(C)是相等的
B、以0為均值,sqr(2)/2為標(biāo)準(zhǔn)差的正態(tài)分布
C、特征變量X的各個維度是類別條件獨立隨機變量
D、P(X|C)是高斯分布
答案:C
49.獨熱編碼的缺點是:①.過于稀疏②.詞與詞的相關(guān)性比較小③.易于編碼④.
容易存儲
A、③④
B、①②
C、①③
D、②④
答案:B
解析:獨熱編碼的缺點是:①.過于稀疏②.詞與詞的相關(guān)性比較小
50.從一個初始策略出發(fā),不斷迭代進(jìn)行策略評估和改進(jìn),直到策略收斂、不再
改變?yōu)橹梗@樣的作法稱為(_)
A、策略迭代
B、值迭代
C、策略改進(jìn)
D、最優(yōu)值函數(shù)
答案:A
解析:見算法解析
51.以下屬于回歸算法的評價指標(biāo)是?
A、召回率
B、混淆矩陣
C、均方誤差
D、準(zhǔn)確率
答案:C
52.在下列人工神經(jīng)學(xué)習(xí)算法中,哪種是能夠根據(jù)期望的和實際的網(wǎng)絡(luò)輸出之間
的差來調(diào)整神經(jīng)元之間連接的強度或權(quán)。()
A、有師學(xué)習(xí)
B、無師學(xué)習(xí)
C、強化學(xué)習(xí)
D、都不是
答案:A
53.關(guān)于循環(huán)神經(jīng)網(wǎng)絡(luò)以下說法錯誤的是?
A、循環(huán)神經(jīng)網(wǎng)絡(luò)可以根據(jù)時間軸展開
B、LSTM無法解決梯度消失的問題
C、LSTM也是一種循環(huán)神經(jīng)網(wǎng)絡(luò)
D、循環(huán)神經(jīng)網(wǎng)絡(luò)可以簡寫為RNN
答案:B
54.()常做為CNN網(wǎng)絡(luò)的最后一層。
A、卷積層
B、池化層
C、全連接層
D、歸一化層
答案:c
解析:全連接層常做為CNN網(wǎng)絡(luò)的最后一層。
55.為了對某圖像中的目標(biāo)進(jìn)行分析和識別,一般需要對圖像進(jìn)行()處理。
A、圖像加噪
B、圖像采集
C、圖像壓縮
D、圖像分割
答案:D
解析:為了對某圖像中的目標(biāo)進(jìn)行分析和識別,一般需要對圖像進(jìn)行圖像分割處
理。
56.以下關(guān)于算法的說法中,不正確的是
A、機器學(xué)習(xí)算法分為有監(jiān)督'半監(jiān)督和無監(jiān)督三種
B、卷積神經(jīng)網(wǎng)絡(luò)是重要的遷移學(xué)習(xí)算法
C、決策樹算法屬于監(jiān)督學(xué)習(xí)類別
D、“Means是屬于無監(jiān)督學(xué)習(xí)算法
答案:B
57.VGG-19中卷積核的大小為
A、3x3
B、5x5
C、3x3,5x5
D、不確定
答案:A
解析:VGG-19中卷積核的大小為3x3
58.在卷積操作過程中計算featuremap的尺寸:設(shè)圖像大小為300*300,卷積核
大小為3*3,卷積窗口移動的步長為1,則featuremaps的大小是()個元素?
A、78400
B、88804
G91204
D、99856
答案:B
解析:見算法解析
59.Inception模塊采用()的設(shè)計形式,每個支路使用。大小的卷積核。
A、多通路,不同
B、單通路,不同
C、多通路,相同
D、單通路,相同
答案:A
解析:Inception模塊采用多通路,不同的設(shè)計形式,每個支路使用多通路,不
同大小的卷積核。
60.xgboost在代價函數(shù)里加入了(),用于控制模型的復(fù)雜度
A、正則項
B、非線性
C、激活函數(shù)
D、特征變換
答案:A
解析:xgboost在代價函數(shù)里加入了正則項,用于控制模型的復(fù)雜度
61.CRF(條件隨機場)和HMM(隱馬爾可夫模型)之間的主要區(qū)別是什么?
A、CRF是生成式的,而HMM是判別式模型
B、CRF是判別式模型,HMM是生成式模型。
C、CRF和HMM都是生成式模型
D、CRF和HMM都是判別式模型。
答案:B
62.在K-搖臂賭博機中,若嘗試次數(shù)非常大,在一段時間后,搖臂的獎賞能很好
的近似出來,不再需要探索,則可讓E隨著嘗試次數(shù)增加而(—)
A、增大
B、置為無窮
C、置為0
D、減少
答案:D
解析:見算法解析
63.關(guān)于聚類說法錯誤的是()
A、在無監(jiān)督學(xué)習(xí)任務(wù)中,研究最多、應(yīng)用最廣的是聚類
B、聚類可作為一個單獨過程,用于找尋數(shù)據(jù)內(nèi)在的分布結(jié)構(gòu),但不能作為其他
學(xué)習(xí)任務(wù)的前驅(qū)過程
C、聚類分析的目標(biāo)是組內(nèi)的對象之間是相似的,不同組中的對象是不同的
D、組內(nèi)的相似性越大,組間差別越大,聚類就越好
答案:B
解析:聚類可作為一個單獨過程,用于找尋數(shù)據(jù)內(nèi)在的分布結(jié)構(gòu),可以作為其他
學(xué)習(xí)任務(wù)的前驅(qū)過程
64.學(xué)習(xí)器的實際預(yù)測輸出與樣本的真實輸出之間的差異稱為(_)。
A、錯誤率
B、精度
C、誤差
D、查準(zhǔn)率
答案:C
解析:見算法解析
65.下列可以用于聚類問題的機器學(xué)習(xí)算法有()
A、決策樹
B、k-means
C、隨機森林
D、邏輯回歸
答案:B
66.使用交叉驗證最簡單的方法是在估計器和數(shù)據(jù)集上調(diào)用什么輔助函數(shù)?
A、cross_val_score
B、cross_vaI%
C、val_score
D、cross_score
答案:A
67.以下關(guān)于隨機森林算法的描述中錯誤的是
A、可以處理高維度的屬性,并且不用做特征選擇
B、隨機森林的預(yù)測能力不受多重共線性影響
C、也擅長處理小數(shù)據(jù)集和低維數(shù)據(jù)集的分類問題
D、能應(yīng)對正負(fù)樣本不平衡問題
答案:C
68.根據(jù)邊的性質(zhì)不同,概率圖模型可大致分為兩類:第一類是使用有向無環(huán)圖
表示變量間的依賴關(guān)系,稱為(—);第二類是使用無向圖表示變量間的相關(guān)關(guān)
系,稱為無向圖模型或馬爾可夫網(wǎng)(Markovnetwork)。
A、貝葉斯網(wǎng)
B、拉普拉斯網(wǎng)
C、帕斯卡網(wǎng)
D、塞繆爾網(wǎng)
答案:A
解析:見算法解析
69.對不具備泛化能力的規(guī)則轉(zhuǎn)變?yōu)楦话愕囊?guī)則的最基礎(chǔ)的技術(shù)為(一)
A、最大一般泛化
B、最小一般泛化
C、最大一般特化
D、最小一般特化
答案:B
解析:見算法解析
70.長短期記憶LSTM的核心貢獻(xiàn)是引入了()的巧妙構(gòu)思,該構(gòu)思中的權(quán)重視上下
文而定,而不是固定的。
A、自增加
B、自循環(huán)
C、自遞歸
D、自減少
答案:B
解析:長短期記憶LSTM的核心貢獻(xiàn)是引入了自循環(huán)的巧妙構(gòu)思,該構(gòu)思中的權(quán)重
視上下文而定,而不是固定的。
71.半監(jiān)督支持向量機中最著名的是TSVM(TransductiveSupportVectorMachin
e)o與標(biāo)準(zhǔn)SVM一樣,TSVM也是針對(一)問題的學(xué)習(xí)方法?
A、分類
B、回歸
C、聚類
D、二分類
答案:D
解析:見算法解析
72.協(xié)同訓(xùn)練(co-training)是針對(__)數(shù)據(jù)設(shè)計?
A、多角度
B、多視圖
C、多環(huán)境
D、多版本
答案:B
解析:見算法解析
73.哪個不是常用的聚類算法()。
A、K-Means
B、DBSCAN
GGMMs
DvSoftmax
答案:D
解析:Softmax不是常用的聚類算法。
74.高層的特征是低層特征的組合,從低層到高層的特征表達(dá)越來越(),也即
越來越能表現(xiàn)語義或者意圖。
A、具體和形象化
B、抽象和概念化
C、具體和概念化
D、抽象和具體化
答案:B
解析:高層的特征是低層特征的組合,從低層到高層的特征表達(dá)越來越抽象和概
念化,也即越來越能表現(xiàn)語義或者意圖。
75.以才哪種組合在CNN不常見
Avconv+reIu
B、conv+reIu+pooI
C、conv+reIu+pooI+fc
D、conv+k-means
答案:D
解析:conv+k-means組合在CNN不常見
76.我們可以將深度學(xué)習(xí)看成一種端到端的學(xué)習(xí)方法,這里的端到端指的是
A、輸入端-輸出端
B、輸入端-中間端
C、輸出端-中間端
D、中間端-中間端
答案:A
77.標(biāo)準(zhǔn)循環(huán)神經(jīng)網(wǎng)絡(luò)隱含層的輸入對于網(wǎng)絡(luò)輸出的影響隨時間
A、不斷遞歸而衰退
B、不斷遞歸而增強
C、先增強后減弱
D、先減弱后增強
答案:A
78.GBDT算法相比于隨機森林算法,以下哪種表述是錯誤的?
A、GBDT算法比隨機森林容易欠擬合
B、隨機森林是并行計算的,而GBDT不能
C、GBDT算法比隨機森林容易過擬合
DxGBDT與隨機森林都是建立在CART樹的基礎(chǔ)之上的
答案:C
79.LVW屬于哪種特征選擇方法(一)
A、包裹式
B、啟發(fā)式
C、嵌入式
D、過濾式
答案:A
解析:見算法解析
80.LSTM單元中引入了哪些門來更新當(dāng)前時刻的單元狀態(tài)向量?
A、輸入門、遺忘門
B、任意門、輸入門
C、輸出門、任意門
D、遺忘門、任意門
答案:A
解析:LSTM單元中引入了哪些門來更新當(dāng)前時刻的單元狀態(tài)向量?
81.下列神經(jīng)網(wǎng)絡(luò)特點描述錯誤的是(_)
A、適應(yīng)性
B、由簡單單元組成
C、廣泛并行互連的網(wǎng)絡(luò)
D、線性特性
答案:D
解析:見算法解析
82.代碼arr1=np.array([[1,2,3],[4,5,6]]);arr2=2*np.ones([2,3],dtype
=np.int64);print((arr1*arr2)[1][2])的輸出結(jié)果是()?注:(已導(dǎo)入
numpy庫)importnumpyasnp
A、6
B、8
C、10
D、12
答案:D
解析:見算法解析
83.下列選項中,哪個不是關(guān)鍵詞提取常用的算法()
A、TF-IDF
B、TextRank
C、SSA
D、LDA
答案:C
解析:SSA(SaIpSwarmAIgorithm)是一種元啟發(fā)式算法
84.如果在大型數(shù)據(jù)集上訓(xùn)練決策樹。為了花費更少的時間來訓(xùn)練這個模型,下
列哪種做法是正確的?
A、增加樹的深度
B、增加學(xué)習(xí)率
C、減小樹的深度
D、減少樹的數(shù)量
答案:c
85.支持向量機(SVM)中的代價參數(shù)C表示什么?()
A、交叉驗證的次數(shù)
B、用到的核函數(shù)
C、在分類準(zhǔn)確性和模型復(fù)雜度之間的權(quán)衡
D、以上都不對
答案:C
86.在深度學(xué)習(xí)網(wǎng)絡(luò)中,反向傳播算法用于尋求最優(yōu)參數(shù),在反向傳播算法中使
用的什么法則進(jìn)行逐層求導(dǎo)的?
A、鏈?zhǔn)椒▌t
B、累加法則
C、對等法則
D、歸一法則
答案:A
87.以下說法正確的是()。
A、聚類是非監(jiān)督學(xué)習(xí)
B、分類是非監(jiān)督學(xué)習(xí)
C、聚類是監(jiān)督學(xué)習(xí)
D、以上都不對
答案:A
88.以下算法中可以用于圖像平滑的是0。
A、均值濾波;
B、對比度增強
C、二值化
D、動態(tài)范圍壓縮
答案:A
解析:以下算法中可以用于圖像平滑的是均值濾波;。
89.在20K文檔的輸入數(shù)據(jù)上為機器學(xué)習(xí)模型創(chuàng)建了文檔-詞矩陣(document-te
rmmatrix)o以下哪項可用于減少數(shù)據(jù)維度?(1)關(guān)鍵詞歸一化(KeywordNor
maIization)(2)潛在語義索引(LatentSemanticIndexing)(3)隱狄利克雷
分布(LatentDirichletAIlocation)
A、只有(1)
B、⑵、(3)
C、⑴、(3)
D、⑴、⑵、(3)
答案:D
90.下列哪項不屬于集成學(xué)習(xí)
A、隨機森林
B\Adaboost
C、kNN
D、XGBoost
答案:C
解析:集成方法分類為:Bagging(并行訓(xùn)練):隨機森林,Boosting(串行訓(xùn)練):
Adaboost,GBDT:XgBoost,Stacking,BIending
91.隨著句子的長度越來越多,神經(jīng)翻譯機器將句意表征為固定維度向量的過程
將愈加困難,為了解決這類問題,下面哪項是我們可以采用的?
A、使用遞歸單元代替循環(huán)單元
B、使用注意力機制(attentionmechanism)
C\使用字符級別翻譯(characterIeveItransIation)
D、所有選項均不對
答案:B
92.符號集a、b、c、d,它們相互獨立,相應(yīng)概率為1/2、1/4、1/8、1/16,其
中包含信息量最小的符號是()
A、a
B、b
C、c
D、d
答案:A
93.數(shù)據(jù)科學(xué)家經(jīng)常使用多個算法進(jìn)行預(yù)測,并將多個機器學(xué)習(xí)算法的輸出(稱
為“集成學(xué)習(xí)”)結(jié)合起來,以獲得比所有個體模型都更好的更健壯的輸出。則
下列說法正確的是?()
A、基本模型之間相關(guān)性高。
B、基本模型之間相關(guān)性低。
C、集成方法均使用加權(quán)平均代替投票方法。
D、基本模型都來自于同一算法。
答案:B
94.DBSCAN在最壞情況下的時間復(fù)雜度是()。
A、0(m)
B、0(m2)
G0(Iogm)
D、0(m*logm)
答案:B
95.在數(shù)據(jù)挖掘中,比較成熟的預(yù)測算法包括Logistic回歸模型、()、決策樹'
神經(jīng)網(wǎng)絡(luò)等
A、線性回歸
B、時間序列
C、灰色模型
D、貝葉斯網(wǎng)絡(luò)
答案:D
96.在下列哪些應(yīng)用中,我們可以使用深度學(xué)習(xí)來解決問題?
A、蛋白質(zhì)結(jié)構(gòu)預(yù)測
B、化學(xué)反應(yīng)的預(yù)測
C、外來粒子的檢測
D、所有這些
答案:D
97.梯度爆炸問題是指在訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)的時候,梯度變得過大而損失函數(shù)變
為無窮。在RNN中,下面哪種方法可以較好地處理梯度爆炸問題?
A、用改良的網(wǎng)絡(luò)結(jié)構(gòu)比如LSTM和GRUs
B、梯度裁剪
C、Dropout
D、所有方法都不行
答案:B
98.EM算法是()
A、有監(jiān)督
B、無監(jiān)督
C、半監(jiān)督
D、都不是
答案:B
99.啟發(fā)式搜索是尋求問題()解的一種方法
A、最優(yōu)
B、一般
C、滿意
D、最壞
答案:C
100.馬爾可夫預(yù)測模型是將時間序列看作一個過程,通過對事物不同狀態(tài)的()
與狀態(tài)之間轉(zhuǎn)移概率的研究,確定狀態(tài)變化趨勢,預(yù)測事物的未來。
A、初始概率
B、結(jié)果概率
C、形成概率
答案:A
101.常見的圖像預(yù)處理方法不包括(一)。
A、圖像降噪
B、圖像增強
C、圖像尺寸歸一化
D、圖像標(biāo)注
答案:D
解析:常見的圖像預(yù)處理方法不包括圖像標(biāo)注。
102.在處理序列數(shù)據(jù)時,較容易出現(xiàn)梯度消失現(xiàn)象的深度學(xué)習(xí)模型是
A、CNN
B、LSTM
C、GRU
D、RNN
答案:D
解析:RNN(RecurrentNeuraINetwork)是一類用于處理序列數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)。RN
N存在一些問題梯度較容易出現(xiàn)衰減或爆炸(BPTT)-梯度爆炸
103.前饋神經(jīng)網(wǎng)絡(luò)通過誤差后向傳播(BP算法)進(jìn)行參數(shù)學(xué)習(xí),這是一種()
機器學(xué)習(xí)手段
A、監(jiān)督學(xué)習(xí)
B、無監(jiān)督學(xué)習(xí)
C、半監(jiān)督學(xué)習(xí)
D、無監(jiān)督學(xué)習(xí)和監(jiān)督學(xué)習(xí)的結(jié)合
答案:A
104.在強化學(xué)習(xí)的過程中,學(xué)習(xí)率a越大,表示采用新的嘗試得到的結(jié)果比例越
(),保持舊的結(jié)果的比例越0。
A、大
B、小
C、大
D、大
E、小
答案:A
105.L1和L2正則化是傳統(tǒng)機器學(xué)習(xí)常用來減少泛化誤差的方法,以下關(guān)于兩者
的說法正確的是:
A、L1正則化可以做特征選擇
B、L1和L2正則化均可做特征選擇
C、L2正則化可以做特征選擇
D、L1和L2正則化均不可做特征選擇
答案:A
106.規(guī)則生成本質(zhì)上是一個貪心搜索的過程,須有一定的機制來緩解過擬合的風(fēng)
險,最常見的做法是(_)
A、序列化
B、剪枝
C、去重
D、重組
答案:B
解析:見算法解析
107.機器學(xué)習(xí)算法中,以下不屬于集成學(xué)習(xí)策略的是?
A、Boosting
B、Stacking
C、Bagging
D、Marking
答案:D
108.使用決策樹分類時,如果輸入的某個特征的值是連續(xù)的,通常使用二分法對
連續(xù)屬性離散化,即根據(jù)是否大于/小于某個閾值進(jìn)行劃分。如果采用多路劃分,
每個出現(xiàn)的值都劃分為一個分支,這種方式的最大問題是
A、計算量太大
B、驗證集和測試集表現(xiàn)很差
C、驗證集表現(xiàn)良好,測試集表現(xiàn)很差
D、驗證集表現(xiàn)很差,測試集表現(xiàn)很好
答案:C
109.給定一個長度為n的不完整單詞序列,我們希望預(yù)測下一個字母是什么。比
如輸入是“predicts”(9個字母組成),希望預(yù)測第十個字母是什么。下面哪
種神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)適用于解決這個工作?
A、循環(huán)神經(jīng)網(wǎng)絡(luò)
B、全連接神經(jīng)網(wǎng)絡(luò)
C、受限波爾茲曼機
D、卷積神經(jīng)網(wǎng)絡(luò)
答案:A
110.關(guān)于梯度下降算法描述正確的是:
A、梯度下降算法就是不斷的更新w和b的值
B、梯度下降算法就是不斷的更新w和b的導(dǎo)數(shù)值
C、梯度下降算法就是不斷尋找損失函數(shù)的最大值
D、梯度下降算法就是不斷更新學(xué)習(xí)率
答案:A
解析:梯度下降算法就是不斷的更新w和b的值
111.MatplotIib是一個主要用于繪制()維圖形的Python庫,用途:繪圖、可
視化。
A、—
B、二
C、三
D、四
答案:B
解析:見算法解析
112.GooLeNet中使用較多小tricks,其中全局平局池化GAP就是一個,使用GA
P的優(yōu)點是()
A、提供更好的分類
B、減少參數(shù)量,實現(xiàn)任意大小的輸入
C、加速模型收斂
D、增加網(wǎng)絡(luò)深度
答案:B
解析:GooLeNet中使用較多小tricks,其中全局平局池化GAP就是一^使用
GAP的優(yōu)點是減少參數(shù)量,實現(xiàn)任意大小的輸入
113.不屬于深度學(xué)習(xí)模型的選項是?
A、樸素貝葉斯
B、深度殘差網(wǎng)絡(luò)
C、卷積神經(jīng)網(wǎng)絡(luò)CNN
D、循環(huán)神經(jīng)網(wǎng)絡(luò)RNN
答案:A
解析:樸素貝葉斯算法是基于貝葉斯定理與特征條件獨立假設(shè)的分類算法不屬于
深度學(xué)習(xí)模型。
114.對于神經(jīng)網(wǎng)絡(luò)的說法,下面正確的是()
A、增加神經(jīng)網(wǎng)絡(luò)層數(shù),可能會增加測試數(shù)據(jù)集的分類錯誤率
B、減少神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小測試數(shù)據(jù)集的分類錯誤率
C、增加神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小訓(xùn)練數(shù)據(jù)集的分類錯誤率
D、1、2都對
答案:A
115.CascadeRCNN中使用了()個BBOXHead完成目標(biāo)檢測
A、1
B、2
C、3
D、4
答案:c
解析:見算法解析
116.下列關(guān)于長短期記憶網(wǎng)絡(luò)LSTM和循環(huán)神經(jīng)網(wǎng)絡(luò)RNN的關(guān)系描述正確的是。。
A、LSTM是簡化版的RNN
B、LSTM是雙向的RNN
GLSTM是多層的RNN
DvLSTM是RNN的擴展,通過特殊的結(jié)構(gòu)設(shè)計來避免長期依賴問題
答案:D
解析:LSTM是RNN的擴展,通過特殊的結(jié)構(gòu)設(shè)計來避免長期依賴問題
117.邏輯回歸的損失函數(shù)是下列哪一種?()
A、平方損失函數(shù)
B、對數(shù)損失函數(shù)
GHingeLossOT損失函數(shù)
D、絕對值損失函數(shù)
答案:B
118.當(dāng)采用K-距離的方法選擇DBSCAN的Eps和MinPts參數(shù)時,如果設(shè)置的K
的值太大,則小簇(尺寸小于K的簇)可能會被標(biāo)記為
A、噪聲
B、核心簇
C、邊界簇
D、以上都不對
答案:A
119.卷積神經(jīng)網(wǎng)絡(luò)的英文縮寫是:
A、DNN
B、CNN
C、RNN
D\Tanh
答案:B
解析:卷積神經(jīng)網(wǎng)絡(luò)的英文縮寫是CNN
120.深度學(xué)習(xí)中的不同最優(yōu)化方式,如SGD,ADAM下列說法中正確的是
A、在實際場景下,應(yīng)盡量使用ADAM,避免使用SGD
B、同樣的初始學(xué)習(xí)率情況下,ADAM的收斂速度總是快于SGD方法
C、相同超參數(shù)數(shù)量情況下,比起自適應(yīng)的學(xué)習(xí)率調(diào)整方式,SGD加手動調(diào)節(jié)通
常會取得更好效果
D、同樣的初始學(xué)習(xí)率情況下,ADAM比SGD容易過擬合
答案:C
解析:相同超參數(shù)數(shù)量情況下,比起自適應(yīng)的學(xué)習(xí)率調(diào)整方式,SGD加手動調(diào)節(jié)
通常會取得更好效果
121.下列屬于特征降維的方法有
A、主成分分析PCA
B、數(shù)據(jù)采樣
G正則化
D、最小二乘法
答案:A
122.下列選項中,不屬于深度學(xué)習(xí)模型的是?
A、線性回歸
B、深度殘差網(wǎng)絡(luò)
C、卷積神經(jīng)網(wǎng)絡(luò)CNN
D、循環(huán)神經(jīng)網(wǎng)絡(luò)RNN
答案:A
解析:線性回歸是傳統(tǒng)統(tǒng)計學(xué)系呢絨
123.關(guān)于GoogLeNet描述正確的有:
A、GoogLeNet僅僅是在寬度上進(jìn)行了探索,所以它是一個很淺的網(wǎng)絡(luò)
B、GoogLeNet在寬度上進(jìn)行了探索,為后人設(shè)計更加復(fù)雜的網(wǎng)絡(luò)打開了思路
C\GoogLeNet使用了Inception結(jié)構(gòu),Inception結(jié)構(gòu)只有V1這一^"b版本
DxGoogLeNet結(jié)合多種網(wǎng)絡(luò)設(shè)計結(jié)構(gòu)所以是到目前為止分類效果最好的網(wǎng)絡(luò)結(jié)
構(gòu)
答案:B
解析:GoogLeNet在寬度上進(jìn)行了探索,為后人設(shè)計更加復(fù)雜的網(wǎng)絡(luò)打開了思路
124.下列哪一項在神經(jīng)網(wǎng)絡(luò)中引入了非線性?
A、隨機梯度下降
B、修正線性單元(ReLU)
C、卷積函數(shù)
D、以上都不正確
答案:B
解析:修正線性單元是非線性的激活函數(shù)
125.強化學(xué)習(xí)的基礎(chǔ)模型是()模型
A、馬可夫決策
B、貝葉斯
C、HMM
D、最大后驗概率
答案:A
解析:見算法解析
126.在£-greedy策略當(dāng)中,E的值越大,表示采用隨機的一個動作的概率越(),
采用當(dāng)前Q函數(shù)值最大的動作的概率越()。
A、大
B、小
C、大
D、大
E、小
答案:A
127.()反映的是模型每一次輸出結(jié)果與模型輸出期望之間的誤差,即模型的穩(wěn)
定性。反應(yīng)預(yù)測的波動情況。
A、標(biāo)準(zhǔn)差
B、方差
C、偏差
D、平方差
答案:B
解析:方差反映的是模型每一次輸出結(jié)果與模型輸出期望之間的誤差,即模型的
穩(wěn)定性。反應(yīng)預(yù)測的波動情況。
128.K-Means算法無法聚以下哪種形狀的樣本
A、圓形分布
B、螺旋分布
C、帶狀分布
D、凸多邊形分布
答案:B
129.()是一種基于樹結(jié)構(gòu)進(jìn)行決策的算法。
A、軌跡跟蹤
B、決策樹
C、數(shù)據(jù)挖掘
D、K近鄰算法
答案:B
解析:軌跡跟蹤又稱為前輪反饋控制法(FrontwheeIfeedback),核心在于基于
前輪中心的路徑跟蹤偏差量對方向盤轉(zhuǎn)向控制量進(jìn)行計算。決策樹算法是一種逼
近離散函數(shù)值的方法,它是一種典型的分類方法,首先對數(shù)據(jù)進(jìn)行處理,利用歸
納算法生成可讀的規(guī)則和決策樹,然后使用決策對新數(shù)據(jù)進(jìn)行分析。數(shù)據(jù)挖掘是
指從大量的數(shù)據(jù)中通過算法搜索隱藏于其中信息的過程。K近鄰算法,即是給定
一個訓(xùn)練數(shù)據(jù)集,對新的輸入實例,在訓(xùn)練數(shù)據(jù)集中找到與該實例最鄰近的K
個實例,這K個實例的多數(shù)屬于某個類,就把該輸入實例分類到這個類中。符合
題意的為B項決策樹。答案選B
130.關(guān)于bagging下列說法錯誤的是:()
A、各基分類器之間有較強依賴,不可以進(jìn)行并行訓(xùn)練。
B、最著名的算法之一是基于決策樹基分類器的隨機森林。
C、當(dāng)訓(xùn)練樣本數(shù)量較少時,子集之間可能有重疊。
D、為了讓基分類器之間互相獨立,需要將訓(xùn)練集分為若干子集。
答案:A
131.數(shù)據(jù)在完成特征工程的操作后,在構(gòu)建模型的過程中,以下哪個選項不屬于
決策樹構(gòu)建過程當(dāng)中的步驟?
A、剪枝
B、特征選取
C、數(shù)據(jù)清理
D、決策樹生成
答案:C
132.通過以下哪些指標(biāo)我們可以在層次聚類中尋找兩個集群之間的差異?()
A、單鏈接
B、全鏈接
C、均鏈接
D、以上都行
答案:D
133.下述()不是人工智能中常用的知識格式化表示方法。
A、框架表示法
B、產(chǎn)生式表示法
C\語乂網(wǎng)絡(luò)表K法
D、形象描寫表示法
答案:D
134.比較成熟的分類預(yù)測模型算法包括Logistic回歸模型、廣義線性模型、。、
神經(jīng)網(wǎng)絡(luò)
A、決策樹
B、arima模型
C、holt-winter模型
D、k-means模型
答案:A
135.在pytorch中,設(shè)模型變量名為modeI,則對modeI.evaI()的描述正確的是
A、modeI.eval()可以在模型訓(xùn)練階段使用
B、modeI.eval0只能在模型測試階段使用
C、model,eval()在模型驗證,模型測試階段都可以使用
D、model,eval()在模型訓(xùn)練'模型驗證、模型測試階段都可以使用
答案:C
解析:在pytorch中,model.eval在模型驗證、模型測試階段都可以使用
136.()控制著整個LSTM單元的狀態(tài)或者記憶,它會根據(jù)每個時刻的輸入進(jìn)行
更新。
A、隱狀態(tài)向量
B、狀態(tài)向量
C、顯狀態(tài)向量
D、以上都不對
答案:B
解析:狀態(tài)向量控制著整個LSTM單元的狀態(tài)或者記憶,它會根據(jù)每個時刻的輸
入進(jìn)行更新。
137.早期圖像識別技術(shù)中存在的主要問題是()。
A、全局特征丟掉了圖像細(xì)節(jié)
B、提取不到主要特征
C、存儲效率低下
D、太多的錯誤匹配
答案:A
解析:早期圖像識別技術(shù)中存在的主要問題是全局特征丟掉了圖像細(xì)節(jié)。
138.FPN中根據(jù)ROI的()來分配所屬層級?
A、分類分?jǐn)?shù)
B、最大邊長度
C、面積
D、nan
答案:C
解析:見算法解析
139.隨機森林是一種集成學(xué)習(xí)算法,是()算法的具體實現(xiàn)。
AvBoosting
B、Bagging
C、Stacking
DvDropping
答案:B
解析:隨機森林是一種集成學(xué)習(xí)算法,是Bagging算法的具體實現(xiàn)。
140.深度學(xué)習(xí)是當(dāng)前很熱門的機器學(xué)習(xí)算法,在深度學(xué)習(xí)中,涉及到大量的矩陣
相乘,現(xiàn)在需要計算三個稠密矩陣A,B,C的乘積ABC,假設(shè)三個矩陣的尺寸分別
為m*n,n*p,p*q,且m〈n
A、(AB)C
B、AC(B)
C、A(BC)
D、所有效率都相同
答案:A
141.對完成特定任務(wù)的卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練采用的是監(jiān)督學(xué)習(xí)方法。在這個過程中,
通過誤差后向傳播來優(yōu)化調(diào)整網(wǎng)絡(luò)參數(shù),請問下面哪個參數(shù)不是通過誤差后向傳
播來優(yōu)化的
A、卷積濾波矩陣中的參數(shù)
B、全連接層的鏈接權(quán)重
C、激活函數(shù)中的參數(shù)
D、模型的隱藏層數(shù)目
答案:D
142.下列不屬于樹模型的是
A、GBDT梯度提升樹
B、XGBoost
C、RF隨機森林
D、LR線性回歸
答案:D
143.fasterRCNN用于生成候選框proposaI的模塊名稱()
A、RPN
B、CNN
C\ResNet
D、RoIpooIing
答案:A
解析:fasterRCNN用于生成候選框proposal的模塊是RPN
144.LSTM用于文本分類的任務(wù)中,不會出現(xiàn)的網(wǎng)絡(luò)層是()
A、全連接
B、詞嵌入層
C\卷積層
D、以上選項均不正確
答案:C
解析:LSTM中沒有卷積層
145.如果我們希望預(yù)測n個類(p1,p2...pk)的概率使得所有n的p的和等于
1,那么下列哪個函數(shù)可以用作輸出層中的激活函數(shù)?
A、ReLu
B\Softmax
C、Sigmoid
D、Tanh
答案:B
146.假設(shè)你需要調(diào)整超參數(shù)來最小化代價函數(shù)(costfunction),會使用下列哪
項技術(shù)?
A、窮舉搜索
B、隨機搜索
C、Bayesian優(yōu)化
D、都可以
答案:D
147.ROIPooling在那個模型中被第一次提出()
A、fast-rcnn
B、faster-rcnn
C、mask-rcnn
D、rcnn
答案:A
解析:見算法解析
148.以下關(guān)于特征工程的說法不正確的是
A、特征工程指的是把原始數(shù)據(jù)轉(zhuǎn)變?yōu)槟P偷挠?xùn)練數(shù)據(jù)的過程
B、它的目的就是獲取更好的訓(xùn)練數(shù)據(jù)特征,使得機器學(xué)習(xí)模型逼近這個上限
C、特征工程在機器學(xué)習(xí)中占有非常重要的作用,一般認(rèn)為括特征構(gòu)建、特征提
取'特征選擇三個部分。
D、特征提取是從特征集合中挑選一組具有明顯物理或統(tǒng)計意義的特征子集。
答案:D
149.關(guān)于遞歸函數(shù)基例的說明,以下選項中錯誤的是
A、遞歸函數(shù)必須有基例
B、遞歸函數(shù)的基例不再進(jìn)行遞歸
C、每個遞歸函數(shù)都只能有一個基例
D、遞歸函數(shù)的基例決定遞歸的深度
答案:C
150.線性回歸方法是假定條件屬性和決策屬性之間存在線性關(guān)系,然后通過訓(xùn)練
數(shù)據(jù)擬合出一個()方程,并使用該方程去預(yù)測未知的新實例。
A、一元一次
B、線性
C、二元一次
D、多元
答案:B
151.考慮某個具體問題時,你可能只有少量數(shù)據(jù)來解決這個問題。不過幸運的是
你有一個類似問題已經(jīng)預(yù)先訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)??梢杂孟旅婺姆N方法來利用這個
預(yù)先訓(xùn)練好的網(wǎng)絡(luò)?
A、把除了最后一層外所有的層都凍結(jié),重新訓(xùn)練最后一層
B、對新數(shù)據(jù)重新訓(xùn)練整個模型
C、只對最后幾層進(jìn)行調(diào)參(finetune)
D、對每一層模型進(jìn)行評估,選擇其中的少數(shù)來用
答案:C
152.下列關(guān)于XGboost算法描述中錯誤的是
A、由于其特殊原因,無法分布式化
B、xgboost在代價函數(shù)里加入了正則項,用于控制模型的復(fù)雜度
C、可以處理帶有缺失值的樣本
D、允許使用列抽樣來減少過擬合
答案:A
153.神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程中,一般會遇到停滯期,即神經(jīng)網(wǎng)絡(luò)在進(jìn)入全局最小值之
前陷入局部最小值。以下哪個策略可以避免上述情況?
A、增加參數(shù)數(shù)量
B、減少參數(shù)數(shù)量
C、在開始時將學(xué)習(xí)率降低10倍
D、改變幾個時期的學(xué)習(xí)率
答案:D
154.在CNN構(gòu)建中,指定每次訓(xùn)練或驗證數(shù)據(jù)集圖片多少的變量為()。
A、reIu
B、batch
C、step
D、padding
答案:B
解析:在CNN構(gòu)建中,指定每次訓(xùn)練或驗證數(shù)據(jù)集圖片多少的變量為batch。
155.代碼array=np.arange(10,31,5)中的5代表()?
A、元素的個數(shù)
B、步長
C、第一個元素
D、最后一個元素
答案:B
解析:見算法解析
156.()采用多種樂器的音頻數(shù)據(jù),可融合多種國家、樂曲風(fēng)格和樂器音色的特
征,創(chuàng)作音樂作品。
A、XLNet
B、GoogIeNet
C、MuseNet
D、AlexNet
答案:c
解析:MuseNet采用多種樂器的音頻數(shù)據(jù),可融合多種國家、樂曲風(fēng)格和樂器音
色的特征,創(chuàng)作音樂作品。
157.DSSM經(jīng)典模型的缺點:1.Wordhashing可能造成詞語沖突;2.采用詞袋模型,
損失了上下文語序信息;3.搜索引擎的排序由多種因素決定,用戶點擊時doc
排名越靠前越容易被點擊,僅用點擊來判斷正負(fù)樣本,產(chǎn)生的噪聲較大,模型難
以收斂;4.效果不可控。
A、1.2.3
B、1.3.4
C、2.3.4
D、1.2.3.4
答案:D
解析:DSSM經(jīng)典模型的缺點:1.Wordhashing可能造成詞語沖突;2.采用詞袋模
型,損失了上下文語序信息;3.搜索引擎的排序由多種因素決定,用戶點擊時d
℃排名越靠前越容易被點擊,僅用點擊來判斷正負(fù)樣本,產(chǎn)生的噪聲較大,模
型難以收斂;4.效果不可控。
158.多義現(xiàn)象可以被定義為在文本對象中一個單詞或短語的多種含義共存。下列
哪一種方法可能是解決此問題的最好選擇?
A、隨機森林分類器
B、卷積神經(jīng)網(wǎng)絡(luò)
C、梯度爆炸
D、上述所有方法
答案:B
159.下列哪個不是激活函數(shù)()。
A、sigmod
B、reIu
C、tanh
D、hidden
答案:D
解析:hidden不是激活函數(shù)。
160.長短期記憶LSTM具有與循環(huán)神經(jīng)網(wǎng)絡(luò)相似的控制流,兩者的區(qū)別在于LSTM
中增加了()導(dǎo)致單元內(nèi)的處理過程不同。
A、輸入門
B、記憶門
C、忘記門
D\輸出門
答案:C
解析:長短期記憶LSTM具有與循環(huán)神經(jīng)網(wǎng)絡(luò)相似的控制流,兩者的區(qū)別在于LS
TM中增加了忘記門導(dǎo)致單元內(nèi)的處理過程不同。
161.批規(guī)范化(BatchNormaIization)的好處都有啥?
A、讓每一層的輸入的范圍都大致固定
B、它將權(quán)重的歸一化平均值和標(biāo)準(zhǔn)差
C、它是一種非常有效的反向傳播(BP)方法
D、這些均不是
答案:A
162.如果問題存在最優(yōu)解,則下面幾種搜索算法中,()必然可以得到該最優(yōu)解。
A、廣度優(yōu)先搜索
B、深度優(yōu)先搜索
C、有界深度優(yōu)先搜索
D、啟發(fā)式搜索
答案:A
解析:廣度優(yōu)先搜索會根據(jù)離起點的距離,按照從近到遠(yuǎn)的順序?qū)Ω鞴?jié)點進(jìn)行搜
索。而深度優(yōu)先搜索會沿著一條路徑不斷往下搜索直到不能再繼續(xù)為止,然后再
折返,開始搜索下一條路徑。廣度優(yōu)先搜索可以找出節(jié)點的最短路徑,即可以解
決最短路徑問題。有界深度優(yōu)先搜索為了解決深度有限搜索誤入無窮分支,定出
一個深度界限,在找尋達(dá)到這一深度界限而且還沒有找到目標(biāo)時,即返回重找。
啟發(fā)式搜索是利用問題擁有的啟發(fā)信息來引導(dǎo)搜索,達(dá)到減少搜索范圍、降低問
題復(fù)雜度的目的,可以消除組合爆炸,并得到令人能接受的解(通常并不一定是
最佳解)。所以如果存在最優(yōu)解,廣度優(yōu)先搜索必然可以得到最優(yōu)解,答案選A
163.在前饋神經(jīng)網(wǎng)絡(luò)中,誤差后向傳播(BP算法)將誤差從輸出端向輸入端進(jìn)
行傳輸?shù)倪^程中,算法會調(diào)整前饋神經(jīng)網(wǎng)絡(luò)的什么參數(shù)
A、輸入數(shù)據(jù)大小
B、神經(jīng)元和神經(jīng)元之間連接有無
C、相鄰層神經(jīng)元和神經(jīng)元之間的連接權(quán)重
D、同一層神經(jīng)元之間的連接權(quán)重
答案:C
164.下列哪個是CNN網(wǎng)絡(luò)的超參數(shù)。
A、權(quán)重
B、偏置
C、激活函數(shù)
D、學(xué)習(xí)率
答案:D
解析:學(xué)習(xí)率是CNN網(wǎng)絡(luò)的超參數(shù)。
165.神經(jīng)元之間的每個連接都有()權(quán)重。
A、一^
B、兩個
C、多個
D\無
答案:A
解析:神經(jīng)元之間的每個連接都有一個權(quán)重。
166.下列哪項不是SVM的優(yōu)勢
A、可以和核函數(shù)結(jié)合
B、通過調(diào)參可以往往可以得到很好的分類效果
C、訓(xùn)練速度快
D、泛化能力好
答案:C
解析:SVM的訓(xùn)練速度不快
167.問答系統(tǒng)中的NLP技術(shù),以下描述不正確的是:
A、問答(QA)系統(tǒng)的想法是直接從文檔、對話、在線搜索和其他地方提取信息,
以滿足用戶的信息需求。QA系統(tǒng)不是讓用戶閱讀整個文檔,而是更喜歡簡短而
簡潔的答案。
B、QA系統(tǒng)相對獨立很難與其他NLP系統(tǒng)結(jié)合使用,現(xiàn)有QA系統(tǒng)只能處理對文
本文檔的搜索,尚且無法從圖片集合中提取信息。
C、大多數(shù)NLP問題都可以被視為一個問題回答問題。范例很簡單:我們發(fā)出查
詢指令,機器提供響應(yīng)。通過閱讀文檔或一組指令,智能系統(tǒng)應(yīng)該能夠回答各種
各樣的問題。
D、強大的深度學(xué)習(xí)架構(gòu)(稱為動態(tài)內(nèi)存網(wǎng)絡(luò)(DMN))已針對QA問題進(jìn)行了專
門開發(fā)和優(yōu)化。給定輸入序列(知識)和問題的訓(xùn)練集,它可以形成情節(jié)記憶,
并使用它們來產(chǎn)生相關(guān)答案。
答案:B
解析:刪除
168.Word2Vec提出了哪兩個算法訓(xùn)練詞向量?
A、COBWSoftmax
B、SoftmaxyCBOW
C、CBOW、Skip-gramD
D、Skip-gramCOBWC
答案:c
解析:Word2Vec提出了兩個算法訓(xùn)練詞向量
169.Iou表示的是0
A、兩個框之間的重疊程度
B、兩個框的總面積
C、兩個框的相對大小
D、一個框面積與周長比值
答案:A
解析:見算法解析
170.下列哪個神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)會發(fā)生權(quán)重共享
A、卷積神經(jīng)網(wǎng)絡(luò)&
B、&循環(huán)神經(jīng)網(wǎng)絡(luò)&
C、&全連接神經(jīng)網(wǎng)絡(luò)&
D、&卷積和循環(huán)神經(jīng)網(wǎng)絡(luò)
答案:D
解析:見算法解析
171.關(guān)于貝葉斯網(wǎng)的學(xué)習(xí)描述錯誤的為(一)
A、貝葉斯的學(xué)習(xí)過程為對訓(xùn)練樣本計數(shù);
B、估計出每個結(jié)點的條件概率;
C、網(wǎng)絡(luò)結(jié)構(gòu)為已知;
D、評分搜索為求解的常用辦法;
答案:C
解析:見算法解析
172.影響基本K-均值算法的主要因素不包括下列哪一個選項?
A、樣本輸入順序
B、模式相似性測度
C、聚類準(zhǔn)則
D、初始類中心的選取
答案:C
173.對于一個圖像識別問題(在一張照片里找出一只貓),下面哪種神經(jīng)網(wǎng)絡(luò)可以
更好地解決這個問題?
A、循環(huán)神經(jīng)網(wǎng)絡(luò)
B、感知機
C、多層感知機
D、卷積神經(jīng)網(wǎng)絡(luò)
答案:D
174.主成分分析是一種數(shù)據(jù)降維和去除相關(guān)性的方法,它通過()將向量投影到
低維空間。
A、線性變換
B、非線性變換
C、拉布拉斯變換
D、z變換
答案:A
解析:主成分分析是一種數(shù)據(jù)降維和去除相關(guān)性的方法,它通過線性變換將向量
投影到低維空間。
175.在主成分分析中,將幾個主分量經(jīng)過線性組合構(gòu)造為一個綜合評價函數(shù)時,
每個主分量的權(quán)數(shù)為0。
A、每個主分量的方差
B、每個主分量的標(biāo)準(zhǔn)差
C、每個主分量的方差貢獻(xiàn)率
D、每個主分量的貢獻(xiàn)率
答案:C
解析:在主成分分析中,將幾個主分量經(jīng)過線性組合構(gòu)造為一個綜合評價函數(shù)時,
每個主分量的權(quán)數(shù)為每個主分量的方差貢獻(xiàn)率。
176.以下關(guān)于Bagging(裝袋法)的說法不正確的是
A、能提升機器學(xué)習(xí)算法的穩(wěn)定性和準(zhǔn)確性,但難以避免overfitting
B、Bagging(裝袋法)是一個統(tǒng)計重采樣的技術(shù),它的基礎(chǔ)是Bootstrap
C、主要通過有放回抽樣)來生成多個版本的預(yù)測分類器,然后把這些分類器進(jìn)行
組合
D、進(jìn)行重復(fù)的隨機采樣所獲得的樣本可以得到?jīng)]有或者含有較少的噪聲數(shù)據(jù)
答案:A
177.假定你在神經(jīng)網(wǎng)絡(luò)中的隱藏層中使用激活函數(shù)X。在特定神經(jīng)元給定任意輸
入,你會得到輸出「-0.0001」。X可能是以下哪一個激活函數(shù)?
A、ReLU
B、tanh
C、SIGMOID
D、以上都不是
答案:B
178.語音是一種典型的()數(shù)據(jù)。
A、無結(jié)構(gòu)無序列
B、方結(jié)構(gòu)序列
C、無結(jié)構(gòu)序列
D、有結(jié)構(gòu)無序列
答案:C
解析:語音是一種典型的無結(jié)構(gòu)序列數(shù)據(jù)。
179.在RNN中,目前使用最廣泛的模型便是()模型,該模型能夠更好地建模長
序列。
A、SLTM
B、SLMT
C\LSMT
D、LSTM
答案:D
解析:在RNN中,目前使用最廣泛的模型便是LSTM模型,該模型能夠更好地建
模長序列。
180.關(guān)于線性回歸的描述,以下正確的有()
A、基本假設(shè)包括隨機干擾項是均值為0,方差為1的標(biāo)準(zhǔn)正態(tài)分布
B、基本假設(shè)包括隨機干擾項是均值為0的同方差正態(tài)分布
C、多重共線性會使得參數(shù)估計值方差減小
D、基本假設(shè)包括不服從正態(tài)分布的隨機干擾項
答案:B
解析:線性回歸的基本假設(shè)是隨機干擾項是均值為0的同方差正態(tài)分布
181.機器學(xué)習(xí)算法的一般流程是()。
Av1)收集數(shù)據(jù),2)準(zhǔn)備數(shù)據(jù),3)分析數(shù)據(jù),4)訓(xùn)練算法,5)測試算法,6)
使用算法
B、1)收集數(shù)據(jù),2)分析數(shù)據(jù),3)準(zhǔn)備數(shù)據(jù),4)訓(xùn)練算法,5)測試算法,6)
使用算法
C、1)收集數(shù)據(jù),2)分析數(shù)據(jù),3)準(zhǔn)備數(shù)據(jù),4)測試算法,5)訓(xùn)練算法,6)
使用算法
D、1)收集數(shù)據(jù),2)分析數(shù)據(jù),3)測試算法,4)訓(xùn)練算法,5)準(zhǔn)備數(shù)據(jù),6)
使用算法
答案:A
解析:機器學(xué)習(xí)算法的一般流程⑴收集數(shù)據(jù):可以使用任何方法。(2)準(zhǔn)備數(shù)據(jù):
距離計算所需要的數(shù)值,最好是結(jié)構(gòu)化的數(shù)據(jù)格式。(3)分析數(shù)據(jù):可以使用任
何方法。(4)訓(xùn)練算法:此步驟不適用于k-近鄰算法。(5)測試算法:計算錯誤
率。(6)使用算法:首先需要輸入樣本數(shù)據(jù)和結(jié)構(gòu)化的輸出結(jié)果,然后運行k-近
鄰算法判定輸入數(shù)據(jù)分別屬于哪個分類,最后應(yīng)用對計算出的分類執(zhí)行后續(xù)的處
理。
182.卷積神經(jīng)網(wǎng)絡(luò)(convolu-tionaIneuraInetwork,CNN),是一種專門用來處理
具有類似()的數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)。
A、網(wǎng)格結(jié)構(gòu)
B、數(shù)組結(jié)構(gòu)
C、序列結(jié)構(gòu)
D、表格結(jié)構(gòu)
答案:A
解析:卷積神經(jīng)網(wǎng)絡(luò)(convoIu-tionaIneuraInetwork,CNN),是一種專門用來處
理具有類似0的數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)。
183.語言模型的作用是:
A、查看一句話成為一句“人話”的概率
B、查看一句話是英語的概率
C、查看一句話是漢語的概率
D、查看一句話是否是完整的
答案:A
解析:語言模型的作用是查看一句話成為一句“人話”的概率
184.關(guān)于線性回歸的描述,以下說法正確的有()
A、基本假設(shè)包括隨機干擾項是均值為0,方差為1的標(biāo)準(zhǔn)正態(tài)分布
B、基本假設(shè)包括隨機干擾項是均值為0的同方差正態(tài)分布
C、多重共線性會使得參數(shù)估計值方差減小
D、基本假設(shè)包括不服從正態(tài)分布的隨機干擾項
答案:B
解析:線性回歸基本假設(shè)包括隨機干擾項是均值為0的同方差正態(tài)分布
185..混沌度(Perplexity)是一種常見的應(yīng)用在使用深度學(xué)習(xí)處理NLP問題過程
中的評估技術(shù),關(guān)于混沌度,哪種說法是正確的?
A、混沌度沒什么影響
B、混沌度越低越好
C、混沌度越高越好
D、混沌度對于結(jié)果的影響不一定
答案:B
186.環(huán)境在接受到個體的行動之后,會反饋給個體環(huán)境目前的狀態(tài)(state)以
及由于上一個行動而產(chǎn)生的()。
A、action
B、reward
Cvstate
Dvagent
答案:B
解析:見算法解析
187.ONE-HOT-ENCODING可用于什么特征處理
A、類別型特征
B、有序性特征
C、數(shù)值型特征
D、字符串型特征
答案:A
188.ResNet-50有多少個卷積層?()
A、48
B、49
C、50
D、51
答案:B
189.語義網(wǎng)絡(luò)表達(dá)知識時,有向弧AK0鏈、ISA鏈?zhǔn)怯脕肀磉_(dá)節(jié)點知識的
A、無悖性
B、可擴充性
C、繼承性
D、連貫性
答案:C
解析:語義網(wǎng)絡(luò)表達(dá)知識時,有向弧AKO鏈、ISA鏈?zhǔn)怯脕肀磉_(dá)節(jié)點知識的繼承
性
190.為了將特征轉(zhuǎn)變成Embedding表示,所有特征均需轉(zhuǎn)變成()
A、數(shù)字
B、字符
C、符號
D、英文
答案:A
解析:為了將特征轉(zhuǎn)變成Embedding表示,所有特征均需轉(zhuǎn)變成數(shù)字
191.感知器在空間中可以展現(xiàn)為?
A、點
B、線
C、平面
D、超平面
答案:A
192.下面算法中哪個不是分類算法
A、決策樹
B、高斯混合模型GMM
C、隨機森林
D\Xgboost
答案:B
193.Skip-gram在實際操作中,使用一個()(一般情況下,長度是奇數(shù)),從
左到右開始掃描當(dāng)前句子。
A、過濾器
B、滑動窗口
C、篩選器
D、掃描器
答案:B
解析:見算法解析
194.線性回歸在3維以上的維度中擬合面是?
A、曲面
B、平面
C、超平面
D、超曲面
答案:C
195.CNN網(wǎng)絡(luò)設(shè)計中,學(xué)習(xí)率的設(shè)置往往對訓(xùn)練收斂起到關(guān)鍵作用,關(guān)于學(xué)習(xí)率
的說法,錯誤的是()
A、學(xué)習(xí)率太小,更新速度慢
B、學(xué)習(xí)率過大,可能跨過最優(yōu)解
C、學(xué)習(xí)率也是有網(wǎng)絡(luò)學(xué)習(xí)而來
D、學(xué)習(xí)率可在網(wǎng)絡(luò)訓(xùn)練過程中更改
答案:C
解析:CNN網(wǎng)絡(luò)設(shè)計中,學(xué)習(xí)率的設(shè)置往往對訓(xùn)練收斂起到關(guān)鍵作用,關(guān)于學(xué)習(xí)
率的說法,錯誤的是學(xué)習(xí)率也是有網(wǎng)絡(luò)學(xué)習(xí)而來
196.代碼arr1=np.array([[1,2,3],[4,5,6]]);print((arr1**2)[1,1])
的輸出是()?
A、5
B、25
C\6
D、26
答案:B
解析:見算法解析
197.()的核心訓(xùn)練信號是圖片的“可區(qū)分性”。模型需要區(qū)分兩個輸入是來自
于同一圖片的不同視角,還是來自完全不同的兩張圖片。
A、對比學(xué)習(xí)
B、強化學(xué)習(xí)
C、遷移學(xué)習(xí)
D、深度學(xué)習(xí)
答案:A
解析:對比學(xué)習(xí)的核心訓(xùn)練信號是圖片的“可區(qū)分性”。模型需要區(qū)分兩個輸入
是來自于同一圖片的不同視角,還是來自完全不同的兩張圖片。
198.在神經(jīng)網(wǎng)絡(luò)中,我們是通過以下哪個方法在訓(xùn)練網(wǎng)絡(luò)的時候更新參數(shù),從而
最小化損失函數(shù)的?
A、正向傳播算法
B、池化計算
C、卷積計算
D、反向傳播算法
答案:D
199.機器學(xué)習(xí)的算法中,以下哪個不是無監(jiān)督學(xué)習(xí)?
A、GMM
B、Xgboost
c、聚類
D、關(guān)聯(lián)規(guī)則
答案:B
200.對于線性可分的數(shù)據(jù),支持向量機的解決方式是()
A、軟間隔
B、硬間隔
C、核函數(shù)
D、以上選項均不正確
答案:B
解析:對于線性可分的數(shù)據(jù),支持向量機的解決方式是硬間隔
多選題
1.關(guān)于邏輯回歸正確的是()
A、風(fēng)險控制是金融領(lǐng)域最核心的問題,邏輯回歸是在風(fēng)險評估中最經(jīng)典常用的
方法
B、邏輯回歸可以用到互聯(lián)網(wǎng)廣告點擊預(yù)測
C、邏輯回歸只能用于解決二分類問題
D、以上都不對
答案:AB
2.一下哪幾種是常見的激活函數(shù)
A、sigmoid
B、reIu
C、tanh
D、skip
答案:ABC
解析:見算法解析
3.屬于卷積神經(jīng)網(wǎng)絡(luò)(CNN)的有()。
A、VGGNet
B\ResNet
C、AlexNet
D\GoogIeNet
答案:ABCD
4.可以用隨機梯度下降法求解參數(shù)的模型分別有()
A、線性回歸
B、卷積神經(jīng)網(wǎng)絡(luò)
C、循環(huán)神經(jīng)網(wǎng)絡(luò)
D、LSTM
答案:ABCD
解析:見算法解析
5.假設(shè)我們要解決一個二類分類問題,我們已經(jīng)建立好了模型,輸出是0或1,初
始時設(shè)閾值為0.5,超過0.5概率估計,就判別為1,否則就判別為0;如果我們現(xiàn)
在用另一個大于0.5的閾值,那么現(xiàn)在關(guān)于模型說法,正確的是
A、模型分類的召回率不變
B、模型分類的召回率會升高
C、模型分類準(zhǔn)確率會升高或不變
D、模型分類準(zhǔn)確率降低
答案:AC
解析:準(zhǔn)確率:即預(yù)測結(jié)果正確的百分比。精確率(查準(zhǔn)率):預(yù)測結(jié)果為正例
樣本中真實為正例的比例(查得準(zhǔn))。召回率(查全率):真實為正例的樣本中
預(yù)測結(jié)果為正例的比例(查的全,對正樣本的區(qū)分能力。F-score:在實踐中,
我們定義了新的指標(biāo)去“綜合”這兩個指標(biāo)。具體的定義如公式(3),從數(shù)學(xué)
上來看,它其實是查準(zhǔn)率與查全率的調(diào)和平均數(shù)。對于二元分類問題,F(xiàn)-score
綜合考慮了預(yù)測結(jié)果的查準(zhǔn)率和查全率,是一個比較好的評估指標(biāo)。
6.Embedding編碼有哪些特點?
A、特征稠密
B、特征稀疏
C、能夠表征詞與詞之間的相互關(guān)系(相似度計算)
D、泛化性更好,支持語義運算sim
答案:ACD
解析:見算法解析
7.關(guān)于神經(jīng)網(wǎng)絡(luò)模型的說法,哪些是不正確的()
A、神經(jīng)網(wǎng)絡(luò)的工作原理與生物體內(nèi)的神經(jīng)元是完全一樣的
B、訓(xùn)練神經(jīng)網(wǎng)絡(luò)的實質(zhì)是對復(fù)雜函數(shù)求參數(shù)最優(yōu)解的過程
C、增加神經(jīng)網(wǎng)絡(luò)的層數(shù)和增加每層的神經(jīng)元個數(shù)的效果是一樣的
D、神經(jīng)網(wǎng)絡(luò)只能進(jìn)行二分類,不能進(jìn)行更多種類的分類了
答案:ACD
8.以下算法中可以用于圖像處理中去噪的是0。
A、中值濾波
B、均值濾波
C、最小值濾波
D、最大值濾波
答案:ABCD
解析:見算法解析
9.下列可用于隱馬爾可夫預(yù)測的算法是()。
A、維特比算法
B、Baum-Welch算法
C、前向-后向算法
D、擬牛頓法
答案:ABCD
解析:A是教材原文;B是EM算法,
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 單招七類考試試題及答案
- 環(huán)?;灴荚囋囶}及答案
- 輻射考試試題講解及答案
- 安吉員工考試試題及答案
- 格力考試試題及答案
- 青海公務(wù)員試題及答案
- 防水施工技術(shù)培訓(xùn)試題答案
- 2025年個人租賃合同范本
- 2025《人力資源外包服務(wù)合同》
- 2025至2031年中國無線多媒體演講鼠標(biāo)行業(yè)投資前景及策略咨詢研究報告
- 高大支架坍塌事故原因分析及預(yù)防措施
- 跨境數(shù)據(jù)傳輸與安全保護
- 制衣廠安全隱患排查項目清單及排查表
- ISO13485質(zhì)量管理手冊
- 辯論賽PPT模板模板
- 發(fā)電廠貯灰場突發(fā)環(huán)境事件應(yīng)急預(yù)案
- 2023年高考全國乙卷作文“一花獨放不是春百花齊放春滿園”寫作
- 建材公司質(zhì)量管理手冊(模板范文)
- 鉗工中級知識培訓(xùn)課件
- GB/T 42706.2-2023電子元器件半導(dǎo)體器件長期貯存第2部分:退化機理
- 高考語文新題型+“文學(xué)短評”相關(guān)寫作(真題+技法+練習(xí))
評論
0/150
提交評論