




版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
試卷科目:人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷11)PAGE"pagenumber"pagenumber/SECTIONPAGES"numberofpages"numberofpages人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)第1部分:?jiǎn)雾?xiàng)選擇題,共61題,每題只有一個(gè)正確答案,多選或少選均不得分。[單選題]1.回歸問(wèn)題的評(píng)價(jià)指標(biāo)中MAE是指()A)均方根誤差B)均方誤差C)平均絕對(duì)誤差答案:C解析:[單選題]2.SVM在()情況下表現(xiàn)糟糕。A)線性可分?jǐn)?shù)據(jù)B)清洗過(guò)的數(shù)據(jù)C)含噪聲數(shù)據(jù)與重疊數(shù)據(jù)點(diǎn)答案:C解析:[單選題]3.(__)是一種著名的過(guò)濾式特征選擇方法。A)k-meansB)k近鄰C)支持向量機(jī)D)Relief答案:D解析:[單選題]4.(__)對(duì)基決策樹(shù)的每個(gè)結(jié)點(diǎn),先從該結(jié)點(diǎn)的屬性集合中隨機(jī)選擇一個(gè)包含k個(gè)屬性的子集,然后再?gòu)倪@個(gè)子集中選擇一個(gè)最優(yōu)屬性進(jìn)行劃分。A)AdaBoostB)RFC)BaggingD)傳統(tǒng)決策樹(shù)答案:B解析:[單選題]5.以下哪項(xiàng)方法不屬于漢語(yǔ)分詞方法?()A)雙向掃描法B)正向最大匹配法C)逐詞遍歷法D)詞向量匹配法答案:D解析:[單選題]6.下面哪項(xiàng)不是常用的自然語(yǔ)言處理技術(shù):()A)詞條化B)詞性標(biāo)注C)句法分析D)交叉驗(yàn)證答案:D解析:[單選題]7.在K-搖臂賭博機(jī)中,若嘗試次數(shù)非常大,在一段時(shí)間后,搖臂的獎(jiǎng)賞能很好的近似出來(lái),不再需要探索,則可讓?duì)烹S著嘗試次數(shù)增加而A)增大B)置為無(wú)窮C)置為0D)減少答案:D解析:[單選題]8.在一個(gè)神經(jīng)網(wǎng)絡(luò)里,確定每一個(gè)神經(jīng)元的權(quán)重和偏差是模型擬合訓(xùn)練樣本的目標(biāo),比較有效的辦法是什么()A)根據(jù)人工經(jīng)驗(yàn)隨機(jī)賦值B)搜索所有權(quán)重和偏差的組合,直到得到最佳值C)賦予一個(gè)初始值,然后迭代更新權(quán)重,直至代價(jià)函數(shù)取得極小D)以上都不正確答案:C解析:[單選題]9.采樣分析的精確性隨著采樣隨機(jī)性的增加而(),但與樣本數(shù)量的增加關(guān)系不大。A)降低B)不變C)提高D)無(wú)關(guān)答案:C解析:采樣分析的精確性隨著采樣隨機(jī)性的增加而提高,但與樣本數(shù)量的增加關(guān)系不大。當(dāng)樣本數(shù)量達(dá)到某個(gè)值后,我們從新個(gè)體上得到的信息會(huì)越來(lái)越少。[單選題]10.2.當(dāng)訓(xùn)練集很多時(shí),一種更為強(qiáng)大的結(jié)合策略是使用(),即通過(guò)另一個(gè)學(xué)習(xí)器來(lái)進(jìn)行結(jié)合。A)學(xué)習(xí)法B)平均法C)投票法D)加權(quán)投票法答案:A解析:[單選題]11.下面不屬于探索性統(tǒng)計(jì)中常用集中趨勢(shì)統(tǒng)計(jì)量的是(__)。A)和B)方差C)平均數(shù)D)四分位數(shù)答案:B解析:[單選題]12.下圖中判斷未知綠圓的類別,體現(xiàn)了哪個(gè)機(jī)器學(xué)習(xí)算法的思想?()A)決策樹(shù)B)貝葉斯分類器C)支持向量機(jī)D)K近鄰算法答案:D解析:[單選題]13.下面關(guān)于決策樹(shù)學(xué)習(xí)相關(guān)描述不正確的有(__)。A)決策樹(shù)學(xué)習(xí)的本質(zhì)是一種逼近離散值目標(biāo)函數(shù)的過(guò)程B)決策樹(shù)的根節(jié)點(diǎn)表示分類的開(kāi)始C)中間節(jié)點(diǎn)表示某一個(gè)屬性的屬性值D)從根節(jié)點(diǎn)到葉節(jié)點(diǎn)的路徑表示一個(gè)具體的實(shí)例答案:C解析:[單選題]14.有兩個(gè)樣本點(diǎn),第一個(gè)點(diǎn)為正樣本,它的特征向量是(0,-1);第二個(gè)點(diǎn)為負(fù)樣本,它的特征向量是(2,3),從這兩個(gè)樣本點(diǎn)組成的訓(xùn)練集構(gòu)建一個(gè)線性SVM分類器的分類面方程是()A)2x+y=4B)x+2y=5C)x+2y=3D)以上都不對(duì)答案:C解析:[單選題]15.關(guān)于ndarray對(duì)象屬性,下列描述錯(cuò)誤的是()。A)ndim屬性表示數(shù)組軸的個(gè)數(shù)B)shape屬性表示每個(gè)維度上數(shù)組的大小C)size屬性表示數(shù)組元素的總個(gè)數(shù),等于shape屬性元組元素的和D)dtype屬性表示數(shù)組中元素類型的對(duì)象答案:C解析:size屬性表示數(shù)組元素的總個(gè)數(shù),等于shape屬性元組元素的乘積[單選題]16.貝葉斯決策的最優(yōu)分類面是(__)。A)線性的B)非線性的C)不可構(gòu)造的D)不存在的答案:A解析:[單選題]17.交叉驗(yàn)證的目的是(__)。A)提高分類準(zhǔn)確率B)得到更穩(wěn)定的模型C)驗(yàn)證結(jié)果的準(zhǔn)確性D)增大分類的誤差答案:B解析:[單選題]18.下列方法中沒(méi)有考慮先驗(yàn)分布的是()A)最大后驗(yàn)估計(jì)B)貝葉斯分類器C)貝葉斯學(xué)習(xí)D)最大似然估計(jì)答案:D解析:[單選題]19.下面那種2D變換有可能破壞平行性(平行的線變換后不再平行)的是()?A)剛性變換B)投影變換C)相似變換D)仿射變換答案:B解析:[單選題]20.貝葉斯網(wǎng)結(jié)構(gòu)有效地表達(dá)了屬性的(__)。A)相互制約性B)條件獨(dú)立性C)取值D)含義答案:B解析:[單選題]21.以下關(guān)于感知器說(shuō)法錯(cuò)誤的是:()A)感知器中的偏置只改變決策邊界的位置B)可為感知器的輸出值設(shè)置閾值使其用于處理分類問(wèn)題C)單層感知器可以用于處理非線性學(xué)習(xí)問(wèn)題D)感知器是最簡(jiǎn)單的前饋式人工神經(jīng)網(wǎng)絡(luò)答案:C解析:[單選題]22.在支持向量機(jī)中,核函數(shù)的主要作用是(__)。A)將低維空間中線性不可分的數(shù)據(jù)映射到高維空間,使其線性可分B)將高維空間中線性不可分的數(shù)據(jù)映射到低維空間,使其線性可分C)將高維空間中線性可分的數(shù)據(jù)映射到低維空間,使其線性不可分D)將低維空間中線性可分的數(shù)據(jù)映射到高維空間,使其線性不可分答案:A解析:[單選題]23.以下描述中,能夠使神經(jīng)網(wǎng)絡(luò)模型成為深度學(xué)習(xí)模型的處理是(A)設(shè)置很多層,使神經(jīng)網(wǎng)絡(luò)的深度增加B)處理一個(gè)圖形識(shí)別的問(wèn)題C)有維度更高的數(shù)據(jù)D)以上都不正確答案:A解析:[單選題]24.變量消去的缺點(diǎn)有A)會(huì)造成冗余計(jì)算B)精準(zhǔn)率不高C)不能解決多邊界分布問(wèn)題D)不直觀答案:A解析:[單選題]25.下面關(guān)于數(shù)據(jù)產(chǎn)品開(kāi)發(fā)相關(guān)描述正確的有(__)。A)數(shù)據(jù)科學(xué)家的主要職責(zé)是?數(shù)據(jù)的管理?B)數(shù)據(jù)科學(xué)家一定是科學(xué)家C)?數(shù)據(jù)碼農(nóng)?可以勝任數(shù)據(jù)科學(xué)家D)數(shù)據(jù)科學(xué)家是為解決現(xiàn)實(shí)世界中問(wèn)題提供直接指導(dǎo)、依據(jù)或參考的高級(jí)專家答案:D解析:[單選題]26.下面關(guān)于貝葉斯學(xué)習(xí)相關(guān)描述正確的有(__)。A)貝葉斯學(xué)習(xí)等價(jià)于頻數(shù)概率B)頻數(shù)概率引入先驗(yàn)知識(shí)和邏輯推理來(lái)處理不確定問(wèn)題C)貝葉斯學(xué)習(xí)只從數(shù)據(jù)本身獲得結(jié)論D)貝葉斯學(xué)習(xí)是一種以貝葉斯法則為基礎(chǔ)的,并通過(guò)概率手段進(jìn)行學(xué)習(xí)的方法答案:D解析:[單選題]27.下列關(guān)于bootstrap說(shuō)法正確的是?A)從總的M個(gè)特征中,有放回地抽取m個(gè)特征(m<M)B)從總的M個(gè)特征中,無(wú)放回地抽取m個(gè)特征(m<M)C)從總的N個(gè)樣本中,有放回地抽取n個(gè)樣本(n<N)D)從總的N個(gè)樣本中,無(wú)放回地抽取n個(gè)樣本(n<N)答案:C解析:bootstrap的思想是從已有的數(shù)據(jù)集中模擬出類似但又不完全一樣的數(shù)據(jù)集。主要是針對(duì)沒(méi)有足夠數(shù)據(jù)來(lái)訓(xùn)練多個(gè)模型的情況。Bootstrap的做法是,假設(shè)有N筆資料D,先從中選出一個(gè)樣本,再放回去,再選擇一個(gè)樣本,再放回去,共重復(fù)n次。這樣我們就得到了一個(gè)新的n筆資料D',這個(gè)新的數(shù)據(jù)集中可能包含原數(shù)據(jù)集里的重復(fù)樣本點(diǎn),也可能沒(méi)有原數(shù)據(jù)集里的某些樣本,D'與D類似但又不完全相同。值得一提的是,抽取-放回的操作次數(shù)不一定非要是N,次數(shù)可以任意設(shè)定。例如原始樣本有10000個(gè),我們可以抽取-放回3000次,得到包含3000個(gè)樣本的D'也是完全可以的。[單選題]28.常用的本地文件格式不包括()A)TXT文件B)Excel文件C)CSV文件D)DOT文件答案:D解析:[單選題]29.下面不屬于客戶服務(wù)的有(__)。A)ravelB)medalliaC)gainsightD)frame.ai答案:A解析:[單選題]30.(__)就是把已知物體的模板與圖像中所有未知物體進(jìn)行比較,如果某一未知物體與該模板匹配,則該物體被檢測(cè)出來(lái),并被認(rèn)為是與模板相同的物體。A)統(tǒng)計(jì)法B)句法識(shí)別法C)神經(jīng)網(wǎng)絡(luò)法D)模板匹配法答案:D解析:[單選題]31.(__)的學(xué)習(xí)目的是生成一顆泛化能力強(qiáng),即處理未見(jiàn)示例能力強(qiáng)的決策樹(shù)。A)線性回歸B)貝葉斯分類器C)神經(jīng)網(wǎng)絡(luò)D)決策樹(shù)答案:D解析:[單選題]32.假定有一個(gè)數(shù)據(jù)集S,但該數(shù)據(jù)集有很多誤差,采用軟間隔SVM訓(xùn)練,閾值為C,如果C的值很小,以下那種說(shuō)法正確()A)會(huì)發(fā)生誤分類現(xiàn)象B)數(shù)據(jù)將被正確分類C)不確定D)以上都不對(duì)答案:A解析:[單選題]33.解線性方程組時(shí),若因變量過(guò)多,則會(huì)解出多組解都能使均方誤差最小化,選擇哪一個(gè)解,常見(jiàn)的做法是引入__。A)剪枝B)對(duì)數(shù)線性回歸C)極大似然法D)正則化答案:D解析:[單選題]34.機(jī)器學(xué)習(xí)的流程包括:分析案例、數(shù)據(jù)獲取、________和模型驗(yàn)證這四個(gè)過(guò)程。A)數(shù)據(jù)清洗B)數(shù)據(jù)分析C)模型訓(xùn)練D)模型搭建答案:C解析:[單選題]35.機(jī)器學(xué)習(xí)中L1正則化和L2正則化的區(qū)別是()。A)使用L1可以得到稀疏的權(quán)值,使用L2可以得到平滑的權(quán)值B)使用L1可以得到平滑的權(quán)值,使用L2可以得到平滑的權(quán)值C)使用L1可以得到平滑的權(quán)值,使用L2可以得到稀疏的權(quán)值D)使用L1可以得到稀疏的權(quán)值,使用L2可以得到稀疏的權(quán)值答案:A解析:使用L1可以得到稀疏的權(quán)值,使用L2可以得到平滑的權(quán)值。[單選題]36.關(guān)于累加器,下面哪個(gè)是錯(cuò)誤的()。A)支持加法B)支持?jǐn)?shù)值類型C)可并行D)不支持自定義類型答案:D解析:[單選題]37.決策樹(shù)是基于(__)結(jié)構(gòu)來(lái)進(jìn)行決策的。A)樹(shù)B)鏈C)隊(duì)列D)棧答案:A解析:[單選題]38.支持向量機(jī)優(yōu)化問(wèn)題的形式是(__)。A)一個(gè)不含約束的二次規(guī)劃問(wèn)題B)一個(gè)含有等式約束的二次規(guī)劃問(wèn)題C)一個(gè)含有不等式約束的二次規(guī)劃問(wèn)題D)一個(gè)含有不等式約束的線性規(guī)劃問(wèn)題答案:C解析:[單選題]39.在NumPy通用函數(shù)中,用于計(jì)算元素級(jí)最大值的函數(shù)是()。A)maxB)maximumC)minD)maximal答案:B解析:[單選題]40.下列關(guān)于Pandas庫(kù)的說(shuō)法中正確的是()。A)Pandas中只有兩種數(shù)據(jù)結(jié)構(gòu)B)Pandas不支持讀取文本數(shù)據(jù)C)Pandas是在NumPy基礎(chǔ)上建立的新程序庫(kù)D)Pandas中Series和DataFrame可以解決數(shù)據(jù)分析中一切的問(wèn)題答案:C解析:除了書(shū)中介紹的兩種常見(jiàn)數(shù)據(jù)結(jié)構(gòu),Pandas中還有另一種數(shù)據(jù)結(jié)構(gòu)Panel[單選題]41.下列關(guān)于線性回歸分析中的殘差(Residuals)說(shuō)法正確的是?A)殘差均值總是為零B)殘差均值總是小于零C)殘差均值總是大于零D)以上說(shuō)法都不對(duì)答案:A解析:線性回歸分析中,目標(biāo)是殘差最小化。殘差平方和是關(guān)于參數(shù)的函數(shù),為了求殘差極小值,令殘差關(guān)于參數(shù)的偏導(dǎo)數(shù)為零,會(huì)得到殘差和為零,即殘差均值為零。[單選題]42.假設(shè)你需要調(diào)整超參數(shù)來(lái)最小化代價(jià)函數(shù)(costfunction),會(huì)使用下列哪項(xiàng)技術(shù)?A)窮舉搜索B)隨機(jī)搜索C)Bayesian優(yōu)化D)都可以答案:D解析:[單選題]43.下列關(guān)于泛化誤差與偏差、方差和噪音之間的關(guān)系,表述正確的是(__)。A)泛化誤差=偏差+方差-噪音B)泛化誤差=偏差-方差+噪音C)泛化誤差=偏差-方差-噪音D)泛化誤差=偏差+方差+噪音答案:D解析:[單選題]44.假定用于分析的數(shù)據(jù)包含屬性age。數(shù)據(jù)元組中age的值如下(按遞增序):13,15,16,16,19,20,20,21,22,22,25,25,25,30,33,33,35,35,36,40,45,46,52,70,問(wèn)題:使用按箱平均值平滑方法對(duì)上述數(shù)據(jù)進(jìn)行平滑,箱的深度為3。第二個(gè)箱子值為:A)18.3B)22.6C)26.8D)27.9答案:A解析:[單選題]45.如右圖所示有向圖,以下陳述正確的有()A)B和G關(guān)于{C,F}條件獨(dú)立B)B和C關(guān)于F條件獨(dú)立C)B和G關(guān)于F條件獨(dú)立D)B和G關(guān)于{C,F,H}條件獨(dú)立答案:A解析:[單選題]46.下列關(guān)于過(guò)擬合現(xiàn)象的描述中,哪個(gè)是正確的()A)訓(xùn)練誤差小,測(cè)試誤差大B)訓(xùn)練誤差小,測(cè)試誤差小C)模型的泛化能力高D)其余選項(xiàng)都不對(duì)答案:A解析:[單選題]47.下面關(guān)于數(shù)據(jù)加工相關(guān)描述不正確的有(__)。A)數(shù)據(jù)加工是數(shù)據(jù)科學(xué)中關(guān)注的新問(wèn)題之一B)數(shù)據(jù)加工是為了提升數(shù)據(jù)質(zhì)量、降低數(shù)據(jù)計(jì)算復(fù)雜度C)數(shù)據(jù)科學(xué)中數(shù)據(jù)加工就是傳統(tǒng)數(shù)據(jù)處理D)數(shù)據(jù)脫敏屬于數(shù)據(jù)加工答案:C解析:[單選題]48.已知一個(gè)數(shù)據(jù)集,n為特征數(shù),m為訓(xùn)練樣本數(shù),如果n較小,而且m大小中等(例如n為1~1000,而m為10~10000),則一般選擇()。A)邏輯回歸模型B)不帶核的支持向量機(jī)C)高斯核的支持向量機(jī)D)多項(xiàng)式核的支持向量機(jī)答案:C解析:高斯核函數(shù)需要選擇合適的sigma2參數(shù),適用于少量特征,大量樣本的情況,可以擬合出非常復(fù)雜的非線性決策邊界。[單選題]49.(__)是指為最小化總體風(fēng)險(xiǎn),只需在每個(gè)樣本上選擇能使特定條件風(fēng)險(xiǎn)最小的類別標(biāo)記。A)支持向量機(jī)B)間隔最大化C)線性分類器D)貝葉斯判定準(zhǔn)則答案:D解析:[單選題]50.設(shè)X={1,2,3}是頻繁項(xiàng)集,則可由X產(chǎn)生()個(gè)關(guān)聯(lián)規(guī)則A)4B)5C)6D)7答案:C解析:[單選題]51.BP算法總結(jié)錯(cuò)誤的是()。A)當(dāng)前層的連接權(quán)值梯度,取決于當(dāng)前層神經(jīng)元閾值梯度和上一層神經(jīng)元輸出B)算法只要知道上一層神經(jīng)元的閾值梯度,就能計(jì)算當(dāng)前層神經(jīng)元的閾值梯度和連接權(quán)值梯度C)隱層的閾值梯度只跟本層的神經(jīng)元輸出值有關(guān)D)隱層閾值梯度取決于隱層神經(jīng)元輸出、輸出層閾值梯度和隱層與輸出層的連接權(quán)值答案:C解析:[單選題]52.關(guān)于OLAP的特性,下面正確的是:(1)快速性(2)可分析性(3)多維性(4)信息性(5)共享性A)(2)(3)B)(3)(4)C)(2)(3)(4)D)(2)(3)(4)(5)答案:D解析:[單選題]53.一般而言,在個(gè)體學(xué)習(xí)器性能相差較大時(shí)宜使用(),而在個(gè)體學(xué)習(xí)器性能相近時(shí)宜使用()。A)簡(jiǎn)單平均法,加權(quán)平均法B)加權(quán)平均法,簡(jiǎn)單平均法C)簡(jiǎn)單平均法,簡(jiǎn)單平均法D)加權(quán)平均法,加權(quán)平均法答案:B解析:[單選題]54.算法性能顯著不同時(shí),需要進(jìn)行__來(lái)進(jìn)一步區(qū)分各算法。A)后續(xù)檢驗(yàn)B)Friedman檢驗(yàn)C)交叉驗(yàn)證t檢驗(yàn)D)McNemar檢驗(yàn)答案:A解析:[單選題]55.在二分類問(wèn)題中,當(dāng)測(cè)試集的正例和負(fù)例數(shù)量不均衡時(shí),以下評(píng)價(jià)方案哪個(gè)是相對(duì)不合理的()(假設(shè)precision=TP/(TP+FP),recall=TP/(TP+FN)。)A)Accuracy:(TP+TN)/allB)F-value:2recallprecision/(recall+precision)C)G-mean:sqrt(precision*recall)D)AUC:ROC曲線下面積答案:A解析:對(duì)于分類器,主要的評(píng)價(jià)指標(biāo)有precision,recall,F-score,以及ROC曲線等。在二分類問(wèn)題中,我們主要關(guān)注的是測(cè)試集的正樣本能否正確分類。當(dāng)樣本不均衡時(shí),比如樣本中負(fù)樣本數(shù)量遠(yuǎn)遠(yuǎn)多于正樣本,此時(shí)如果負(fù)樣本能夠全部正確分類,而正樣本只能部分正確分類,那么(TP+TN)可以得到很高的值,也就是Accuracy是個(gè)較大的值,但是正樣本并沒(méi)有取得良好的分類效果。因此A選項(xiàng)是不合理的。在樣本不均衡時(shí),可以采用BCD選項(xiàng)方法來(lái)評(píng)價(jià)。[單選題]56.Transformer架構(gòu)首先是由下列哪項(xiàng)引入的?A)GloVeB)BERTC)OpenAI?sGPTD)ULMFit答案:C解析:[單選題]57.對(duì)檔案內(nèi)容進(jìn)行主題分析并將表達(dá)這種主題的自然語(yǔ)言轉(zhuǎn)換成檔案信息處理語(yǔ)言,使之成為()的過(guò)程叫?標(biāo)引?A)文摘B)檢索標(biāo)識(shí)C)目錄D)索引答案:B解析:[單選題]58.決策樹(shù)中不包含以下哪種節(jié)點(diǎn)?()A)根節(jié)點(diǎn)B)內(nèi)部節(jié)點(diǎn)C)外部節(jié)點(diǎn)D)葉節(jié)點(diǎn)答案:C解析:第2部分:多項(xiàng)選擇題,共18題,每題至少兩個(gè)正確答案,多選或少選均不得分。[多選題]59.人工神經(jīng)元網(wǎng)絡(luò)包括()A)輸出層B)中間隱藏層C)映射層D)輸入層答案:ABD解析:[多選題]60.以下關(guān)于L1和L2范數(shù)的描述,正確的是()。A)L1范數(shù)為x向量各個(gè)元素絕對(duì)值之和。B)L2范數(shù)為x向量各個(gè)元素平方和的1/2次方,L2范數(shù)又稱Euclidean范數(shù)或Frobenius范數(shù)C)L1范數(shù)可以使權(quán)值稀疏,方便特征提取D)L2范數(shù)可以防止過(guò)擬合,提升模型的泛化能力。答案:ABCD解析:L0是指向量中非0的元素的個(gè)數(shù),L1范數(shù)是指向量中各個(gè)元素絕對(duì)值之和,L2范數(shù)向量元素絕對(duì)值的平方和再開(kāi)平方。L1范數(shù)可以使權(quán)值稀疏,方便特征提取。L2范數(shù)可以防止過(guò)擬合,提升模型的泛化能力。[多選題]61.下面哪些是spark比Mapreduce計(jì)算快的原因()A)基于內(nèi)存的計(jì)算B)基于DAG的調(diào)度框架C)基于Lineage的容錯(cuò)機(jī)制D)基于分布式計(jì)算的框架答案:ABC解析:[多選題]62.以下對(duì)數(shù)據(jù)描述正確的是()。A)數(shù)據(jù)只包含顯性數(shù)據(jù)和隱性數(shù)據(jù)B)數(shù)值是數(shù)據(jù)的一種形式C)數(shù)據(jù)到智慧是人們認(rèn)知提升的過(guò)程D)數(shù)據(jù)是現(xiàn)實(shí)世界的記錄答案:BCD解析:[多選題]63.在統(tǒng)計(jì)模式識(shí)分類問(wèn)題中,當(dāng)先驗(yàn)概率未知時(shí),可以使用()?A)最小損失準(zhǔn)則B)N-P判決C)最小最大損失準(zhǔn)則D)最小誤判概率準(zhǔn)則答案:BC解析:[多選題]64.當(dāng)同一個(gè)示例被判別結(jié)果不同的多條規(guī)則覆蓋時(shí),稱發(fā)生了沖突,解決沖突的辦法稱為沖突消解,常用的沖突消解策略有A)投票法B)排序法C)元規(guī)則法D)因式分解法答案:ABC解析:[多選題]65.數(shù)據(jù)挖掘的主要功能包括概念描述、趨勢(shì)分析、孤立點(diǎn)分析及()等方面。A)關(guān)聯(lián)分析B)分類和預(yù)測(cè)C)聚類分析D)偏差分析答案:ABCD解析:[多選題]66.特征選擇的目的是()。A)減少特征數(shù)量、降維B)使模型泛化能力更強(qiáng)C)增強(qiáng)模型擬合能力D)減少過(guò)擬合。答案:ABD解析:特征選擇的主要目的是減少特征的數(shù)量、降低特征維度、使模型泛化能力更強(qiáng)、減少過(guò)擬合。[多選題]67.數(shù)據(jù)科學(xué)的基本流程包含(__)。A)數(shù)據(jù)產(chǎn)品的提供B)數(shù)據(jù)應(yīng)用C)結(jié)果展示D)數(shù)據(jù)可視化答案:AC解析:[多選題]68.在某神經(jīng)網(wǎng)絡(luò)的隱層輸出中,包含-1.5,那么該神經(jīng)網(wǎng)絡(luò)采用的激活函數(shù)不可能是()A)SigmoidB)TanhC)ReluD)LeakyRelu答案:ABC解析:[多選題]69.下面屬于數(shù)據(jù)加工的有(__)。A)數(shù)據(jù)審計(jì)B)數(shù)據(jù)清洗C)數(shù)據(jù)變換D)數(shù)據(jù)集成答案:ABCD解析:[多選題]70.深度學(xué)習(xí)可進(jìn)一步分為(__)。A)無(wú)監(jiān)督和生成式學(xué)習(xí)深度網(wǎng)絡(luò)B)半監(jiān)督深度神經(jīng)網(wǎng)絡(luò)C)監(jiān)督學(xué)習(xí)深度網(wǎng)絡(luò)D)混合深度網(wǎng)絡(luò)答案:ACD解析:[多選題]71.從方法論角度,基于統(tǒng)計(jì)的數(shù)據(jù)分析方法可以分為(__)。A)基本分析方法B)自適應(yīng)分析方法C)元分析方法D)判別模型分析方法答案:AC解析:[多選題]72.特征向量的缺失值處理:缺失值較多,直接將該特征舍棄掉,否則可能反倒會(huì)帶入較大的noise,對(duì)結(jié)果造成不良影響;缺失值較少,其余的特征缺失值都在10%以內(nèi),我們可以采取的處理方式有()。A)把NaN直接作為一個(gè)特征,假設(shè)用0表示B)用均值填充C)用隨機(jī)森林等算法預(yù)測(cè)填充D)以上答案都不正確答案:ABC解析:缺失值較少的處理方法;①把NAN直接作為一個(gè)特征,假設(shè)用0表示;②用均值填充;③用隨機(jī)森林等算法預(yù)測(cè)填充;④用插值法填充。[多選題]73.以下可行的最近鄰分類的加速方案()A)分層搜索B)訓(xùn)練樣本縮減C)樣本增加D)非線性投影答案:AB解析:[多選題]74.知識(shí)圖譜在現(xiàn)代搜索引擎中有廣泛應(yīng)用,下面哪些可能是屬于知識(shí)圖譜構(gòu)建過(guò)程中包含的內(nèi)容?()**A)實(shí)體及關(guān)系抽取B)實(shí)體屬性抽取C)半結(jié)構(gòu)化信息抽取D)結(jié)構(gòu)化數(shù)據(jù)融合答案:ABCD解析:[多選題]75.分類評(píng)估指標(biāo)中的AUC()A)AUC=1,表示分類器是完美的B)AUC=0.5,表示分類器是可用的C)AUC<0.5,表示分類器不可用D)0.5<AUC<1,表示分類器優(yōu)于隨機(jī)猜測(cè)答案:ACD解析:第3部分:判斷題,共12題,請(qǐng)判斷題目是否正確。[判斷題]76.ndarray對(duì)象中存儲(chǔ)元素的類型必須是相同的。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]77.使用pip命令也可以查看Anconda安裝的包。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]78.模型泛化能力與訓(xùn)練樣本數(shù)量無(wú)關(guān)A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]79.EM算法用于訓(xùn)練樣本完整的情況下進(jìn)行估計(jì)A)正確;B)錯(cuò)誤;答案:錯(cuò)解析:[判斷題]80.知識(shí)圖譜中的三元組遵從一種三階謂詞邏輯的表達(dá)形式。()A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]81.BP算法的正向傳播是為獲取訓(xùn)練誤差。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]82.列表、元組和字符串屬于有序序列,其中的元素有嚴(yán)格的先后順序。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]83.在K近鄰算法中,投票法是指選擇k個(gè)距離最近的樣本,將這K個(gè)樣本中出現(xiàn)最多的類別標(biāo)記作為預(yù)測(cè)結(jié)果A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]84.回歸方法是對(duì)離散型隨機(jī)變量建?;蝾A(yù)測(cè)的監(jiān)督學(xué)習(xí)方法A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]85.兩個(gè)變量相關(guān),它們的相關(guān)系數(shù)r可能為0。這句話()。A)正確B)錯(cuò)誤答案:對(duì)解析:Pearson相關(guān)系數(shù)r=0,這表示兩個(gè)變量間不存在線性相關(guān)關(guān)系。[判斷題]86.尋找最優(yōu)超參數(shù)費(fèi)時(shí)費(fèi)力,應(yīng)該在模型訓(xùn)練之前就指定最優(yōu)參數(shù)。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]87.輸出變量為連續(xù)變量的預(yù)測(cè)問(wèn)題是分類問(wèn)題A)正確B)錯(cuò)誤答案:錯(cuò)解析:第4部分:?jiǎn)柎痤},共9題,請(qǐng)?jiān)诳瞻滋幪顚?xiě)正確答案。[問(wèn)答題]88.若訓(xùn)練過(guò)程的目標(biāo)是預(yù)測(cè)離散值,此類任務(wù)稱為()。答案:分類解析:[問(wèn)答題]89.簡(jiǎn)述標(biāo)準(zhǔn)BP算法和累計(jì)BP算法的缺點(diǎn)答案:累積BP算法與標(biāo)準(zhǔn)BP算法都很常用.一般來(lái)說(shuō),標(biāo)準(zhǔn)BP算法每次更新只針對(duì)單個(gè)樣例?參數(shù)更新得非常頻繁,而且對(duì)不同樣例進(jìn)行更新的效果可能出現(xiàn)"抵消"現(xiàn)象.因此,為了達(dá)到同樣的累積誤差極小點(diǎn)標(biāo)準(zhǔn)BP算法往往需進(jìn)行更多次數(shù)的法代.累積BP算法直接針對(duì)累積誤差最小化,它在賣取整個(gè)訓(xùn)練集一遍后才對(duì)參數(shù)進(jìn)行更新,其參數(shù)更新的頻率低得多.但在很多任務(wù)中,累積誤差下降到一定程度之后,進(jìn)一步下降會(huì)非常緩慢,這時(shí)標(biāo)準(zhǔn)BP往往會(huì)更快獲得較好的解,尤其是在訓(xùn)練非常大時(shí)更明顯.解析:[問(wèn)答題]90.給定一定數(shù)量的紅細(xì)胞、白細(xì)胞圖像以及它們對(duì)應(yīng)的標(biāo)簽,設(shè)計(jì)出一個(gè)紅、白細(xì)胞分類器,這屬于學(xué)習(xí)。答案:監(jiān)督解析:[問(wèn)答題]91.為什么需要對(duì)輸入數(shù)據(jù)進(jìn)行歸一化處理,或者說(shuō),進(jìn)行歸一化處理有什么好處?答案:原因在于機(jī)器學(xué)習(xí)的本質(zhì)就是為了學(xué)習(xí)數(shù)據(jù)分布,一旦訓(xùn)練數(shù)據(jù)與測(cè)試數(shù)據(jù)的分布不同,那么模型的泛化能力也會(huì)大大降低,所以需要對(duì)輸入數(shù)據(jù)進(jìn)行歸一化處理,從而使訓(xùn)練數(shù)據(jù)與測(cè)試數(shù)據(jù)的分布相同。解析:[問(wèn)答題]92.什么是神經(jīng)網(wǎng)絡(luò)的梯度消失問(wèn)題,為什么會(huì)有梯度消失問(wèn)題?有什么辦法能緩解梯度消失問(wèn)題?答案:在反向傳播算法計(jì)算每一層的誤差項(xiàng)的時(shí)候,需要乘以本層激活函數(shù)的導(dǎo)數(shù)值,如果導(dǎo)數(shù)值接近于0,則多次乘積之后誤差項(xiàng)會(huì)趨向于0,而參數(shù)的梯度值通過(guò)誤差項(xiàng)計(jì)算,這會(huì)導(dǎo)致參數(shù)的梯度值接近于0,無(wú)法用梯度下降法來(lái)有效的更新參數(shù)的值。改進(jìn)激活函數(shù),選用更不容易飽和的函數(shù),如ReLU函數(shù)。解析
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 取消合同補(bǔ)充協(xié)議書(shū)
- 合伙承包廚房協(xié)議書(shū)
- 土地共同經(jīng)營(yíng)協(xié)議書(shū)
- 噴繪車間合同協(xié)議書(shū)
- 醫(yī)院科長(zhǎng)聘用協(xié)議書(shū)
- 土地回填出租協(xié)議書(shū)
- 合作建設(shè)大樓協(xié)議書(shū)
- 名人故居捐贈(zèng)協(xié)議書(shū)
- 商鋪攤位認(rèn)購(gòu)協(xié)議書(shū)
- 勞動(dòng)協(xié)商解決協(xié)議書(shū)
- 造謠調(diào)解協(xié)議書(shū)范本
- 眩暈護(hù)理課件
- 《集成電路基礎(chǔ)及其應(yīng)用》課件
- 2020 年全國(guó)碩士研究生入學(xué)統(tǒng)一考試英語(yǔ) ( 一) 試題
- DB64 2115-2024 精神障礙患者康復(fù)服務(wù)指南
- 2025屆江蘇省南通市三模(蘇北八市)高三第三次調(diào)研測(cè)試 歷史試題(含答案)
- 2024年安徽省糧油經(jīng)貿(mào)有限公司招聘考試真題
- 杭州市蘇教版一年級(jí)數(shù)學(xué)競(jìng)賽試卷
- 中國(guó)航空工業(yè)集團(tuán)導(dǎo)彈院招聘筆試真題2024
- 數(shù)字化變革對(duì)企業(yè)會(huì)計(jì)信息質(zhì)量的影響機(jī)制研究
- 庫(kù)管員筆試題及答案
評(píng)論
0/150
提交評(píng)論