【MOOC】機(jī)器學(xué)習(xí)-溫州大學(xué) 中國大學(xué)慕課MOOC答案_第1頁
【MOOC】機(jī)器學(xué)習(xí)-溫州大學(xué) 中國大學(xué)慕課MOOC答案_第2頁
【MOOC】機(jī)器學(xué)習(xí)-溫州大學(xué) 中國大學(xué)慕課MOOC答案_第3頁
【MOOC】機(jī)器學(xué)習(xí)-溫州大學(xué) 中國大學(xué)慕課MOOC答案_第4頁
【MOOC】機(jī)器學(xué)習(xí)-溫州大學(xué) 中國大學(xué)慕課MOOC答案_第5頁
已閱讀5頁,還剩21頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

【MOOC】機(jī)器學(xué)習(xí)-溫州大學(xué)中國大學(xué)慕課MOOC答案引言課后測試1、【單選題】哪一個(gè)是機(jī)器學(xué)習(xí)的合理定義?本題答案:【機(jī)器學(xué)習(xí)能使計(jì)算機(jī)能夠在沒有明確編程的情況下學(xué)習(xí)】2、【單選題】一個(gè)計(jì)算機(jī)程序從經(jīng)驗(yàn)E中學(xué)習(xí)任務(wù)T,并用P來衡量表現(xiàn)。并且,T的表現(xiàn)P隨著經(jīng)驗(yàn)E的增加而提高。假設(shè)我們給一個(gè)學(xué)習(xí)算法輸入了很多歷史天氣的數(shù)據(jù),讓它學(xué)會(huì)預(yù)測天氣。什么是P的合理選擇?本題答案:【正確預(yù)測未來日期天氣的概率】3、【單選題】回歸問題和分類問題的區(qū)別是什么?本題答案:【回歸問題輸出值是連續(xù)的,分類問題輸出值是離散的】4、【單選題】以下關(guān)于特征選擇的說法正確的是?本題答案:【選擇的特征需盡可能反映不同事物之間的差異】5、【單選題】一個(gè)包含n類的多分類問題,若采用一對(duì)剩余的方法,需要拆分成多少次?本題答案:【n-1】6、【單選題】機(jī)器學(xué)習(xí)方法傳統(tǒng)上可以分為()類。本題答案:【3】7、【單選題】哪些機(jī)器學(xué)習(xí)模型經(jīng)過訓(xùn)練,能夠根據(jù)其行為獲得的獎(jiǎng)勵(lì)和反饋?zhàn)龀鲆幌盗袥Q策?本題答案:【強(qiáng)化學(xué)習(xí)】8、【單選題】機(jī)器學(xué)習(xí)這個(gè)術(shù)語是由()定義的?本題答案:【ArthurSamuel】9、【單選題】哪種開發(fā)語言最適合機(jī)器學(xué)習(xí)?()本題答案:【Python】10、【單選題】()是機(jī)器學(xué)習(xí)的一部分,與神經(jīng)網(wǎng)絡(luò)一起工作。本題答案:【深度學(xué)習(xí)】11、【單選題】()是可用于標(biāo)記數(shù)據(jù)的機(jī)器學(xué)習(xí)算法。本題答案:【回歸算法】12、【單選題】谷歌新聞每天收集非常多的新聞,并運(yùn)用()方法再將這些新聞分組,組成若干類有關(guān)聯(lián)的新聞。于是,搜索時(shí)同一組新聞事件往往隸屬同一主題的,所以顯示到一起。本題答案:【聚類】13、【多選題】下列哪些學(xué)習(xí)問題不屬于監(jiān)督學(xué)習(xí)?()本題答案:【聚類#降維】14、【多選題】下列哪些學(xué)習(xí)問題不屬于監(jiān)督學(xué)習(xí)?()本題答案:【聚類#關(guān)聯(lián)規(guī)則】15、【多選題】機(jī)器學(xué)習(xí)的方法由()等幾個(gè)要素構(gòu)成。本題答案:【模型#損失函數(shù)#優(yōu)化算法#模型評(píng)估指標(biāo)】16、【多選題】對(duì)于非概率模型而言,可按照判別函數(shù)線性與否分成線性模型與非線性模型。下面哪些模型屬于線性模型?本題答案:【K-means#k近鄰#感知機(jī)】17、【判斷題】樸素貝葉斯屬于概率模型。本題答案:【正確】18、【判斷題】根據(jù)腫瘤的體積、患者的年齡來判斷良性或惡性,這是一個(gè)回歸問題。本題答案:【錯(cuò)誤】19、【判斷題】大部分的機(jī)器學(xué)習(xí)工程中,數(shù)據(jù)搜集、數(shù)據(jù)清洗、特征工程這三個(gè)步驟絕大部分時(shí)間,而數(shù)據(jù)建模,占總時(shí)間比較少。本題答案:【正確】20、【判斷題】已知你朋友的信息,比如經(jīng)常發(fā)email的聯(lián)系人,或是你微博的好友、微信的朋友圈,我們可運(yùn)用聚類方法自動(dòng)地給朋友進(jìn)行分組,做到讓每組里的人們彼此都熟識(shí)。本題答案:【正確】回歸課后測試1、【單選題】以下哪組變量之間存在線性回歸關(guān)系?本題答案:【正三角形的邊長與周長】2、【單選題】回歸問題和分類問題的區(qū)別是?本題答案:【回歸問題輸出值是連續(xù)的,分類問題輸出值是離散的】3、【單選題】以下說法錯(cuò)誤的是?本題答案:【損失函數(shù)越小,模型訓(xùn)練得一定越好】4、【單選題】哪些算法不需要數(shù)據(jù)歸一化?本題答案:【決策樹】5、【單選題】以下哪些方法不能用于處理欠擬合?本題答案:【增大正則化系數(shù)】6、【單選題】以下哪些方法不能用于處理過擬合?本題答案:【增加數(shù)據(jù)屬性的復(fù)雜度】7、【單選題】下列關(guān)于線性回歸分析中的殘差(Residuals)說法正確的是?本題答案:【殘差均值總是為零】8、【單選題】為了觀察測試Y與X之間的線性關(guān)系,X是連續(xù)變量,使用下列哪種圖形比較適合?本題答案:【散點(diǎn)圖】9、【單選題】假如你在訓(xùn)練一個(gè)線性回歸模型,則:1.如果數(shù)據(jù)量較少,容易發(fā)生過擬合。2.如果假設(shè)空間較小,容易發(fā)生過擬合。關(guān)于這兩句話,下列說法正確的是?本題答案:【1正確,2錯(cuò)誤】10、【單選題】關(guān)于特征選擇,下列對(duì)Ridge回歸和Lasso回歸說法正確的是?本題答案:【Lasso回歸適用于特征選擇】11、【單選題】構(gòu)建一個(gè)最簡單的線性回歸模型需要幾個(gè)系數(shù)(只有一個(gè)特征)?本題答案:【2個(gè)】12、【單選題】向量x=[1,2,3,4,-9,0]的L1范數(shù)是多少?本題答案:【19】13、【多選題】以下哪些是使用數(shù)據(jù)規(guī)范化(特征縮放)的原因?本題答案:【它通過減少迭代次數(shù)來獲得一個(gè)好的解,從而加快了梯度下降的速度#它不能防止梯度下降陷入局部最優(yōu)】14、【多選題】線性回歸中,我們可以使用最小二乘法來求解系數(shù),下列關(guān)于最小二乘法說法正確的是?()本題答案:【只適用于線性模型,不適合邏輯回歸模型等其他模型#不需要選擇學(xué)習(xí)率#當(dāng)特征數(shù)量很多的時(shí)候,運(yùn)算速度會(huì)很慢#不需要迭代訓(xùn)練】15、【多選題】欠擬合的處理主要有哪些方式:()本題答案:【增加模型復(fù)雜度#減小正則化系數(shù)#添加新特征】16、【多選題】假如使用一個(gè)較復(fù)雜的回歸模型來擬合樣本數(shù)據(jù),使用Ridge回歸,調(diào)試正則化參數(shù),來降低模型復(fù)雜度,若正則化系數(shù)較大時(shí),關(guān)于偏差(bias)和方差(variance),下列說法正確的是?()本題答案:【偏差增大#方差減小】17、【判斷題】如果兩個(gè)變量相關(guān),那么它們一定是線性關(guān)系。本題答案:【錯(cuò)誤】18、【判斷題】隨機(jī)梯度下降,每次迭代時(shí)候,使用一個(gè)樣本。本題答案:【正確】19、【判斷題】L2正則化往往用于防止過擬合,而L1正則化往往用于特征選擇。本題答案:【正確】20、【判斷題】過擬合的處理可以通過減小正則化系數(shù)。本題答案:【錯(cuò)誤】邏輯回歸課后測驗(yàn)1、【單選題】一監(jiān)獄人臉識(shí)別準(zhǔn)入系統(tǒng)用來識(shí)別待進(jìn)入人員的身份,此系統(tǒng)一共包括識(shí)別4種不同的人員:獄警,小偷,送餐員,其他。下面哪種學(xué)習(xí)方法最適合此種應(yīng)用需求:本題答案:【多分類問題】2、【單選題】以下關(guān)于分類問題的說法錯(cuò)誤的是?本題答案:【分類問題輸入屬性必須是離散的】3、【單選題】以下關(guān)于邏輯回歸與線性回歸問題的描述錯(cuò)誤的是()本題答案:【邏輯回歸一般要求變量服從正態(tài)分布,線性回歸一般不要求】4、【單選題】以下關(guān)于sigmoid函數(shù)的優(yōu)點(diǎn)說法錯(cuò)誤的是?本題答案:【在深層次神經(jīng)網(wǎng)絡(luò)反饋傳輸中,不易出現(xiàn)梯度消失】5、【單選題】邏輯回歸的損失函數(shù)是哪個(gè)?本題答案:【交叉熵(Cross-Entropy)損失函數(shù)】6、【單選題】下面哪一項(xiàng)不是Sigmoid的特點(diǎn)?本題答案:【當(dāng)σ(z)小于0.5時(shí),預(yù)測y=-1】7、【單選題】下列哪一項(xiàng)不是邏輯回歸的優(yōu)點(diǎn)?本題答案:【處理非線性數(shù)據(jù)較容易】8、【單選題】假設(shè)有三類數(shù)據(jù),用OVR方法需要分類幾次才能完成?本題答案:【2】9、【單選題】以下哪些不是二分類問題?本題答案:【身高1.85m,體重100kg的男人穿什么尺碼的T恤?】10、【單選題】邏輯回歸通常采用哪種正則化方式?本題答案:【L2正則化】11、【單選題】假設(shè)使用邏輯回歸進(jìn)行多類別分類,使用OVR分類法。下列說法正確的是?本題答案:【對(duì)于n類別,需要訓(xùn)練n個(gè)模型】12、【單選題】你正在訓(xùn)練一個(gè)分類邏輯回歸模型。以下哪項(xiàng)陳述是正確的?選出所有正確項(xiàng)本題答案:【向模型中添加新特征總是會(huì)在訓(xùn)練集上獲得相同或更好的性能】13、【多選題】以下哪項(xiàng)陳述是正確的?選出所有正確項(xiàng)()本題答案:【邏輯回歸使用了Sigmoid激活函數(shù)#使用一個(gè)非常大的訓(xùn)練集使得模型不太可能過擬合訓(xùn)練數(shù)據(jù)?!?4、【多選題】下面哪些是分類算法?本題答案:【根據(jù)腫瘤的體積、患者的年齡來判斷良性或惡性?#根據(jù)用戶的年齡、職業(yè)、存款數(shù)量來判斷信用卡是否會(huì)違約?#身高1.85m,體重100kg的男人穿什么尺碼的T恤?】15、【判斷題】邏輯回歸的激活函數(shù)是Sigmoid。本題答案:【正確】16、【判斷題】邏輯回歸分類的精度不夠高,因此在業(yè)界很少用到這個(gè)算法本題答案:【錯(cuò)誤】17、【判斷題】Sigmoid函數(shù)的范圍是(-1,1)本題答案:【錯(cuò)誤】18、【判斷題】邏輯回歸的特征一定是離散的。本題答案:【錯(cuò)誤】19、【判斷題】邏輯回歸算法資源占用小,尤其是內(nèi)存。本題答案:【正確】20、【判斷題】邏輯回歸的損失函數(shù)是交叉熵?fù)p失本題答案:【正確】樸素貝葉斯課后測驗(yàn)1、【單選題】假設(shè)會(huì)開車的本科生比例是15%,會(huì)開車的研究生比例是23%。若在某大學(xué)研究生占學(xué)生比例是20%,則會(huì)開車的學(xué)生是研究生的概率是多少?本題答案:【27.7%】2、【單選題】下列關(guān)于樸素貝葉斯的特點(diǎn)說法錯(cuò)誤的是()本題答案:【樸素貝葉斯模型無需假設(shè)特征條件獨(dú)立】3、【單選題】以下算法不屬于生成模型()本題答案:【支持向量機(jī)】4、【單選題】關(guān)于拉普拉斯平滑說法正確的是()本題答案:【避免了出現(xiàn)概率為0的情況】5、【單選題】假設(shè)X和Y都服從正態(tài)分布,那么P(X5,Y0)就是一個(gè)(),表示X5,Y0兩個(gè)條件同時(shí)成立的概率,即兩個(gè)事件共同發(fā)生的概率。本題答案:【聯(lián)合概率】6、【單選題】以下算法屬于判別模型的是()本題答案:【線性回歸】7、【單選題】樸素貝葉斯的優(yōu)點(diǎn)不包括()本題答案:【樸素貝葉斯模型對(duì)輸入數(shù)據(jù)的表達(dá)形式很敏感】8、【單選題】市場上某商品來自兩個(gè)工廠,它們市場占有率分別為60%和40%,有兩人各自買一件,則買到的來自不同工廠之概率為()。本題答案:【0.48】9、【單選題】以A表示事件甲種產(chǎn)品暢銷,乙種產(chǎn)品滯銷,則其對(duì)立事件A為()本題答案:【甲種產(chǎn)品滯銷或乙種產(chǎn)品暢銷】10、【單選題】11.關(guān)于樸素貝葉斯,下列說法錯(cuò)誤的是:()本題答案:【樸素貝葉斯不需要使用聯(lián)合概率】11、【單選題】擲二枚骰子,事件A為出現(xiàn)的點(diǎn)數(shù)之和等于3的概率為()本題答案:【1/18】12、【單選題】公司里有一個(gè)人穿了運(yùn)動(dòng)鞋,推測是男還是女?已知公司里男性30人,女性70人,男性穿運(yùn)動(dòng)鞋的有25人,穿拖鞋的有5人,女性穿運(yùn)動(dòng)鞋的有40人,穿高跟鞋的有30人。則以下哪項(xiàng)計(jì)算錯(cuò)誤()?本題答案:【p(運(yùn)動(dòng)鞋|女性)=0.4】13、【判斷題】根據(jù)以往經(jīng)驗(yàn)和分析得到的概率。在這里,我們用P(Y)來代表在沒有訓(xùn)練數(shù)據(jù)前假設(shè)Y擁有的初始概率,因此稱其為Y的后驗(yàn)概率,它反映了我們所擁有的關(guān)于Y的背景知識(shí)。本題答案:【錯(cuò)誤】14、【判斷題】樸素貝葉斯模型假設(shè)屬性之間相互獨(dú)立,這個(gè)假設(shè)在實(shí)際應(yīng)用中往往是不成立的,在屬性相關(guān)性較小時(shí),樸素貝葉斯性能良好。而在屬性個(gè)數(shù)比較多或者屬性之間相關(guān)性較大時(shí),分類效果不好。本題答案:【正確】15、【判斷題】樸素貝葉斯對(duì)缺失數(shù)據(jù)較敏感。本題答案:【正確】16、【判斷題】判別模型所學(xué)內(nèi)容是決策邊界。本題答案:【正確】17、【判斷題】邏輯回歸是生成模型,樸素貝葉斯是判別模型本題答案:【錯(cuò)誤】18、【判斷題】邏輯回歸和樸素貝葉斯都有對(duì)屬性特征獨(dú)立的要求本題答案:【錯(cuò)誤】19、【判斷題】樸素貝葉斯法的基本假設(shè)是條件獨(dú)立性。本題答案:【正確】20、【判斷題】樸素貝葉斯適用于小規(guī)模數(shù)據(jù)集,邏輯回歸適用于大規(guī)模數(shù)據(jù)集。本題答案:【錯(cuò)誤】機(jī)器學(xué)習(xí)實(shí)踐課后測驗(yàn)1、【單選題】以下關(guān)于訓(xùn)練集、驗(yàn)證集和測試集說法不正確的是()。本題答案:【訓(xùn)練集是用來訓(xùn)練以及評(píng)估模型性能】2、【單選題】當(dāng)數(shù)據(jù)分布不平衡時(shí),我們可采取的措施不包括()。本題答案:【對(duì)數(shù)據(jù)分布較多的類別賦予更大的權(quán)重】3、【單選題】假設(shè)有100張照片,其中,貓的照片有60張,狗的照片是40張。識(shí)別結(jié)果:TP=40,F(xiàn)N=20,F(xiàn)P=10,TN=30,則可以得到:()。本題答案:【Precision=0.8】4、【單選題】關(guān)于數(shù)據(jù)規(guī)范化,下列說法中錯(cuò)誤的是()。本題答案:【標(biāo)準(zhǔn)化在任何場景下受異常值的影響都很小】5、【單選題】下列哪種方法可以用來緩解過擬合的產(chǎn)生:()。本題答案:【正則化】6、【單選題】以下關(guān)于ROC和PR曲線說法不正確的是()。本題答案:【類別不平衡問題中,ROC曲線比PR曲線估計(jì)效果要差】7、【單選題】以下關(guān)于偏差(Bias)和方差(Variance)說法正確的是()。本題答案:【獲取更多的訓(xùn)練數(shù)據(jù)可解決高方差的問題】8、【單選題】關(guān)于L1正則化和L2正則化說法錯(cuò)誤的是()。本題答案:【L1正則化比L2正則化使用更廣泛】9、【單選題】隨著訓(xùn)練樣本的數(shù)量越來越大,則該數(shù)據(jù)訓(xùn)練的模型將具有:()。本題答案:【低方差】10、【單選題】隨著訓(xùn)練樣本的數(shù)量越來越大,則該數(shù)據(jù)訓(xùn)練的模型將具有:()。本題答案:【相同偏差】11、【單選題】關(guān)于特征選擇,下列對(duì)Ridge回歸和Lasso回歸的說法正確的是:()。本題答案:【Lasso回歸適用于特征選擇】12、【單選題】一個(gè)正負(fù)樣本不平衡問題(正樣本99%,負(fù)樣本1%)。假如在這個(gè)非平衡的數(shù)據(jù)集上建立一個(gè)模型,得到訓(xùn)練樣本的正確率是99%,則下列說法正確的是?()本題答案:【模型正確率并不能反映模型的真實(shí)效果】13、【多選題】以下關(guān)于交叉驗(yàn)證說法正確的是()。本題答案:【交叉驗(yàn)證可利用模型選擇避免過擬合的情況#交叉驗(yàn)證可對(duì)模型性能合理評(píng)估#交叉驗(yàn)證大大增加了計(jì)算量】14、【多選題】評(píng)價(jià)指標(biāo)中,精確率(Precision)的計(jì)算需要哪些數(shù)值()。本題答案:【TP#FP】15、【多選題】評(píng)價(jià)指標(biāo)中,召回率(Recall)的計(jì)算需要哪些數(shù)值()。本題答案:【TP#FN】16、【多選題】評(píng)估完模型之后,發(fā)現(xiàn)模型存在高偏差(highbias),應(yīng)該如何解決?()本題答案:【增加模型的特征數(shù)量#嘗試減少正則化系數(shù)】17、【判斷題】特征空間越大,過擬合的可能性越大。本題答案:【正確】18、【判斷題】L2正則化得到的解更加稀疏。本題答案:【錯(cuò)誤】19、【判斷題】SMOTE算法是用了上采樣的方法。本題答案:【正確】20、【判斷題】100萬條數(shù)據(jù)劃分訓(xùn)練集、驗(yàn)證集、測試集,數(shù)據(jù)可以這樣劃分:98%,1%,1%。本題答案:【正確】KNN算法課后測驗(yàn)1、【單選題】下列哪個(gè)距離度量不在KNN算法中體現(xiàn):()。本題答案:【余弦相似度】2、【單選題】下列選項(xiàng)中,關(guān)于KNN算法說法不正確是:()。本題答案:【效率很高】3、【單選題】以下距離度量方法中,在城市道路里,要從一個(gè)十字路口開車到另外一個(gè)十字路口的距離是:()。本題答案:【曼哈頓距離】4、【單選題】以下關(guān)于KD樹的說法錯(cuò)誤的是()。本題答案:【所有x值小于指定值的節(jié)點(diǎn)會(huì)出現(xiàn)在右子樹】5、【單選題】利用KD樹進(jìn)行搜索時(shí),正確的方式是()。本題答案:【若數(shù)據(jù)小于對(duì)應(yīng)節(jié)點(diǎn)中k維度的值,則訪問左節(jié)點(diǎn)】6、【單選題】以下哪項(xiàng)是KNN算法的缺點(diǎn)?()本題答案:【計(jì)算成本高】7、【單選題】關(guān)于余弦相似度,不正確的是()。本題答案:【余弦相似度為-1時(shí)候,兩個(gè)向量完全不相關(guān)】8、【單選題】KD樹(K-DimensionTree)的描述中,不正確的是()。本題答案:【KD樹切分時(shí),從方差小的維度開始切分】9、【單選題】假設(shè)有6個(gè)二維數(shù)據(jù)點(diǎn):D={(2,3),(5,7),(9,6),(4,5),(6,4),(7,2)},第一次切分時(shí)候,切分線為()。本題答案:【x=6】10、【單選題】KNN算法在什么情況下效果較好?()本題答案:【樣本較少但典型性好】11、【單選題】關(guān)于KNN算法的描述,不正確的是()。本題答案:【距離度量的方式通常用曼哈頓距離】12、【單選題】兩個(gè)向量的長度分別為1和2,兩者之間的夾角為60度,則以下選項(xiàng)錯(cuò)誤的是()。本題答案:【余弦相似度沒法計(jì)算,因?yàn)闆]給出具體坐標(biāo)值】13、【多選題】影響KNN算法效果的主要因素包括()。本題答案:【K的值#距離度量方式#決策規(guī)則】14、【多選題】以下關(guān)于KNN說法正確的是(多選)()。本題答案:【計(jì)算復(fù)雜度低#對(duì)數(shù)據(jù)沒有假設(shè)#對(duì)異常值不敏感】15、【多選題】閔可夫斯基距離中的p取1或2時(shí)的閔氏距離是最為常用的,以下哪項(xiàng)是正確的:()。本題答案:【p取1時(shí)是曼哈頓距離#p取2時(shí)是歐氏距離#p取無窮時(shí)是切比雪夫距離#閔可夫斯基空間不同于牛頓力學(xué)的平坦空間】16、【多選題】KNN算法的缺點(diǎn)包括以下幾點(diǎn)?()本題答案:【可解釋性差,無法給出決策樹那樣的規(guī)則#對(duì)訓(xùn)練數(shù)據(jù)依賴度特別大,當(dāng)樣本不平衡的時(shí)候,對(duì)少數(shù)類的預(yù)測準(zhǔn)確率低#計(jì)算復(fù)雜性高;空間復(fù)雜性高,尤其是特征數(shù)非常多的時(shí)候】17、【判斷題】兩個(gè)向量的余弦相似度越接近1,說明兩者越相似。本題答案:【正確】18、【判斷題】k近鄰法(k-NearestNeighbor,kNN)是一種比較成熟也是最簡單的機(jī)器學(xué)習(xí)算法,可以用于分類,但不能用于回歸方法。本題答案:【錯(cuò)誤】19、【判斷題】KNN沒有顯示的訓(xùn)練過程,它在訓(xùn)練階段只是把數(shù)據(jù)保存下來,訓(xùn)練時(shí)間開銷為0,等收到測試樣本后進(jìn)行處理。本題答案:【正確】20、【判斷題】KNN分類的時(shí)候,對(duì)新的樣本,根據(jù)其k個(gè)最近鄰的訓(xùn)練樣本的類別,通過多數(shù)表決等方式進(jìn)行預(yù)測。本題答案:【正確】決策樹課后測驗(yàn)1、【單選題】以下關(guān)于決策樹特點(diǎn)分析的說法錯(cuò)誤的有()。本題答案:【算法考慮了數(shù)據(jù)屬性之間的相關(guān)性】2、【單選題】以下關(guān)于決策樹原理介紹錯(cuò)誤的有()。本題答案:【決策樹算法屬于無監(jiān)督學(xué)習(xí)】3、【單選題】我們想要在大數(shù)據(jù)集上訓(xùn)練決策樹模型,為了使用較少的時(shí)間,可以:()。本題答案:【減少樹的深度】4、【單選題】以下關(guān)于決策樹算法說法錯(cuò)誤的是()。本題答案:【C4.5算法不能用于處理不完整數(shù)據(jù)】5、【單選題】以下關(guān)于剪枝操作說法正確的是()。本題答案:【ID3沒有剪枝策略】6、【單選題】C4.5選擇屬性用的是()。本題答案:【信息增益率】7、【單選題】7.哪種決策樹沒有剪枝操作()。本題答案:【ID3】8、【單選題】以下那種說法是錯(cuò)誤的()。本題答案:【中國足球隊(duì)?wèi)?zhàn)勝巴西足球隊(duì)的信息熵要小于中國乒乓球隊(duì)?wèi)?zhàn)勝巴西乒乓球隊(duì)的信息熵】9、【單選題】ID3算法的缺點(diǎn)不包括()。本題答案:【既能用于處理離散分布的特征,也能用于連續(xù)分布的特征處理】10、【單選題】關(guān)于CART算法,錯(cuò)誤的是()。本題答案:【CART算法采用信息增益率的大小來度量特征的各個(gè)劃分點(diǎn)】11、【單選題】關(guān)于C4.5算法,錯(cuò)誤的是()。本題答案:【C4.5算法采用基尼系數(shù)的大小來度量特征的各個(gè)劃分點(diǎn)】12、【單選題】ID3選擇屬性用的是()。本題答案:【信息增益】13、【多選題】決策樹有哪些代表算法()。本題答案:【C4.5#CART#ID3】14、【多選題】以下那種算法需要對(duì)數(shù)據(jù)進(jìn)行歸一化或者標(biāo)準(zhǔn)化()。本題答案:【邏輯回歸#KNN#線性回歸】15、【多選題】關(guān)于剪枝,以下算法正確的是:()。本題答案:【決策樹剪枝的基本策略有預(yù)剪枝和后剪枝#ID3算法沒有剪枝操作#剪枝是防止過擬合的手段】16、【多選題】決策樹的說法正確的是()。本題答案:【它易于理解、可解釋性強(qiáng)#其可作為分類算法,也可用于回歸模型#CART使用的是二叉樹】17、【判斷題】ID3算法的核心思想就是以信息增益來度量特征選擇,選擇信息增益最大的特征進(jìn)行分裂。本題答案:【正確】18、【判斷題】C4.5是通過代價(jià)復(fù)雜度剪枝。本題答案:【錯(cuò)誤】19、【判斷題】ID3算法只能用于處理離散分布的特征。本題答案:【正確】20、【判斷題】ID3和C4.5和CART都只能用于分類問題,不能用于回歸問題。本題答案:【錯(cuò)誤】集成學(xué)習(xí)課后測驗(yàn)1、【單選題】在隨機(jī)森林里,你生成了幾百顆樹(T1,T2…..Tn),然后對(duì)這些樹的結(jié)果進(jìn)行綜合,下面關(guān)于隨機(jī)森林中每顆樹的說法正確的是?()本題答案:【每棵樹是通過數(shù)據(jù)集的子集和特征的子集構(gòu)建的】2、【單選題】以下關(guān)于集成學(xué)習(xí)特性說法錯(cuò)誤的是()。本題答案:【集成多個(gè)線性分類器也無法解決非線性分類問題】3、【單選題】以下關(guān)于隨機(jī)森林(RandomForest)說法正確的是()。本題答案:【隨機(jī)森林學(xué)習(xí)過程分為選擇樣本、選擇特征、構(gòu)建決策樹、投票四個(gè)部分】4、【單選題】以下關(guān)于AdaBoost算法說法正確的是()。本題答案:【AdaBoost使用的損失函數(shù)是指數(shù)函數(shù)】5、【單選題】以下關(guān)于GBDT算法說法錯(cuò)誤的是()。本題答案:【GBDT使用的是放回采樣】6、【單選題】XGBoost算法說法錯(cuò)誤的是()本題答案:【XGBoost算法要求對(duì)數(shù)據(jù)進(jìn)行歸一化或者標(biāo)準(zhǔn)化】7、【單選題】關(guān)于Bagging方法,以下說法錯(cuò)誤的是()本題答案:【對(duì)各弱分類器的訓(xùn)練可以通過串行方式進(jìn)行】8、【單選題】Adboost的優(yōu)點(diǎn)不包括()本題答案:【對(duì)異常點(diǎn)敏感,異常點(diǎn)會(huì)獲得較高權(quán)重】9、【單選題】LightGBM與XGBoost相比,主要的優(yōu)勢(shì)不包括()本題答案:【采用二階泰勒展開加快收斂】10、【單選題】隨機(jī)森林和GBDT的描述不正確的是()本題答案:【兩者都是使用了Boosting思想】11、【單選題】以下那種算法不是集成學(xué)習(xí)算法()本題答案:【決策樹】12、【單選題】GBDT算法的描述,不正確的是()本題答案:【梯度提升算法通過迭代地選擇一個(gè)梯度方向上的基函數(shù)來逐漸逼近局部極小值】13、【多選題】集成學(xué)習(xí)有以下哪幾種代表算法(多選)()。本題答案:【隨機(jī)森林#AdaBoost】14、【多選題】下面關(guān)于隨機(jī)森林和梯度提升集成方法的說法哪個(gè)是正確的?(多選)()本題答案:【這兩種方法都可以用來做分類#兩種方法都可以用來做回歸】15、【多選題】LightGBM與XGBoost相比,主要有以下幾個(gè)改進(jìn):(多選)()本題答案:【基于梯度的單邊采樣算法(Gradient-basedOne-SideSampling,GOSS)#互斥特征捆綁算法(ExclusiveFeatureBundling,EFB)#直方圖算法(Histogram)#基于最大深度的Leaf-wise的垂直生長算法】16、【多選題】GBDT由哪三個(gè)概念組成:()本題答案:【RegressionDecisionTree(即DT)#GradientBoosting(即GB)#Shrinkage(縮減)】17、【判斷題】XGBoost對(duì)損失函數(shù)做了二階泰勒展開,GBDT只用了一階導(dǎo)數(shù)信息,并且XGBoost還支持自定義損失函數(shù),只要損失函數(shù)一階、二階可導(dǎo)。()本題答案:【正確】18、【判斷題】集成學(xué)習(xí)的數(shù)據(jù)不需要?dú)w一化或者標(biāo)準(zhǔn)化。本題答案:【正確】19、【判斷題】LightGBM在建樹過程中,采用基于最大深度的Leaf-wise的垂直生長算法。本題答案:【正確】20、【判斷題】隨機(jī)森林和GBDT都是使用了Bagging思想。本題答案:【錯(cuò)誤】人工神經(jīng)網(wǎng)絡(luò)課后測驗(yàn)1、【單選題】以下關(guān)于感知器說法錯(cuò)誤的是:()。本題答案:【單層感知器可以用于處理非線性學(xué)習(xí)問題】2、【單選題】關(guān)于BP算法特點(diǎn)描述錯(cuò)誤的是()。本題答案:【計(jì)算之前不需要對(duì)訓(xùn)練數(shù)據(jù)進(jìn)行歸一化】3、【單選題】關(guān)于BP算法優(yōu)缺點(diǎn)的說法錯(cuò)誤的是()。本題答案:【BP算法不能用于處理非線性分類問題】4、【單選題】關(guān)于BP算法信號(hào)前向傳播的說法正確的是()。本題答案:【C.BP算法在計(jì)算正向傳播輸出值時(shí)需要考慮激活函數(shù)】5、【單選題】以下關(guān)于Sigmoid的特點(diǎn)說法錯(cuò)誤的是()。本題答案:【Sigmoid函數(shù)計(jì)算量小】6、【單選題】關(guān)于BP算法反向傳播的說法正確的是()。本題答案:【BP算法反向傳播進(jìn)行更新時(shí)一般用到微積分的鏈?zhǔn)絺鞑シ▌t】7、【單選題】以下關(guān)于學(xué)習(xí)率說法錯(cuò)誤的是()。本題答案:【學(xué)習(xí)率必須是固定不變的】8、【單選題】BP算法總結(jié)錯(cuò)誤的是()。本題答案:【隱層的閾值梯度只跟本層的神經(jīng)元輸出值有關(guān)】9、【單選題】為避免BP算法在迭代過程中出現(xiàn)局部極小值的問題,那么采取以下哪種方法可行()。本題答案:【在每一輪迭代中都賦予一定的概率接受次優(yōu)解,但是概率隨迭代不斷降低】10、【單選題】Minsky在上世紀(jì)60年代末指出了神經(jīng)網(wǎng)絡(luò)算法的哪種缺點(diǎn),使得神經(jīng)網(wǎng)絡(luò)算法陷入低潮()。本題答案:【早期的神經(jīng)網(wǎng)絡(luò)算法無法處理非線性學(xué)習(xí)問題】11、【單選題】神經(jīng)網(wǎng)絡(luò)算法有時(shí)會(huì)出現(xiàn)過擬合的情況,那么采取以下哪些方法解決過擬合更為可行()。本題答案:【設(shè)置一個(gè)正則項(xiàng)減小模型的復(fù)雜度】12、【單選題】以下關(guān)于極限學(xué)習(xí)機(jī)(ELM)說法錯(cuò)誤的是()。本題答案:【ELM有多個(gè)隱藏層】13、【多選題】隱藏層中常用的激活函數(shù)有(多選)()。本題答案:【Sigmoid#Tanh#ReLU】14、【多選題】一般的多層感知器包含幾種類型層次的神經(jīng)元()。本題答案:【輸入層#輸出層#隱藏層】15、【多選題】關(guān)于BP算法優(yōu)點(diǎn)說法正確的是()。本題答案:【BP算法能夠自適應(yīng)學(xué)習(xí)#BP算法有很強(qiáng)的非線性映射能力#BP算法反向傳播采用鏈?zhǔn)椒▌t,推導(dǎo)過程嚴(yán)謹(jǐn)】16、【多選題】關(guān)于BP算法缺點(diǎn)的說法正確的是()。本題答案:【BP算法更新沒有明確的公式,需要不斷試湊,才能決定隱層節(jié)點(diǎn)數(shù)量#BP算法涉及參數(shù)數(shù)量很多,因此更新速度慢#BP算法很容易陷入局部極小值問題】17、【判斷題】BP算法“喜新厭舊”,在學(xué)習(xí)新樣本后,會(huì)把舊樣本逐漸遺忘。本題答案:【正確】18、【判斷題】BP算法的反向傳播是為了對(duì)權(quán)值進(jìn)行調(diào)整。本題答案:【正確】19、【判斷題】BP算法的正向傳播是為獲取訓(xùn)練誤差。本題答案:【正確】20、【判斷題】BP算法陷入局部極小值的問題可通過更換激活函數(shù)解決。本題答案:【錯(cuò)誤】支持向量機(jī)課后測驗(yàn)1、【單選題】對(duì)于在原空間中線性不可分問題,支持向量機(jī)()。本題答案:【將數(shù)據(jù)映射到核空間中】2、【單選題】關(guān)于支持向量機(jī)中硬間隔和軟間隔的說法錯(cuò)誤的是()。本題答案:【硬間隔有利于消除模型的過擬合】3、【單選題】關(guān)于各類核函數(shù)的優(yōu)缺點(diǎn)說法錯(cuò)誤的是:()。本題答案:【高斯核計(jì)算簡單,不容易過擬合】4、【單選題】如果一個(gè)樣本空間線性可分,那么,我們能找到()個(gè)平面來劃分樣本。本題答案:【無數(shù)】5、【單選題】SVM算法的最小時(shí)間復(fù)雜度是O(n^2)?;谶@一點(diǎn),以下哪種規(guī)格的數(shù)據(jù)集并不適用于該算法?()本題答案:【大數(shù)據(jù)集】6、【單選題】線性SVM和一般線性分類器的區(qū)別主要是:()。本題答案:【是否確保間隔最大化】7、【單選題】在SVM中,margin的含義是()本題答案:【間隔】8、【單選題】SVM算法的性能取決于:()本題答案:【以上所有】9、【單選題】SVM中的代價(jià)參數(shù)C表示什么?本題答案:【在分類準(zhǔn)確性和模型復(fù)雜度之間的權(quán)衡】10、【單選題】一個(gè)正例(2,3),一個(gè)負(fù)例(0,-1),下面哪個(gè)是SVM超平面?()本題答案:【x+2y-3=0】11、【單選題】SVM原理描述不正確的是()。本題答案:【SVM的基本模型是在特征空間中尋找間隔最小化的分離超平面的線性分類器】12、【單選題】SVM普遍使用的準(zhǔn)則描述不正確的是:()(n為特征數(shù),m為訓(xùn)練樣本數(shù)。)本題答案:【支持向量機(jī)理論上不能處理太多的特征?!?3、【多選題】以下關(guān)于支持向量機(jī)的說法正確的是()。本題答案:【SVM方法簡單,魯棒性較好#SVM分類面取決于支持向量】14、【多選題】支持向量機(jī)有哪些常用的核函數(shù)()。本題答案:【高斯核#線性核#多項(xiàng)式核】15、【多選題】下面關(guān)于支持向量機(jī)的描述正確的是()。本題答案:【是一種監(jiān)督學(xué)習(xí)的方法#可用于多分類的問題#支持非線性的核函數(shù)】16、【多選題】關(guān)于SVM的描述正確的是:()本題答案:【支持向量機(jī)模型定義在特征空間上的間隔最大的線性分類器#支持向量機(jī)可以通過核技巧,這使之成為實(shí)質(zhì)上的非線性分類器#支持向量機(jī)的學(xué)習(xí)策略就是間隔最大化】17、【判斷題】SVM是這樣一個(gè)分類器,他尋找具有最小邊緣的超平面,因此它也經(jīng)常被稱為最小間隔分類器(minimalmarginclassifier)。本題答案:【錯(cuò)誤】18、【判斷題】SVM的數(shù)據(jù)需要?dú)w一化或者標(biāo)準(zhǔn)化。本題答案:【正確】19、【判斷題】支持向量是最靠近決策表面的數(shù)據(jù)點(diǎn)。本題答案:【正確】20、【判斷題】SVM中核函數(shù)將高維空間中的數(shù)據(jù)映射到低維空間。本題答案:【錯(cuò)誤】聚類課后測驗(yàn)1、【單選題】1聚類屬于哪種學(xué)習(xí)方式()。本題答案:【無監(jiān)督學(xué)習(xí)】2、【單選題】下列關(guān)于Kmeans聚類算法的說法錯(cuò)誤的是()。本題答案:【初始聚類中心的選擇對(duì)聚類結(jié)果影響不大】3、【單選題】以下關(guān)于K-means算法錯(cuò)誤的有()。本題答案:【K-means算法不會(huì)出現(xiàn)局部極小值的問題】4、【單選題】以下不屬于聚類算法的是()。本題答案:【Apriori】5、【單選題】簡單地將數(shù)據(jù)對(duì)象集劃分成不重疊的子集,使得每個(gè)數(shù)據(jù)對(duì)象恰在一個(gè)子集中,這種聚類類型稱作()。本題答案:【劃分聚類】6、【單選題】關(guān)于K均值和DBSCAN的比較,以下說法不正確的是()。本題答案:【K均值使用簇的基于層次的概念】7、【單選題】關(guān)于聚類的說法正確的有()本題答案:【聚類的算法訓(xùn)練樣本往往都不含有標(biāo)簽】8、【單選題】關(guān)于kmean算法的實(shí)現(xiàn)描述錯(cuò)誤的是()本題答案:【可以輕松發(fā)現(xiàn)非凸形狀的簇】9、【單選題】以下哪些不是聚類中用于衡量度量距離的指標(biāo)()。本題答案:【馬氏距離】10、【單選題】以下哪些可作為kmeans方法停止循環(huán)的指標(biāo)()。本題答案:【當(dāng)所有數(shù)據(jù)隸屬的簇不再發(fā)生變化的時(shí)候】11、【單選題】關(guān)于密度聚類和層次聚類說法錯(cuò)誤的是()。本題答案:【密度聚類對(duì)噪聲數(shù)據(jù)非常敏感】12、【單選題】當(dāng)簇內(nèi)樣本點(diǎn)數(shù)量大于某個(gè)閾值時(shí),便將該簇進(jìn)行拆分,這種聚類方式為()。本題答案:【密度聚類】13、【多選題】13聚類的代表算法有()。本題答案:【DBSCAN#K-means】14、【多選題】下面哪些是聚類的評(píng)價(jià)指標(biāo)()。本題答案:【均一性#完整性#輪廓系數(shù)】15、【多選題】關(guān)于層次聚類,正確的是()。本題答案:【分裂聚類是從上而下進(jìn)行聚類#聚合聚類是從下而上進(jìn)行聚類#層次聚類又有聚合聚類(自下而上)、分裂聚類(自上而下)兩種方法#因?yàn)槊總€(gè)樣本只屬于一個(gè)簇,所以層次聚類屬于硬聚類】16、【多選題】關(guān)于DBSCAN算法,以下說法正確的是()。本題答案:【DBSCAN算法將點(diǎn)分成核心點(diǎn)、邊界點(diǎn)和噪音點(diǎn)三類#DBSCAN算法是一種基于密度的聚類算法】17、【判斷題】如果一個(gè)對(duì)象不強(qiáng)屬于任何簇,那么該對(duì)象是基于聚類的離群點(diǎn)。本題答案:【正確】18、【判斷題】K均值是一種產(chǎn)生劃分聚類的基于密度的聚類算法,簇的個(gè)數(shù)由算法自動(dòng)地確定。本題答案:【錯(cuò)誤】19、【判斷題】在聚類分析當(dāng)中,簇內(nèi)的相似性越大,簇間的差別越大,聚類的效果就越差。本題答案:【錯(cuò)誤】20、【判斷題】DBSCAN是相對(duì)抗噪聲的,并且能夠處理任意形狀和大小的簇。本題答案:【正確】降維課后測驗(yàn)1、【單選題】以下關(guān)于降維的說法不正確的是?本題答案:【降維不會(huì)對(duì)數(shù)據(jù)產(chǎn)生損傷】2、【單選題】降維屬于哪種類型的學(xué)習(xí)問題()。本題答案:【無監(jiān)督學(xué)習(xí)】3、【單選題】以下關(guān)于SVD說法正確的有()。本題答案:【SVD并不要求分解矩陣必須是方陣】4、【單選題】以下關(guān)于PCA說法正確的是()。本題答案:【PCA轉(zhuǎn)換后選擇的第一個(gè)方向是最主要特征】5、【單選題】以下哪些是PCA算法的主要應(yīng)用()。本題答案:【數(shù)據(jù)壓縮】6、【單選題】關(guān)于PCA特點(diǎn)說法錯(cuò)誤的是()。本題答案:【PCA算法很難去除噪聲】7、【單選題】關(guān)于PCA和SVD比較錯(cuò)誤的是()。本題答案:【PCA無需進(jìn)行零均值化】8、【單選題】關(guān)于維數(shù)災(zāi)難的說法錯(cuò)誤的是()。本題答案:【高維度數(shù)據(jù)可使得算法泛化能力變得越來越強(qiáng)】9、【單選題】降維涉及的投影矩陣一般要求正交,正交矩陣用于投影的優(yōu)缺點(diǎn)說法正確的是()。本題答案:【正交矩陣投影變換之后的矩陣不同坐標(biāo)之間是不相關(guān)的】10、【單選題】哪些類型的數(shù)據(jù)適合做降維()。本題答案:【特征之間存在線性關(guān)系的數(shù)據(jù)】11、【單選題】幾種常見的降維算法有共同特點(diǎn)有()。本題答案:【都利用了矩陣分解的思想】12、【單選題】以下關(guān)于SVD的優(yōu)化過程說法錯(cuò)誤的是()。本題答案:【奇異值跟特征值性質(zhì)完全不同】13、【多選題】降維的優(yōu)點(diǎn)有哪些()。本題答案:【減小訓(xùn)練時(shí)間#方便實(shí)現(xiàn)數(shù)據(jù)可視化#方便消除冗余特征】14、【多選題】下面屬于降維常用的技術(shù)的有:()。本題答案:【主成分分析#奇異值分解】15、【多選題

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論