智慧樹(shù)機(jī)器學(xué)習(xí)(山東聯(lián)盟)章節(jié)測(cè)驗(yàn)答案_第1頁(yè)
智慧樹(shù)機(jī)器學(xué)習(xí)(山東聯(lián)盟)章節(jié)測(cè)驗(yàn)答案_第2頁(yè)
智慧樹(shù)機(jī)器學(xué)習(xí)(山東聯(lián)盟)章節(jié)測(cè)驗(yàn)答案_第3頁(yè)
智慧樹(shù)機(jī)器學(xué)習(xí)(山東聯(lián)盟)章節(jié)測(cè)驗(yàn)答案_第4頁(yè)
智慧樹(shù)機(jī)器學(xué)習(xí)(山東聯(lián)盟)章節(jié)測(cè)驗(yàn)答案_第5頁(yè)
已閱讀5頁(yè),還剩20頁(yè)未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

青春須早為,豈能長(zhǎng)少年。?解憂書(shū)店,嚴(yán)禁轉(zhuǎn)載,違者必究!25/25機(jī)器學(xué)習(xí)(山東聯(lián)盟)解憂書(shū)店JieYouBookshop第一章單元測(cè)試1【單選題】(5分)對(duì)西瓜的成熟度進(jìn)行預(yù)測(cè)得到結(jié)果為0.51,這屬于()學(xué)習(xí)任務(wù)。A.其余選項(xiàng)都不是B.聚類(lèi)C.回歸D.分類(lèi)2【單選題】(5分)在學(xué)習(xí)過(guò)程中,X表示數(shù)據(jù)集,Y是所有標(biāo)記的集合,也稱(chēng)為()。A.樣本集合B.屬性集合C.輸出空間D.函數(shù)3【單選題】(5分)機(jī)器學(xué)習(xí)算法在學(xué)習(xí)過(guò)程中可能獲得多個(gè)不同的模型,在解決“什么樣的模型更好”這一問(wèn)題時(shí)遵循“若有多個(gè)假設(shè)與觀察一致,則選最簡(jiǎn)單的那個(gè)”,即()原則。A.奧卡姆剃刀B.沒(méi)有免費(fèi)的午餐C.迪米特法則D.里氏替換4【單選題】(5分)機(jī)器學(xué)習(xí)是整個(gè)人工智能的核心,機(jī)器學(xué)習(xí)算法的特征之一就是()。A.類(lèi)別B.模型C.特征D.數(shù)據(jù)5【單選題】(5分)模型的泛化能力是指A.適用于訓(xùn)練集樣本的能力B.適用于測(cè)試集樣本的能力C.適用于新樣本的能力D.適用于驗(yàn)證集樣本的能力6【多選題】(5分)下列關(guān)于學(xué)習(xí)算法的說(shuō)法正確的是A.在某些問(wèn)題上表現(xiàn)好的學(xué)習(xí)算法,在另一些問(wèn)題上卻可能不盡人意B.學(xué)習(xí)算法自身的歸納偏好與問(wèn)題是否相配通常并不起決定性的作用C.學(xué)習(xí)算法必須有某種偏好,才能產(chǎn)出它認(rèn)為“正確”的模型D.要談?wù)撍惴ǖ南鄬?duì)優(yōu)劣,必須要針對(duì)具體的學(xué)習(xí)問(wèn)題7【多選題】(5分)獲得假設(shè)(模型)空間時(shí),從特殊到一般的過(guò)程屬于A.泛化B.歸納C.特化D.演繹8【多選題】(5分)機(jī)器學(xué)習(xí)可以應(yīng)用在下列哪些領(lǐng)域()A.搜索引擎B.天氣預(yù)報(bào)C.商業(yè)營(yíng)銷(xiāo)D.自動(dòng)駕駛汽車(chē)9【多選題】(5分)根據(jù)訓(xùn)練數(shù)據(jù)是否擁有標(biāo)記信息,學(xué)習(xí)任務(wù)可以分為()。A.分類(lèi)B.聚類(lèi)C.無(wú)監(jiān)督D.回歸E.半監(jiān)督F.監(jiān)督10【判斷題】(5分)演繹是從一般到特殊的"特化"過(guò)程,即從基礎(chǔ)原理推演出具體狀況A.對(duì)B.錯(cuò)11【判斷題】(5分)分類(lèi)預(yù)測(cè)的是離散值A(chǔ).錯(cuò)B.對(duì)12【判斷題】(5分)分類(lèi)和回歸是無(wú)監(jiān)督學(xué)習(xí)A.對(duì)B.錯(cuò)13【判斷題】(5分)奧卡姆剃刀原則:即“若有多個(gè)假設(shè)與觀察一致,選最簡(jiǎn)單的一個(gè)”。A.錯(cuò)B.對(duì)14【判斷題】(5分)實(shí)際應(yīng)用中,“一個(gè)模型肯定比另一個(gè)模型具有更強(qiáng)的泛化能力”的這種情況是不存在的。A.對(duì)B.錯(cuò)15【判斷題】(5分)機(jī)器學(xué)習(xí)的目標(biāo)就是獲得與訓(xùn)練集一致的假設(shè)。A.錯(cuò)B.對(duì)第二章單元測(cè)試1【判斷題】(5分)測(cè)試性能隨著測(cè)試集的變化而變化A.對(duì)B.錯(cuò)2【單選題】(5分)以下關(guān)于回歸的說(shuō)法中,不正確的是()。A.回歸是一種預(yù)測(cè)建模任務(wù)B.回歸也是一種分類(lèi)C.回歸的目標(biāo)屬性是離散的D.回歸是根據(jù)歷史數(shù)據(jù)擬合以函數(shù)將屬性集映射到相應(yīng)的值集3【單選題】(5分)下列關(guān)于查全率和查準(zhǔn)率的說(shuō)法哪種正確()。A.查全率和查準(zhǔn)率存在著互逆關(guān)系B.查全率和查準(zhǔn)率成正比C.好的模型可以做到查全率和查準(zhǔn)率都達(dá)到100%D.查全率和查準(zhǔn)率成反比4【單選題】(5分)關(guān)于性能比較和模型選擇,下列說(shuō)法正確的是()。A.相同的參數(shù)的機(jī)器學(xué)習(xí)算法在同一測(cè)試集下多次運(yùn)行結(jié)果相同B.模型的選擇可以使用直接選取相應(yīng)評(píng)估方法在相應(yīng)度量下比較大小的方法C.測(cè)試性能隨著測(cè)試集的變化而變化D.測(cè)試性能等于網(wǎng)絡(luò)的泛化性能5【單選題】(5分)模型的評(píng)估方法不包括()。A.留出法B.計(jì)分法C.交叉驗(yàn)證法D.自助法6【單選題】(5分)模型評(píng)估方法中留出法的缺點(diǎn)是()。A.改變了初始數(shù)據(jù)集的分布,引入估計(jì)偏差B.樣本利用率低C.在數(shù)據(jù)集比較大的時(shí)候,訓(xùn)練M個(gè)模型的計(jì)算開(kāi)銷(xiāo)可能是難以忍受的D.只能得到一個(gè)評(píng)估值。7【多選題】(5分)選擇模型的依據(jù)包括()。A.泛化性能B.時(shí)間開(kāi)銷(xiāo)C.可解釋性D.存儲(chǔ)開(kāi)銷(xiāo)8【多選題】(5分)以下哪些方法可以用于單個(gè)學(xué)習(xí)器性能的比較()。A.McNemar檢驗(yàn)B.二項(xiàng)檢驗(yàn)C.t-檢驗(yàn)D.Friedman檢驗(yàn)9【多選題】(5分)模型的泛化性能由()決定。A.學(xué)習(xí)任務(wù)本身的難度B.數(shù)據(jù)的充分性C.學(xué)習(xí)算法的能力D.數(shù)據(jù)集的劃分10【多選題】(5分)解決過(guò)擬合的方案包括()。A.引入正則項(xiàng)B.增加模型參數(shù),調(diào)高模型復(fù)雜度C.為模型添加其他特征項(xiàng)D.選擇合適的迭代次數(shù)停止模型的學(xué)習(xí)11【多選題】(5分)以下哪些是可能導(dǎo)致模型過(guò)擬合的原因()A.訓(xùn)練集和測(cè)試集特征分布不一致B.學(xué)習(xí)迭代次數(shù)過(guò)多C.訓(xùn)練集數(shù)量級(jí)和模型復(fù)雜度不匹配,訓(xùn)練集的數(shù)量級(jí)小于模型的復(fù)雜度D.模型學(xué)習(xí)到了樣本的一般性質(zhì)12【判斷題】(5分)過(guò)擬合不可以徹底避免。A.錯(cuò)B.對(duì)13【判斷題】(5分)回歸任務(wù)最常用的性能度量是“查準(zhǔn)率和查全率”A.錯(cuò)B.對(duì)14【判斷題】(5分)訓(xùn)練數(shù)據(jù)較少時(shí)更容易發(fā)生欠擬合A.錯(cuò)B.對(duì)15【判斷題】(5分)方差度量了學(xué)習(xí)算法期望預(yù)測(cè)與真實(shí)結(jié)果的偏離程度A.錯(cuò)B.對(duì)第三章單元測(cè)試1【單選題】(5分)線性回歸目的是學(xué)得一個(gè)()以盡可能準(zhǔn)確地預(yù)測(cè)實(shí)值輸出標(biāo)記A.多項(xiàng)式模型B.線性模型C.指數(shù)模型D.對(duì)數(shù)模型2【單選題】(5分)線性回歸模型中,聯(lián)系函數(shù)g(?)為對(duì)數(shù)幾率函數(shù)ln(y/(1-y))時(shí),該線性模型成為()A.指數(shù)線性回歸B.對(duì)數(shù)幾率回歸C.曲線線性回歸D.對(duì)數(shù)線性回歸3【單選題】(5分)線性判別分析可通過(guò)該投影減小樣本點(diǎn)的維數(shù),且投影過(guò)程中使用了類(lèi)別信息。因此,線性判別分析也常被視為一種經(jīng)典的()A.監(jiān)督降維技術(shù)B.分類(lèi)技術(shù)C.監(jiān)督分類(lèi)技術(shù)D.降維技術(shù)4【多選題】(5分)解決類(lèi)別不平衡的方法包括()A.過(guò)采樣B.閾值移動(dòng)C.去除正例樣本D.欠采樣5【判斷題】(5分)在線性模型的基礎(chǔ)上,引入層級(jí)結(jié)構(gòu)或高維映射,構(gòu)成非線性模型。因此,非線性模型可以轉(zhuǎn)換為線性模型。A.對(duì)B.錯(cuò)6【判斷題】(5分)線性判別分析(LDA)設(shè)法將樣例投影到一條直線上,使得同類(lèi)樣例的投影點(diǎn)盡可能接近A.錯(cuò)B.對(duì)7【判斷題】(5分)分類(lèi)學(xué)習(xí)任務(wù)中,若不同類(lèi)別的訓(xùn)練樣本數(shù)目差別很大時(shí),對(duì)學(xué)習(xí)過(guò)程沒(méi)有明顯影響A.錯(cuò)B.對(duì)8【判斷題】(5分)線性模型學(xué)得的參數(shù)ω直觀地表達(dá)了各屬性在預(yù)測(cè)中的重要性,因此,該模型具有較好的可解釋性。A.對(duì)B.錯(cuò)9【判斷題】(5分)線性判別分析在對(duì)新樣例進(jìn)行分類(lèi)時(shí),將其投影到曲線上,再根據(jù)投影點(diǎn)的位置來(lái)確定新樣本的類(lèi)別。A.對(duì)B.錯(cuò)10【判斷題】(5分)基于均方誤差最小化來(lái)進(jìn)行模型求解的方法,稱(chēng)為“最小二乘法”。A.對(duì)B.錯(cuò)11【判斷題】(5分)線性判別分析模型中,同類(lèi)樣本的投影點(diǎn)盡可能近,即同類(lèi)樣本的協(xié)方差盡可能小A.錯(cuò)B.對(duì)12【判斷題】(5分)在分類(lèi)學(xué)習(xí)任務(wù)中,可以增加一些正例解決類(lèi)別不平衡問(wèn)題A.對(duì)B.錯(cuò)13【判斷題】(5分)線性回歸目的是學(xué)得多項(xiàng)式模型以盡可能準(zhǔn)確地預(yù)測(cè)實(shí)值輸出標(biāo)記。A.錯(cuò)B.對(duì)14【判斷題】(5分)單一屬性的線性回歸目標(biāo)函數(shù)為f(x)=ωx+b使得min(f(x)–y)2A.錯(cuò)B.對(duì)15【判斷題】(5分)常用的廣義線性回歸有單位躍階函數(shù)、對(duì)數(shù)線性回歸、對(duì)數(shù)幾率回歸A.對(duì)B.錯(cuò)第四章單元測(cè)試1【單選題】(5分)在屬性劃分中,信息增益越大,結(jié)點(diǎn)的純度()A.不變B.降低越快C.變?yōu)榱鉊.提升越大2【單選題】(5分)決策樹(shù)算法的泛化性能提升,則驗(yàn)證集精度()A.降低B.不變C.提高D.降為零3【單選題】(5分)多變量決策樹(shù)中的非葉子節(jié)點(diǎn)是對(duì)()屬性的線性組合進(jìn)行測(cè)試。A.所有B.零個(gè)C.若干個(gè)D.一個(gè)4【多選題】(5分)決策樹(shù)的結(jié)點(diǎn)包含()A.結(jié)點(diǎn)B.內(nèi)部結(jié)點(diǎn)C.根結(jié)點(diǎn)D.葉結(jié)點(diǎn)5【判斷題】(5分)決策樹(shù)學(xué)習(xí)算法中,預(yù)留一部分?jǐn)?shù)據(jù)用作“驗(yàn)證集”,進(jìn)行性能評(píng)估,決定是否剪枝。A.對(duì)B.錯(cuò)6【判斷題】(5分)決策樹(shù)模型中,隨著劃分過(guò)程不斷進(jìn)行,我們希望結(jié)點(diǎn)的“純度”越來(lái)越小。A.對(duì)B.錯(cuò)7【判斷題】(5分)決策樹(shù)學(xué)習(xí)的目的是為了產(chǎn)生一棵泛化能力強(qiáng),即處理未見(jiàn)示例能力強(qiáng)的決策樹(shù)A.對(duì)B.錯(cuò)8【判斷題】(5分)決策樹(shù)學(xué)習(xí)算法中,屬性a的信息增益越大,則使用該屬性進(jìn)行劃分所獲得的“純度提升”越大。A.對(duì)B.錯(cuò)9【判斷題】(5分)決策樹(shù)學(xué)習(xí)算法中,隨著劃分過(guò)程不斷進(jìn)行,我們希望決策樹(shù)的分支結(jié)點(diǎn)所包含的樣本盡可能屬于不同類(lèi)別。A.對(duì)B.錯(cuò)10【判斷題】(5分)基尼指數(shù),反映了從D中隨機(jī)抽取兩個(gè)樣本,其類(lèi)別標(biāo)記一致的概率A.錯(cuò)B.對(duì)11【判斷題】(5分)預(yù)剪枝策略降低了過(guò)擬合風(fēng)險(xiǎn)。A.錯(cuò)B.對(duì)12【判斷題】(5分)基尼值可以度量樣本集合的純度。A.對(duì)B.錯(cuò)13【判斷題】(5分)現(xiàn)實(shí)學(xué)習(xí)任務(wù)中,常會(huì)遇到連續(xù)屬性,其可取值數(shù)目不再有限,可以使用離散化技術(shù)將連續(xù)屬性轉(zhuǎn)化為離散屬性A.錯(cuò)B.對(duì)14【判斷題】(5分)剪枝策略是對(duì)付“過(guò)擬合”的主要手段,即可通過(guò)主動(dòng)去掉一些分支來(lái)降低過(guò)擬合的風(fēng)險(xiǎn)。A.對(duì)B.錯(cuò)第五章單元測(cè)試1【判斷題】(10分)若兩類(lèi)模式是線性可分的,即存在一個(gè)線性超平面能將它們分開(kāi),則感知機(jī)的學(xué)習(xí)過(guò)程一定會(huì)收斂。A.對(duì)B.錯(cuò)2【判斷題】(10分)多隱層感知機(jī)比單隱層感知機(jī)的表達(dá)能力強(qiáng)A.對(duì)B.錯(cuò)3【判斷題】(10分)誤差逆?zhèn)鞑ニ惴ㄊ瞧褡畛晒Φ纳窠?jīng)網(wǎng)絡(luò)學(xué)習(xí)算法。A.對(duì)B.錯(cuò)4【判斷題】(10分)基于梯度的搜索是使用最廣泛的參數(shù)尋優(yōu)方法,若誤差函數(shù)在當(dāng)前點(diǎn)的梯度為零,則已達(dá)到全局最小。A.錯(cuò)B.對(duì)5【單選題】(10分)多層感知機(jī)表示異或邏輯時(shí)最少需要()個(gè)隱含層(僅考慮二元輸入)A.2B.4C.3D.16【單選題】(10分)BP算法基于()策略對(duì)參數(shù)進(jìn)行調(diào)整A.梯度上升B.梯度下降C.最小化誤差D.誤差逆?zhèn)鞑?【單選題】(10分)BP神經(jīng)網(wǎng)絡(luò)由于其強(qiáng)大的表示能力,經(jīng)常遭遇()問(wèn)題,即訓(xùn)練誤差持續(xù)下降,但測(cè)試誤差卻可能上升。A.過(guò)擬合B.不收斂C.梯度消失D.欠擬合8【多選題】(10分)在現(xiàn)實(shí)任務(wù)中,人們常采用以下策略來(lái)試圖跳出局部極小,進(jìn)而接近全局最小A.梯度下降B.模擬退火C.遺傳算法D.隨機(jī)梯度下降9【判斷題】(10分)神經(jīng)網(wǎng)絡(luò)中的激活函數(shù)可以采用線性函數(shù)A.錯(cuò)B.對(duì)10【判斷題】(10分)只擁有一層功能神經(jīng)元(能進(jìn)行激活函數(shù)處理)的感知機(jī)學(xué)習(xí)能力依然很強(qiáng),能解決異或這樣的非線性可分問(wèn)題。A.錯(cuò)B.對(duì)第六章單元測(cè)試1【單選題】(10分)線性可分支持向量機(jī)是一種()模型A.多分類(lèi)B.線性回歸C.二分類(lèi)D.邏輯回歸2【單選題】(10分)支持向量機(jī)的學(xué)習(xí)策略是()A.訓(xùn)練誤差最小B.間隔最小C.間隔最大D.測(cè)試誤差最小3【單選題】(10分)支持向量機(jī)的求解通常采用()來(lái)求解A.最大間隔法B.最小誤差法C.線性規(guī)劃算法D.二次規(guī)劃算法4【多選題】(10分)當(dāng)訓(xùn)練樣本線性不可分時(shí)可采用()來(lái)緩解和解決A.軟間隔B.核函數(shù)C.測(cè)試誤差最小D.訓(xùn)練誤差最小5【判斷題】(10分)為了更好地解決線性不可分問(wèn)題,我們常常需要擴(kuò)大可選函數(shù)的范圍。A.錯(cuò)B.對(duì)6【判斷題】(10分)支持向量機(jī)的經(jīng)驗(yàn)風(fēng)險(xiǎn)描述了模型的某些性質(zhì)A.對(duì)B.錯(cuò)7【判斷題】(10分)在空間上線性可分的兩類(lèi)點(diǎn),分別向SVM分類(lèi)的超平面上做投影,這些點(diǎn)在超平面上的投影仍然是線性可分的A.對(duì)B.錯(cuò)8【判斷題】(10分)引入軟間隔是為了允許支持向量機(jī)在一些樣本上出錯(cuò)。A.對(duì)B.錯(cuò)9【判斷題】(10分)核函數(shù)的引入是將原始空間中不可分的訓(xùn)練樣本映射到高維的特征空間后變得可分。A.對(duì)B.錯(cuò)10【判斷題】(10分)訓(xùn)練樣本集越大,SVM的分類(lèi)結(jié)果越好A.對(duì)B.錯(cuò)第七章單元測(cè)試1【判斷題】(10分)在樣本X上的條件風(fēng)險(xiǎn)是指將一個(gè)真實(shí)標(biāo)記為Cj的樣本x分類(lèi)為ci所產(chǎn)生的期望損失。A.對(duì)B.錯(cuò)2【判斷題】(10分)極大似然估計(jì)是試圖在θc所有可能的取值中,找到一個(gè)能使數(shù)據(jù)出現(xiàn)的“可能性”的最大的值。A.錯(cuò)B.對(duì)3【判斷題】(10分)拉普拉斯修正沒(méi)能避免因訓(xùn)練集樣本不充分而導(dǎo)致概率估值為0的問(wèn)題。A.對(duì)B.錯(cuò)4【判斷題】(10分)貝葉斯網(wǎng)學(xué)習(xí)的首要任務(wù)就是通過(guò)對(duì)訓(xùn)練樣本“計(jì)數(shù)”,估計(jì)出每個(gè)結(jié)點(diǎn)的條件概率表。A.對(duì)B.錯(cuò)5【判斷題】(10分)通過(guò)已知變量觀測(cè)值來(lái)推測(cè)待推測(cè)查詢變量的過(guò)程稱(chēng)為“推斷”A.錯(cuò)B.對(duì)6【判斷題】(10分)貝葉斯網(wǎng)的近似推斷常使用吉布斯采樣(Gibbssampling)來(lái)完成,吉布斯采樣可以看做,每一步僅依賴于前一步的狀態(tài),這是一個(gè)“馬爾可夫鏈”。A.錯(cuò)B.對(duì)7【單選題】(10分)對(duì)分類(lèi)任務(wù)來(lái)說(shuō),在所有相關(guān)概率都已知的理想情況下,()考慮如何基于這些概率和誤判損失來(lái)選擇最優(yōu)的類(lèi)別標(biāo)記。A.貝葉斯決策論B.支持向量機(jī)C.決策樹(shù)D.聚類(lèi)8【單選題】(10分)樸素貝葉斯分類(lèi)器假設(shè)所有屬性相互獨(dú)立,其訓(xùn)練過(guò)程就成了基于訓(xùn)練集D來(lái)估計(jì)類(lèi)先驗(yàn)概率P(c),并估計(jì)()。A.概率P(x)B.條件概率P(x|c)C.每個(gè)屬性的條件概率P(xi|c)9【單選題】(10分)為了適當(dāng)考慮一部分屬性間的相互依賴信息,從而不需要進(jìn)行完全聯(lián)合概率計(jì)算,又不至于徹底忽略了比較強(qiáng)的熟悉依賴關(guān)系,這種分類(lèi)器是()。A.貝葉斯網(wǎng)B.EM算法C.半樸素貝葉斯分類(lèi)器D.樸素貝葉斯分類(lèi)器10【單選題】(10分)一個(gè)貝葉斯網(wǎng)由結(jié)構(gòu)和參數(shù)兩部分組成,結(jié)構(gòu)是一個(gè)(),每個(gè)節(jié)點(diǎn)對(duì)應(yīng)個(gè)屬性,若兩屬性有直接依賴關(guān)系,則它們由一條邊連接起來(lái),參數(shù)定量描述這種依賴關(guān)系。A.有向無(wú)環(huán)圖B.無(wú)向無(wú)環(huán)圖C.有向圖D.無(wú)向圖第八章單元測(cè)試1【判斷題】(10分)Boosting,個(gè)體學(xué)習(xí)器存在強(qiáng)依賴關(guān)系,逐個(gè)生成基學(xué)習(xí)器,每次調(diào)整訓(xùn)練數(shù)據(jù)的樣本分布A.對(duì)B.錯(cuò)2【判斷題】(10分)加權(quán)平均法的權(quán)重,一般是從訓(xùn)練數(shù)據(jù)中學(xué)習(xí)而得,規(guī)模比較大的集成,要學(xué)習(xí)的權(quán)重比較多,較容易導(dǎo)致欠擬合。A.對(duì)B.錯(cuò)3【判斷題】(10分)分歧代表了個(gè)體學(xué)習(xí)器在樣本x上的不一致性。A.對(duì)B.錯(cuò)4【單選題】(10分)假設(shè)集成通過(guò)()結(jié)合T個(gè)分類(lèi)器,若有超過(guò)半數(shù)的基分類(lèi)器正確則分類(lèi)就正確。A.簡(jiǎn)單投票法B.加權(quán)投票法C.簡(jiǎn)單平均法D.學(xué)習(xí)法5【單選題】(10分)Boosting算法關(guān)注降低偏差,可對(duì)泛化性能()的學(xué)習(xí)器,構(gòu)造出很()的集成。A.相對(duì)弱,弱B.相對(duì)弱,強(qiáng)C.相對(duì)強(qiáng),強(qiáng)D.相對(duì)強(qiáng),弱6【單選題】(10分)Bagging是并行式集成學(xué)習(xí)的最著名的代表,給定訓(xùn)練數(shù)據(jù)集,采用()方法采樣數(shù)據(jù)。A.自主采樣B.留出法C.交叉驗(yàn)證法7【單選題】(10分)若同時(shí)有多個(gè)標(biāo)記獲最高票,則從中隨機(jī)選取一個(gè),該結(jié)合策略是()。A.絕對(duì)多數(shù)投票法B.加權(quán)投票法C.相對(duì)多數(shù)投票法D.簡(jiǎn)單平均法8【單選題】(10分)對(duì)基決策樹(shù)的每個(gè)結(jié)點(diǎn),首先,從該結(jié)點(diǎn)的屬性集合中,隨機(jī)選擇一個(gè)包含k個(gè)屬性的子集。然后,從這個(gè)子集中,選擇一個(gè)最優(yōu)屬性,用于劃分。該方法是()。A.隨機(jī)森林B.Boosting方法C.AdaBoostD.傳統(tǒng)決策樹(shù)9【單選題】(10分)隨機(jī)改變一些訓(xùn)練樣本的標(biāo)記;將多分類(lèi)任務(wù),拆解為一系列二分類(lèi)任務(wù),來(lái)訓(xùn)練基學(xué)習(xí)器,這屬于()。A.輸出表示擾動(dòng)B.算法參數(shù)擾動(dòng)C.輸入屬性擾動(dòng)D.數(shù)據(jù)樣本擾動(dòng)10【多選題】(10分)要獲得好的集成,個(gè)體學(xué)習(xí)器應(yīng)滿足()。A.學(xué)習(xí)器應(yīng)該相同B.學(xué)習(xí)器不需要太好C.學(xué)習(xí)器不能太差D.學(xué)習(xí)器應(yīng)該不同第九章單元測(cè)試1【單選題】(10分)無(wú)監(jiān)督學(xué)習(xí)是指訓(xùn)練樣本的標(biāo)記信息是(),目標(biāo)是通過(guò)對(duì)()標(biāo)記訓(xùn)練樣本的學(xué)習(xí)來(lái)揭示數(shù)據(jù)內(nèi)在的性質(zhì)及規(guī)律,為進(jìn)一步的數(shù)據(jù)分析提供基礎(chǔ)A.部分未知,部分無(wú)B.部分已知,部分有C.已知,有D.未知,無(wú)2【單選題】(10分)常用的聚類(lèi)距離計(jì)算采用()。A.余弦距離B.馬氏距離C.閔可夫斯基D.流形距離3【單選題】(10分)懶惰學(xué)習(xí)是指在訓(xùn)練階段(),訓(xùn)練時(shí)間開(kāi)銷(xiāo)為零,待收到測(cè)試樣本后再進(jìn)行處理。A.對(duì)訓(xùn)練樣本進(jìn)行保存B.對(duì)訓(xùn)練樣本進(jìn)行學(xué)習(xí)C.改變訓(xùn)練樣本D.對(duì)訓(xùn)練樣本不進(jìn)行操作4【多選題】(10分)聚類(lèi)的基本目標(biāo)是()A.簇間相似度高B.簇內(nèi)相似度高C.簇內(nèi)相似度低D.簇間相似度低5【判斷題】(10分)聚類(lèi)性能度量大致有兩類(lèi)指標(biāo):外部指標(biāo)和內(nèi)部指標(biāo)。A.對(duì)B.錯(cuò)6【判斷題】(10分)常見(jiàn)的原型聚類(lèi)方法:K均值聚類(lèi)、學(xué)習(xí)向量量化和密度聚類(lèi)。A.錯(cuò)B.對(duì)7【判斷題】(10分)在訓(xùn)練階段就對(duì)樣本進(jìn)行學(xué)習(xí)處理的方法是急切

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論