MOOC 人工智能:模型與算法-浙江大學(xué) 中國大學(xué)慕課答案_第1頁
MOOC 人工智能:模型與算法-浙江大學(xué) 中國大學(xué)慕課答案_第2頁
MOOC 人工智能:模型與算法-浙江大學(xué) 中國大學(xué)慕課答案_第3頁
MOOC 人工智能:模型與算法-浙江大學(xué) 中國大學(xué)慕課答案_第4頁
MOOC 人工智能:模型與算法-浙江大學(xué) 中國大學(xué)慕課答案_第5頁
已閱讀5頁,還剩27頁未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

MOOC人工智能:模型與算法-浙江大學(xué)中國大學(xué)慕課答案第一周測試1、問題:如果一個(gè)問題或者任務(wù)不可計(jì)算,那么對這個(gè)問題或任務(wù)的描述哪一句是正確的()選項(xiàng):A、無法將該問題或任務(wù)所需數(shù)據(jù)一次性裝入內(nèi)存進(jìn)行計(jì)算B、該問題或任務(wù)所需計(jì)算時(shí)間是線性增加的C、圖靈機(jī)不可停機(jī)D、該問題或任務(wù)所需計(jì)算時(shí)間是非線性增加的正確答案:【圖靈機(jī)不可停機(jī)】2、問題:下面哪一句話準(zhǔn)確描述了摩爾定律()選項(xiàng):A、摩爾定律描述了計(jì)算機(jī)內(nèi)存大小隨時(shí)間不斷增長的規(guī)律B、摩爾定律描述了計(jì)算機(jī)的計(jì)算速度每一年半增長一倍的規(guī)律C、摩爾定律描述了計(jì)算機(jī)的體積大小隨時(shí)間不斷減少的規(guī)律D、摩爾定律描述了互聯(lián)網(wǎng)所鏈接節(jié)點(diǎn)隨時(shí)間不斷增長的規(guī)律正確答案:【摩爾定律描述了計(jì)算機(jī)的計(jì)算速度每一年半增長一倍的規(guī)律】3、問題:下面哪個(gè)方法于20世紀(jì)被提出來,用來描述對計(jì)算機(jī)智能水平進(jìn)行測試()選項(xiàng):A、摩爾定律B、香農(nóng)定律C、圖靈測試D、費(fèi)馬定理正確答案:【圖靈測試】4、問題:1955年,麥卡錫、明斯基、香農(nóng)和諾切斯特四位學(xué)者首次提出“artificialintelligence(人工智能)”這個(gè)概念時(shí),希望人工智能研究的主題是()選項(xiàng):A、避免計(jì)算機(jī)控制人類B、全力研究人類大腦C、人工智能倫理D、用計(jì)算機(jī)來模擬人類智能正確答案:【用計(jì)算機(jī)來模擬人類智能】5、問題:下面哪個(gè)描述不屬于對人工智能的分類()選項(xiàng):A、領(lǐng)域人工智能/弱人工智能B、生物智能C、通用人工智能/跨域人工智能D、混合增強(qiáng)人工智能正確答案:【生物智能】6、問題:下面哪一句話是正確的()選項(xiàng):A、人工智能就是機(jī)器學(xué)習(xí)B、機(jī)器學(xué)習(xí)就是深度學(xué)習(xí)C、人工智能就是深度學(xué)習(xí)D、深度學(xué)習(xí)是一種機(jī)器學(xué)習(xí)的方法正確答案:【深度學(xué)習(xí)是一種機(jī)器學(xué)習(xí)的方法】7、問題:以邏輯規(guī)則為核心的邏輯推理、以數(shù)據(jù)驅(qū)動為核心的機(jī)器學(xué)習(xí)和以問題引導(dǎo)為核心的強(qiáng)化學(xué)習(xí)是三種人工智能的方法,下面哪一句話的描述是不正確的()選項(xiàng):A、以邏輯規(guī)則為核心的邏輯推理方法解釋性強(qiáng)B、目前以數(shù)據(jù)驅(qū)動為核心的機(jī)器學(xué)習(xí)方法需要從具有標(biāo)簽的大數(shù)據(jù)中來學(xué)習(xí)數(shù)據(jù)模式,完成給定任務(wù)C、目前以數(shù)據(jù)驅(qū)動為核心的機(jī)器學(xué)習(xí)方法可從任意大數(shù)據(jù)(無論數(shù)據(jù)是具備標(biāo)簽還是不具備標(biāo)簽)中來學(xué)習(xí)數(shù)據(jù)模式,完成給定任務(wù)D、強(qiáng)化學(xué)習(xí)的基本特征是智能體與環(huán)境不斷進(jìn)行交互,在交互過程不斷學(xué)習(xí)來完成特定任務(wù)正確答案:【目前以數(shù)據(jù)驅(qū)動為核心的機(jī)器學(xué)習(xí)方法可從任意大數(shù)據(jù)(無論數(shù)據(jù)是具備標(biāo)簽還是不具備標(biāo)簽)中來學(xué)習(xí)數(shù)據(jù)模式,完成給定任務(wù)】8、問題:下面對人類智能和機(jī)器智能的描述哪一句是不正確的()選項(xiàng):A、人類智能能夠自我學(xué)習(xí),機(jī)器智能大多是依靠數(shù)據(jù)和規(guī)則驅(qū)動B、人類智能具有自適應(yīng)特點(diǎn),機(jī)器智能則大多是“依葫蘆畫瓢”C、人類智能和機(jī)器智能均具備常識,因此能夠進(jìn)行常識性推理D、人類智能具備直覺和頓悟能力,機(jī)器智能很難具備這樣的能力正確答案:【人類智能和機(jī)器智能均具備常識,因此能夠進(jìn)行常識性推理】9、問題:我們常說“人類是智能回路的總開關(guān)”,即人類智能決定著任何智能的高度、廣度和深度,下面哪一句話對這個(gè)觀點(diǎn)的描述不正確()選項(xiàng):A、人類智能是機(jī)器智能的設(shè)計(jì)者B、機(jī)器智能目前無法完全模擬人類所有智能C、機(jī)器智能目前已經(jīng)超越了人類智能D、機(jī)器智能和人類智能相互協(xié)同所產(chǎn)生的智能能力可超越人類智能或機(jī)器智能正確答案:【機(jī)器智能目前已經(jīng)超越了人類智能】10、問題:下面哪句話描述了現(xiàn)有深度學(xué)習(xí)這一種人工智能方法的特點(diǎn)()選項(xiàng):A、小數(shù)據(jù),大任務(wù)B、大數(shù)據(jù),小任務(wù)C、小數(shù)據(jù),小任務(wù)D、大數(shù)據(jù),大任務(wù)正確答案:【大數(shù)據(jù),小任務(wù)】11、問題:20世紀(jì)30年代,圍繞可計(jì)算這一重要思想,一些模型被提出。下述哪個(gè)模型不是于這個(gè)時(shí)期在可計(jì)算思想推動下產(chǎn)生的()選項(xiàng):A、原始遞歸函數(shù)B、lambda演算C、圖靈機(jī)D、馮諾依曼模型正確答案:【馮諾依曼模型】12、問題:德國著名數(shù)學(xué)家希爾伯特在1900年舉辦的國際數(shù)學(xué)家大會中所提出的“算術(shù)公理的相容性(thecompatibilityofthearithmeticalaxioms)”這一問題推動了可計(jì)算思想研究的深入。在希爾伯特所提出的這個(gè)問題中,一個(gè)算術(shù)公理系統(tǒng)是相容的需要滿足三個(gè)特點(diǎn)。下面哪個(gè)描述不屬于這三個(gè)特點(diǎn)之一()選項(xiàng):A、完備性,即所有能夠從該形式化系統(tǒng)推導(dǎo)出來的命題,都可以從這個(gè)形式化系統(tǒng)推導(dǎo)出來。B、一致性,即一個(gè)命題不可能同時(shí)為真或?yàn)榧貱、可判定性,即算法在有限步內(nèi)判定命題的真?zhèn)蜠、復(fù)雜性,即算法性能與輸入數(shù)據(jù)大小相關(guān)正確答案:【復(fù)雜性,即算法性能與輸入數(shù)據(jù)大小相關(guān)】13、問題:下面哪個(gè)描述不屬于邱奇-圖靈論題所包含的意思()選項(xiàng):A、凡是可計(jì)算的函數(shù)都可以用圖靈機(jī)計(jì)算B、任何計(jì)算,如果存在一個(gè)有效過程,它就能被圖靈機(jī)實(shí)現(xiàn)C、有些數(shù)學(xué)問題是不可求解的(圖靈不可停機(jī)的)D、任何表達(dá)力足夠強(qiáng)的(遞歸可枚舉)形式系統(tǒng)同時(shí)滿足一致性和完備性正確答案:【任何表達(dá)力足夠強(qiáng)的(遞歸可枚舉)形式系統(tǒng)同時(shí)滿足一致性和完備性】第二周測試1、問題:在啟發(fā)式搜索(有信息搜索)中,評價(jià)函數(shù)的作用是()選項(xiàng):A、判斷搜索算法的空間復(fù)雜度B、判斷搜索算法的時(shí)間復(fù)雜度C、從當(dāng)前節(jié)點(diǎn)出發(fā)來選擇后續(xù)節(jié)點(diǎn)D、計(jì)算從當(dāng)前節(jié)點(diǎn)到目標(biāo)節(jié)點(diǎn)之間的最小代價(jià)值正確答案:【從當(dāng)前節(jié)點(diǎn)出發(fā)來選擇后續(xù)節(jié)點(diǎn)】2、問題:在啟發(fā)式搜索(有信息搜索)中,啟發(fā)函數(shù)的作用是()選項(xiàng):A、判斷搜索算法的空間復(fù)雜度B、判斷搜索算法的時(shí)間復(fù)雜度C、從當(dāng)前節(jié)點(diǎn)出發(fā)來選擇后續(xù)節(jié)點(diǎn)D、計(jì)算從當(dāng)前節(jié)點(diǎn)到目標(biāo)節(jié)點(diǎn)之間的最小代價(jià)值正確答案:【計(jì)算從當(dāng)前節(jié)點(diǎn)到目標(biāo)節(jié)點(diǎn)之間的最小代價(jià)值】3、問題:在貪婪最佳優(yōu)先搜索中,評價(jià)函數(shù)取值和啟發(fā)函數(shù)取值之間的關(guān)系是()選項(xiàng):A、相等B、大于C、小于D、不等于正確答案:【相等】4、問題:在A*搜索算法中,評價(jià)函數(shù)可以如下定義()選項(xiàng):A、評價(jià)函數(shù)之值=(從起始節(jié)點(diǎn)出發(fā)到當(dāng)前節(jié)點(diǎn)最小開銷代價(jià))+(從當(dāng)前節(jié)點(diǎn)出發(fā)到目標(biāo)結(jié)點(diǎn)最小開銷代價(jià))B、評價(jià)函數(shù)之值=(從起始節(jié)點(diǎn)出發(fā)到當(dāng)前節(jié)點(diǎn)最小開銷代價(jià))*(從當(dāng)前節(jié)點(diǎn)出發(fā)到目標(biāo)結(jié)點(diǎn)最小開銷代價(jià))C、評價(jià)函數(shù)之值=(從起始節(jié)點(diǎn)出發(fā)到當(dāng)前節(jié)點(diǎn)最小開銷代價(jià))-(從當(dāng)前節(jié)點(diǎn)出發(fā)到目標(biāo)結(jié)點(diǎn)最小開銷代價(jià))D、評價(jià)函數(shù)之值=(從起始節(jié)點(diǎn)出發(fā)到當(dāng)前節(jié)點(diǎn)最小開銷代價(jià))/(從當(dāng)前節(jié)點(diǎn)出發(fā)到目標(biāo)結(jié)點(diǎn)最小開銷代價(jià))正確答案:【評價(jià)函數(shù)之值=(從起始節(jié)點(diǎn)出發(fā)到當(dāng)前節(jié)點(diǎn)最小開銷代價(jià))+(從當(dāng)前節(jié)點(diǎn)出發(fā)到目標(biāo)結(jié)點(diǎn)最小開銷代價(jià))】5、問題:A*算法是一種有信息搜索算法,在最短路徑搜索中引入的輔助信息是()選項(xiàng):A、路途中天氣和交通狀況等信息B、旅行者興趣偏好信息C、任意一個(gè)城市到目標(biāo)城市之間直線距離D、任意一個(gè)城市到起始城市之間直線距離正確答案:【任意一個(gè)城市到目標(biāo)城市之間直線距離】6、問題:為了保證A*算法是最優(yōu)的,需要啟發(fā)函數(shù)具有可容(admissible)和一致(consistency)的特點(diǎn),下面對啟發(fā)函數(shù)具有可容性這一特點(diǎn)的解釋正確的是()選項(xiàng):A、啟發(fā)函數(shù)是遞增的B、啟發(fā)函數(shù)不會過高估計(jì)從當(dāng)前節(jié)點(diǎn)到目標(biāo)結(jié)點(diǎn)之間的實(shí)際開銷代價(jià)C、啟發(fā)函數(shù)不會過高估計(jì)從起始節(jié)點(diǎn)到目標(biāo)結(jié)點(diǎn)之間的實(shí)際開銷代價(jià)D、啟發(fā)函數(shù)是遞減的正確答案:【啟發(fā)函數(shù)不會過高估計(jì)從當(dāng)前節(jié)點(diǎn)到目標(biāo)結(jié)點(diǎn)之間的實(shí)際開銷代價(jià)】7、問題:下面對Alpha-Beta剪枝搜索算法描述中,哪句描述是不正確的()選項(xiàng):A、剪枝本身不影響算法輸出結(jié)果B、節(jié)點(diǎn)先后次序會影響剪枝效率C、節(jié)點(diǎn)先后次序不會影響剪枝效率D、在大多數(shù)情況下,剪枝會提高算法效率正確答案:【節(jié)點(diǎn)先后次序不會影響剪枝效率】8、問題:下面對minimax搜索算法描述中,哪句描述是不正確的()選項(xiàng):A、給定一個(gè)游戲搜索樹,minimax算法通過每個(gè)節(jié)點(diǎn)的minimax值來決定最優(yōu)策略B、MAX節(jié)點(diǎn)希望自己收益最大化C、MIN節(jié)點(diǎn)希望對方收益最小化D、minimax搜索不需要遍歷游戲樹中所有節(jié)點(diǎn)正確答案:【minimax搜索不需要遍歷游戲樹中所有節(jié)點(diǎn)】9、問題:Alpha和Beta兩個(gè)值在Alpha-Beta剪枝搜索中被用來判斷某個(gè)節(jié)點(diǎn)的后續(xù)節(jié)點(diǎn)是否可被剪枝,下面對Alpha和Beta的初始化取值描述正確的是()選項(xiàng):A、Alpha和Beta可隨機(jī)初始化B、Alpha的初始值大于Beta的初始值C、Alpha和Beta初始值分別為正無窮大和負(fù)無窮大D、Alpha和Beta初始值分別為負(fù)無窮大和正無窮大正確答案:【Alpha和Beta初始值分別為負(fù)無窮大和正無窮大】10、問題:下面對上限置信區(qū)間(UpperConfidenceBound,UCB)算法在多臂賭博機(jī)中的描述,哪句描述是不正確的()選項(xiàng):A、UCB算法在探索-利用(exploration-exploitation)之間尋找平衡B、UCB算法既考慮拉動在過去時(shí)間內(nèi)獲得最大平均獎(jiǎng)賞的賭博機(jī),又希望去選擇那些拉動臂膀次數(shù)最少的賭博機(jī)C、UCB算法是優(yōu)化序列決策問題的方法D、UCB算法每次隨機(jī)選擇一個(gè)賭博機(jī)來拉動其臂膀正確答案:【UCB算法每次隨機(jī)選擇一個(gè)賭博機(jī)來拉動其臂膀】11、問題:下面哪一種有序組合是蒙特卡洛樹搜索中一次正確的迭代步驟()選項(xiàng):A、選舉、擴(kuò)展、模擬、反向傳播B、反向傳播、選舉、擴(kuò)展、模擬C、反向傳播、擴(kuò)展、模擬、選舉D、擴(kuò)展、模擬、采樣、選舉正確答案:【選舉、擴(kuò)展、模擬、反向傳播】12、問題:下面對minimax搜索、alpha-beta剪枝搜索和蒙特卡洛樹搜索的描述中,哪一句描述是不正確的()選項(xiàng):A、三種搜索算法中,只有蒙特卡洛樹搜索是采樣搜索B、alpha-beta剪枝搜索和蒙特卡洛樹搜索都是非窮舉式搜索C、minimax是窮舉式搜索D、對于一個(gè)規(guī)模較小的游戲樹,alpha-beta剪枝搜索和minimax搜索的結(jié)果會不同正確答案:【對于一個(gè)規(guī)模較小的游戲樹,alpha-beta剪枝搜索和minimax搜索的結(jié)果會不同】第三周測試1、問題:如果命題p為真、命題q為假,則下述哪個(gè)復(fù)合命題為真命題()選項(xiàng):A、如果q則pB、p且qC、非pD、如果p則q正確答案:【如果q則p】2、問題:p和q均是原子命題,“如果p那么q”是由p和q組合得到的復(fù)合命題。下面對“如果p那么q”這一復(fù)合命題描述不正確的是()選項(xiàng):A、無法用真值表來判斷“如果p那么q”的真假B、“如果p那么q”定義的是一種蘊(yùn)涵關(guān)系(即充分條件)C、“如果p那么q”意味著命題q包含著命題p,即p是q的子集D、當(dāng)p不成立時(shí),“如果p那么q”恒為真正確答案:【無法用真值表來判斷“如果p那么q”的真假】3、問題:下面哪個(gè)復(fù)合命題與“如果秋天天氣變涼,那么大雁南飛越冬”是邏輯等價(jià)的()選項(xiàng):A、如果大雁不南飛越冬,那么秋天天氣沒有變涼B、如果秋天天氣沒有變涼,那么大雁不南飛越冬C、如果秋天天氣變涼,那么大雁不南飛越冬D、如果大雁不南飛越冬,那么秋天天氣變涼正確答案:【如果大雁不南飛越冬,那么秋天天氣沒有變涼】4、問題:下面哪一句話對命題邏輯中的歸結(jié)(resolution)規(guī)則的描述是不正確的()選項(xiàng):A、對命題q及其反命題應(yīng)用歸結(jié)法,所得到的命題為假命題B、在兩個(gè)析取復(fù)合命題中,如果命題q及其反命題分別出現(xiàn)在這兩個(gè)析取復(fù)合命題中,則通過歸結(jié)法可得到一個(gè)新的析取復(fù)合命題,只是在析取復(fù)合命題中要去除命題q及其反命題。C、如果命題q出現(xiàn)在一個(gè)析取復(fù)合命題中,命題q的反命題單獨(dú)存在,則通過歸結(jié)法可得到一個(gè)新的析取復(fù)合命題,只是在析取復(fù)合命題中要去除命題q及其反命題。D、對命題q及其反命題應(yīng)用歸結(jié)法,所得到的命題為空命題正確答案:【對命題q及其反命題應(yīng)用歸結(jié)法,所得到的命題為假命題】5、問題:下面哪一句話對命題范式的描述是不正確的()選項(xiàng):A、一個(gè)析取范式是不成立的,當(dāng)且僅當(dāng)它包含一個(gè)不成立的簡單合取式B、有限個(gè)簡單合取式構(gòu)成的析取式稱為析取范式C、有限個(gè)簡單析取式構(gòu)成的合取式稱為合取范式D、一個(gè)合取范式是成立的,當(dāng)且僅當(dāng)它的每個(gè)簡單析取式都是成立的正確答案:【一個(gè)析取范式是不成立的,當(dāng)且僅當(dāng)它包含一個(gè)不成立的簡單合取式】6、問題:下面哪個(gè)邏輯等價(jià)關(guān)系是不成立的()選項(xiàng):A、B、C、D、正確答案:【】7、問題:下面哪個(gè)謂詞邏輯的推理規(guī)則是不成立的()選項(xiàng):A、B、C、D、正確答案:【】8、問題:知識圖譜可視為包含多種關(guān)系的圖。在圖中,每個(gè)節(jié)點(diǎn)是一個(gè)實(shí)體(如人名、地名、事件和活動等),任意兩個(gè)節(jié)點(diǎn)之間的邊表示這兩個(gè)節(jié)點(diǎn)之間存在的關(guān)系。下面對知識圖譜的描述,哪一句話的描述不正確()選項(xiàng):A、知識圖譜中兩個(gè)節(jié)點(diǎn)之間僅能存在一條邊B、知識圖譜中的節(jié)點(diǎn)可以是實(shí)體或概念C、知識圖譜中一條邊連接了兩個(gè)節(jié)點(diǎn),可以用來表示這兩個(gè)節(jié)點(diǎn)存在某一關(guān)系D、知識圖譜中一條邊可以用一個(gè)三元組來表示正確答案:【知識圖譜中兩個(gè)節(jié)點(diǎn)之間僅能存在一條邊】9、問題:如果知識圖譜中有David和Mike兩個(gè)節(jié)點(diǎn),他們之間具有classmate和brother關(guān)系。在知識圖譜中還存在其他豐富節(jié)點(diǎn)和豐富關(guān)系(如couple,parent等)前提下,下面描述不正確的是()選項(xiàng):A、僅可從知識圖譜中找到classmate和brother這個(gè)謂詞的正例,無法找到這兩個(gè)謂詞的反例。B、可以從知識圖譜中形成classmateDavid,Mike的表達(dá),這里classmate是謂詞。C、可以從知識圖譜中形成brotherDavid,Mike的表達(dá),這里brother是謂詞。D、可從知識圖譜中找到classmate和brother這個(gè)謂詞的正例和反例。正確答案:【僅可從知識圖譜中找到classmate和brother這個(gè)謂詞的正例,無法找到這兩個(gè)謂詞的反例。】10、問題:在一階歸納學(xué)習(xí)中,只要給定目標(biāo)謂詞,F(xiàn)OIL算法從若干樣例出發(fā),不斷測試所得到推理規(guī)則是否還包含反例,一旦不包含負(fù)例,則學(xué)習(xí)結(jié)束,展示了“歸納學(xué)習(xí)”能力。下面所列出的哪個(gè)樣例,不屬于FOIL在學(xué)習(xí)推理規(guī)則中所利用的樣例。選項(xiàng):A、信息增益超過一定閾值推理規(guī)則涵蓋的例子B、背景知識樣例C、所得到推理規(guī)則涵蓋的正例D、所得到推理規(guī)則涵蓋的反例正確答案:【信息增益超過一定閾值推理規(guī)則涵蓋的例子】11、問題:下面對一階歸納推理(FOIL)中信息增益值(informationgain)闡釋不正確的是()選項(xiàng):A、信息增益值大小與背景知識樣例數(shù)目有關(guān)。B、信息增益值用來判斷向推理規(guī)則中所加入前提約束謂詞的質(zhì)量。C、在算法結(jié)束前,每次向推理規(guī)則中加入一個(gè)前提約束謂詞,該前提約束謂詞得到的新推理規(guī)則具有最大的信息增益值。D、在計(jì)算信息增益值過程中,需要利用所得到的新推理規(guī)則和舊推理規(guī)則分別涵蓋的正例和反例數(shù)目。正確答案:【信息增益值大小與背景知識樣例數(shù)目有關(guān)。】第四周測試1、問題:基于知識圖譜的路徑排序推理方法可屬于如下哪一種方法()選項(xiàng):A、監(jiān)督學(xué)習(xí)(即利用標(biāo)注數(shù)據(jù))B、一階邏輯推理C、無監(jiān)督學(xué)習(xí)(即無標(biāo)注數(shù)據(jù))D、因果推理正確答案:【監(jiān)督學(xué)習(xí)(即利用標(biāo)注數(shù)據(jù))】2、問題:下面哪個(gè)步驟不屬于基于知識圖譜的路徑排序推理方法中的一個(gè)步驟()選項(xiàng):A、定義和選擇do算子操作B、定義和選擇若干標(biāo)注訓(xùn)練數(shù)據(jù)C、定義和選擇訓(xùn)練數(shù)據(jù)的特征D、定義和選擇某一特定的分類器正確答案:【定義和選擇do算子操作】3、問題:在基于知識圖譜的路徑排序推理方法中,最后訓(xùn)練所得分類器的功能是()選項(xiàng):A、給定兩個(gè)實(shí)體(知識圖譜中的兩個(gè)節(jié)點(diǎn)),判斷其是否具有分類器所表達(dá)的關(guān)系(即節(jié)點(diǎn)之間是否具有分類器所能夠辨認(rèn)的關(guān)系)B、判斷一個(gè)給定實(shí)體(知識圖譜中的一個(gè)節(jié)點(diǎn))是否存在鄰接節(jié)點(diǎn)C、給定兩個(gè)實(shí)體(知識圖譜中的兩個(gè)節(jié)點(diǎn)),判斷其是否存在超過一定長度的路徑D、給定兩個(gè)實(shí)體(知識圖譜中的兩個(gè)節(jié)點(diǎn)),判斷其是否存在超過小于一定長度的路徑正確答案:【給定兩個(gè)實(shí)體(知識圖譜中的兩個(gè)節(jié)點(diǎn)),判斷其是否具有分類器所表達(dá)的關(guān)系(即節(jié)點(diǎn)之間是否具有分類器所能夠辨認(rèn)的關(guān)系)】4、問題:下面對辛普森悖論描述不正確的是()選項(xiàng):A、辛普森悖論的原因在于數(shù)據(jù)之間相互不關(guān)聯(lián)。B、在某些情況下,忽略潛在的“第三個(gè)變量”,可能會改變已有的結(jié)論,而我們常常卻一無所知。C、為了克服辛普森悖論,需要從觀測結(jié)果中尋找引發(fā)結(jié)果的原因,由果溯因。D、如果忽略了一些潛在因素,可能會導(dǎo)致全部數(shù)據(jù)上觀察到的結(jié)果卻在部分?jǐn)?shù)據(jù)上不成立。正確答案:【辛普森悖論的原因在于數(shù)據(jù)之間相互不關(guān)聯(lián)?!?、問題:下面哪個(gè)描述的問題不屬于因果分析的內(nèi)容()選項(xiàng):A、購買了A商品的顧客是否會購買B商品B、如果商品價(jià)格漲價(jià)一倍,預(yù)測銷售量P′(sales)的變化C、如果放棄吸煙,預(yù)測癌癥P′(cancer)的概率D、如果廣告投入增長一倍,預(yù)測銷售量的增長正確答案:【購買了A商品的顧客是否會購買B商品】6、問題:下面哪個(gè)模型不屬于用來進(jìn)行因果推理的模型()選項(xiàng):A、有向有環(huán)圖B、結(jié)構(gòu)因果模型C、因果圖D、貝葉斯網(wǎng)絡(luò)正確答案:【有向有環(huán)圖】7、問題:下面哪個(gè)說法是不正確的()選項(xiàng):A、一個(gè)有向無環(huán)圖無法唯一地決定一個(gè)聯(lián)合分布B、一個(gè)有向無環(huán)圖唯一地決定一個(gè)聯(lián)合分布C、一個(gè)聯(lián)合分布不能唯一地決定有向無環(huán)圖D、在有向無環(huán)圖中,父輩節(jié)點(diǎn)“促成”了孩子節(jié)點(diǎn)的取值正確答案:【一個(gè)有向無環(huán)圖無法唯一地決定一個(gè)聯(lián)合分布】8、問題:在因果推理中,D-分離(d-separation)的作用是()選項(xiàng):A、用于判斷集合A中變量是否與集合B中變量相互獨(dú)立(給定集合C)B、用于判斷集合A中變量是否與集合B中變量相關(guān)(給定集合C)C、用于判斷集合A中變量是否與集合B中變量是否存在鏈接D、用于判斷集合A中變量是否與集合B中變量是否不存在鏈接正確答案:【用于判斷集合A中變量是否與集合B中變量相互獨(dú)立(給定集合C)】9、問題:下面對干預(yù)(intervention)和do算子(do-calculus)描述不正確的是()選項(xiàng):A、do(x)=a表示將DAG中指向節(jié)點(diǎn)x的所有節(jié)點(diǎn)取值均固定為aB、do算子的意思可理解為“干預(yù)”(intervention)C、do(x)=a表示將DAG中指向節(jié)點(diǎn)x的有向邊全部切斷,并且將x的值固定為常數(shù)aD、干預(yù)(intervention)指的是固定(fix)系統(tǒng)中某個(gè)變量,然后改變系統(tǒng),觀察其他變量的變化正確答案:【do(x)=a表示將DAG中指向節(jié)點(diǎn)x的所有節(jié)點(diǎn)取值均固定為a】10、問題:下面對反事實(shí)推理(counterfactualmodel)描述不正確的是()選項(xiàng):A、條件變量對于結(jié)果變量的因果性就是A成立時(shí)B的狀態(tài)與A取負(fù)向值時(shí)“反事實(shí)”狀態(tài)(B')之間的差異。如果這種差異存在且在統(tǒng)計(jì)上是顯著的,說明條件變量與結(jié)果變量不存在因果關(guān)系。B、事實(shí)是指在某個(gè)特定變量(A)的影響下可觀測到的某種狀態(tài)或結(jié)果(B)。“反事實(shí)”是指在該特定變量(A)取負(fù)向值時(shí)可觀測到的狀態(tài)或結(jié)果(B')。C、條件變量對于結(jié)果變量的因果性就是A成立時(shí)B的狀態(tài)與A取負(fù)向值時(shí)“反事實(shí)”狀態(tài)(B')之間的差異。如果這種差異存在且在統(tǒng)計(jì)上是顯著的,說明條件變量與結(jié)果變量存在因果關(guān)系。D、反事實(shí)推理是用于因果推理的一種方法。正確答案:【條件變量對于結(jié)果變量的因果性就是A成立時(shí)B的狀態(tài)與A取負(fù)向值時(shí)“反事實(shí)”狀態(tài)(B')之間的差異。如果這種差異存在且在統(tǒng)計(jì)上是顯著的,說明條件變量與結(jié)果變量不存在因果關(guān)系?!?1、問題:下面對通過因果圖來進(jìn)行因果推理所存在不足描述不正確的是()選項(xiàng):A、因果圖無法刻畫數(shù)據(jù)之間的聯(lián)合分布。B、難以得到一個(gè)完整的DAG用于闡述變量之間的因果關(guān)系或者數(shù)據(jù)生成機(jī)制,使得DAG的應(yīng)用受到的巨大的阻礙。C、在因果推理中引入了do算子,即從系統(tǒng)之外人為控制某些變量。但是,這依賴于一個(gè)假定:干預(yù)某些變量并不會引起DAG中其他結(jié)構(gòu)的變化。D、DAG作為一種簡化的模型,在復(fù)雜系統(tǒng)中可能不完全適用,需要將其拓展到動態(tài)系統(tǒng)(如時(shí)間序列)。正確答案:【因果圖無法刻畫數(shù)據(jù)之間的聯(lián)合分布?!康谖逯軠y試1、問題:下面哪一種機(jī)器學(xué)習(xí)方法沒有利用標(biāo)注數(shù)據(jù)()選項(xiàng):A、無監(jiān)督學(xué)習(xí)B、有監(jiān)督學(xué)習(xí)C、半監(jiān)督學(xué)習(xí)D、回歸分析正確答案:【無監(jiān)督學(xué)習(xí)】2、問題:下面對經(jīng)驗(yàn)風(fēng)險(xiǎn)和期望風(fēng)險(xiǎn)的描述中,哪一個(gè)屬于欠學(xué)習(xí)()選項(xiàng):A、經(jīng)驗(yàn)風(fēng)險(xiǎn)大、期望風(fēng)險(xiǎn)大B、經(jīng)驗(yàn)風(fēng)險(xiǎn)小、期望風(fēng)險(xiǎn)小C、經(jīng)驗(yàn)風(fēng)險(xiǎn)小、期望風(fēng)險(xiǎn)大D、經(jīng)驗(yàn)風(fēng)險(xiǎn)大、期望風(fēng)險(xiǎn)小正確答案:【經(jīng)驗(yàn)風(fēng)險(xiǎn)大、期望風(fēng)險(xiǎn)大】3、問題:下面對經(jīng)驗(yàn)風(fēng)險(xiǎn)和期望風(fēng)險(xiǎn)的描述中,哪一個(gè)屬于過學(xué)習(xí)()選項(xiàng):A、經(jīng)驗(yàn)風(fēng)險(xiǎn)小、期望風(fēng)險(xiǎn)大B、經(jīng)驗(yàn)風(fēng)險(xiǎn)小、期望風(fēng)險(xiǎn)小C、經(jīng)驗(yàn)風(fēng)險(xiǎn)大、期望風(fēng)險(xiǎn)大D、經(jīng)驗(yàn)風(fēng)險(xiǎn)大、期望風(fēng)險(xiǎn)小正確答案:【經(jīng)驗(yàn)風(fēng)險(xiǎn)小、期望風(fēng)險(xiǎn)大】4、問題:下面對結(jié)構(gòu)風(fēng)險(xiǎn)最小化的描述中,哪一個(gè)描述是不正確的()選項(xiàng):A、為了更好保證結(jié)構(gòu)風(fēng)險(xiǎn)最小化,可適當(dāng)減少標(biāo)注數(shù)據(jù)B、在結(jié)構(gòu)風(fēng)險(xiǎn)最小化中,優(yōu)化求解目標(biāo)為使得經(jīng)驗(yàn)風(fēng)險(xiǎn)與模型復(fù)雜度之和最小C、結(jié)構(gòu)風(fēng)險(xiǎn)最小化在最小化經(jīng)驗(yàn)風(fēng)險(xiǎn)與降低模型復(fù)雜度之間尋找一種平衡D、結(jié)構(gòu)風(fēng)險(xiǎn)最小化與經(jīng)驗(yàn)風(fēng)險(xiǎn)最小化的目標(biāo)是不同的正確答案:【為了更好保證結(jié)構(gòu)風(fēng)險(xiǎn)最小化,可適當(dāng)減少標(biāo)注數(shù)據(jù)】5、問題:監(jiān)督學(xué)習(xí)方法又可以分為生成方法(generativeapproach)和判別方法(discriminativeapproach)。下面哪個(gè)方法不屬于判別方法()選項(xiàng):A、貝葉斯方法B、回歸模型C、神經(jīng)網(wǎng)絡(luò)D、Adaboosting正確答案:【貝葉斯方法】6、問題:下面哪句話語較為恰當(dāng)刻畫了監(jiān)督學(xué)習(xí)方法中生成方法的特點(diǎn)()選項(xiàng):A、授之于魚、不如授之于“漁”B、三個(gè)臭皮匠、抵一個(gè)諸葛亮C、畢其功于一役D、屢敗屢戰(zhàn)、屢戰(zhàn)屢敗、最后成功正確答案:【授之于魚、不如授之于“漁”】7、問題:在線性回歸模型中,所優(yōu)化的目標(biāo)函數(shù)是()選項(xiàng):A、最小化殘差平方和的均值B、最大化殘差平方和的均值C、最小化結(jié)構(gòu)風(fēng)險(xiǎn)D、最大化結(jié)構(gòu)風(fēng)險(xiǎn)正確答案:【最小化殘差平方和的均值】8、問題:線性回歸中優(yōu)化目標(biāo)函數(shù)的求取過程與下面哪一種方法是相同的()選項(xiàng):A、最小二乘法B、最大似然估計(jì)C、最大后驗(yàn)概率D、最小化后驗(yàn)概率正確答案:【最小二乘法】9、問題:下面哪一句話對AdaBoosting的描述是不正確的()選項(xiàng):A、在所構(gòu)成的強(qiáng)分類器中,每個(gè)弱分類器的權(quán)重累加起來等于1B、該算法將若干弱分類器線性加權(quán)組合起來,形成一個(gè)強(qiáng)分類器C、在所構(gòu)成的強(qiáng)分類器中,每個(gè)弱分類器的權(quán)重是不一樣的D、在每一次訓(xùn)練弱分類器中,每個(gè)樣本的權(quán)重累加起來等于1正確答案:【在所構(gòu)成的強(qiáng)分類器中,每個(gè)弱分類器的權(quán)重累加起來等于1】10、問題:下面哪一句話對概率近似正確(probablyapproximatelycorrect,PAC)的描述是不正確的()選項(xiàng):A、強(qiáng)可學(xué)習(xí)模型指學(xué)習(xí)模型僅能完成若干部分樣本識別與分類,其精度略高于隨機(jī)猜測B、在概率近似正確背景下,有“強(qiáng)可學(xué)習(xí)模型”和“弱可學(xué)習(xí)模型”C、強(qiáng)可學(xué)習(xí)模型指學(xué)習(xí)模型能夠以較高精度對絕大多數(shù)樣本完成識別分類任務(wù)D、強(qiáng)可學(xué)習(xí)和弱可學(xué)習(xí)是等價(jià)的,即如果已經(jīng)發(fā)現(xiàn)了“弱學(xué)習(xí)算法”,可將其提升(boosting)為“強(qiáng)學(xué)習(xí)算法”正確答案:【強(qiáng)可學(xué)習(xí)模型指學(xué)習(xí)模型僅能完成若干部分樣本識別與分類,其精度略高于隨機(jī)猜測】11、問題:AdaBoosting在最小化如下目標(biāo)函數(shù)()選項(xiàng):A、指數(shù)損失函數(shù)B、0-1損失函數(shù)C、平方損失函數(shù)D、絕對損失函數(shù)正確答案:【指數(shù)損失函數(shù)】12、問題:下面對回歸和分類的描述不正確的是()選項(xiàng):A、回歸是一種無監(jiān)督學(xué)習(xí)、分類學(xué)習(xí)是有監(jiān)督學(xué)習(xí)B、兩者均是學(xué)習(xí)輸入變量和輸出變量之間潛在關(guān)系模型C、在回歸分析中,學(xué)習(xí)得到一個(gè)函數(shù)將輸入變量映射到連續(xù)輸出空間D、在分類模型中,學(xué)習(xí)得到一個(gè)函數(shù)將輸入變量映射到離散輸出空間正確答案:【回歸是一種無監(jiān)督學(xué)習(xí)、分類學(xué)習(xí)是有監(jiān)督學(xué)習(xí)】第六周測試1、問題:由于K均值聚類是一個(gè)迭代過程,我們需要設(shè)置其迭代終止條件。下面哪句話正確描述了K均值聚類的迭代終止條件()選項(xiàng):A、已經(jīng)達(dá)到了迭代次數(shù)上限,或者前后兩次迭代中聚類質(zhì)心基本保持不變B、已經(jīng)達(dá)到了迭代次數(shù)上限,或者每個(gè)待聚類樣本分別歸屬唯一一個(gè)聚類集合C、已經(jīng)形成了K個(gè)聚類集合,或者已經(jīng)達(dá)到了迭代次數(shù)上限D(zhuǎn)、已經(jīng)形成了K個(gè)聚類集合,或者每個(gè)待聚類樣本分別歸屬唯一一個(gè)聚類集合正確答案:【已經(jīng)達(dá)到了迭代次數(shù)上限,或者前后兩次迭代中聚類質(zhì)心基本保持不變】2、問題:我們可以從最小化每個(gè)類簇的方差這一視角來解釋K均值聚類的結(jié)果,下面對這一視角描述不正確的是()(單選2分)選項(xiàng):A、每個(gè)簇類的質(zhì)心累加起來最小B、最終聚類結(jié)果中每個(gè)聚類集合中所包含數(shù)據(jù)呈現(xiàn)出來差異性最小C、每個(gè)樣本數(shù)據(jù)分別歸屬于與其距離最近的聚類質(zhì)心所在聚類集合D、每個(gè)簇類的方差累加起來最小正確答案:【每個(gè)簇類的質(zhì)心累加起來最小】3、問題:下面哪一句話描述不屬于K均值聚類算法的不足()選項(xiàng):A、K均值聚類是無監(jiān)督聚類B、需要事先確定聚類數(shù)目C、需要初始化聚類質(zhì)心D、算法迭代執(zhí)行正確答案:【K均值聚類是無監(jiān)督聚類】4、問題:下面對數(shù)據(jù)樣本方差解釋不正確的是()選項(xiàng):A、方差刻畫了樣本數(shù)據(jù)的大小B、方差刻畫了隨機(jī)變量或一組數(shù)據(jù)離散程度C、方差(樣本方差)是每個(gè)樣本數(shù)據(jù)與全體樣本數(shù)據(jù)平均值之差的平方和的平均數(shù)D、方差描述了樣本數(shù)據(jù)在平均值附近的波動程度正確答案:【方差刻畫了樣本數(shù)據(jù)的大小】5、問題:協(xié)方差可以用來計(jì)算兩個(gè)變量之間的相關(guān)性,或者說計(jì)算兩維樣本數(shù)據(jù)中兩個(gè)維度之間的相關(guān)性?;谟?jì)算所得的協(xié)方差值,可以來判斷樣本數(shù)據(jù)中兩維變量之間是否存在關(guān)聯(lián)關(guān)系。下面哪一個(gè)說法是不正確的()選項(xiàng):A、當(dāng)協(xié)方差值等于0時(shí),則兩個(gè)變量線性正相關(guān)B、當(dāng)協(xié)方差值大于0時(shí),則兩個(gè)變量線性正相關(guān)C、當(dāng)協(xié)方差值小于0時(shí),則兩個(gè)變量線性負(fù)相關(guān)D、當(dāng)協(xié)方差值等于0時(shí),則兩個(gè)變量線性不相關(guān)正確答案:【當(dāng)協(xié)方差值等于0時(shí),則兩個(gè)變量線性正相關(guān)】6、問題:皮爾遜相關(guān)系數(shù)(PearsonCorrelationcoefficient)可將兩組變量之間的關(guān)聯(lián)度規(guī)整到一定的取值范圍內(nèi)。下面對皮爾遜相關(guān)系數(shù)描述不正確的是()選項(xiàng):A、皮爾遜相關(guān)系數(shù)刻畫了兩組變量之間線性相關(guān)程度,如果其取值越大,則兩者在線性相關(guān)的意義下相關(guān)程度越大;如果其值越小,表示兩者在線性相關(guān)的意義下相關(guān)程度越小B、皮爾遜相關(guān)系數(shù)的值域是[-1,1]C、皮爾遜相關(guān)系數(shù)等于1的充要條件是該兩組變量具有線性相關(guān)關(guān)系D、皮爾遜相關(guān)系數(shù)是對稱的正確答案:【皮爾遜相關(guān)系數(shù)刻畫了兩組變量之間線性相關(guān)程度,如果其取值越大,則兩者在線性相關(guān)的意義下相關(guān)程度越大;如果其值越小,表示兩者在線性相關(guān)的意義下相關(guān)程度越小】7、問題:下面對相關(guān)性(correlation)和獨(dú)立性(independence)描述不正確的是()選項(xiàng):A、“不相關(guān)”是一個(gè)比“獨(dú)立”要強(qiáng)的概念,即不相關(guān)一定相互獨(dú)立B、如果兩維變量線性不相關(guān),則皮爾遜相關(guān)系數(shù)等于0C、如果兩維變量彼此獨(dú)立,則皮爾遜相關(guān)系數(shù)等于0D、獨(dú)立指兩個(gè)變量彼此之間不相互影響正確答案:【“不相關(guān)”是一個(gè)比“獨(dú)立”要強(qiáng)的概念,即不相關(guān)一定相互獨(dú)立】8、問題:下面對主成分分析的描述不正確的是()選項(xiàng):A、在主成分分析中,所得低維數(shù)據(jù)中每一維度之間具有極大相關(guān)度B、主成份分析是一種特征降維方法C、主成分分析可保證原始高維樣本數(shù)據(jù)被投影映射后,其方差保持最大D、在主成分分析中,將數(shù)據(jù)向方差最大方向進(jìn)行投影,可使得數(shù)據(jù)所蘊(yùn)含信息沒有丟失,以便在后續(xù)處理過程中各個(gè)數(shù)據(jù)“彰顯個(gè)性”正確答案:【在主成分分析中,所得低維數(shù)據(jù)中每一維度之間具有極大相關(guān)度】9、問題:假設(shè)原始數(shù)據(jù)個(gè)數(shù)為n,原始數(shù)據(jù)維數(shù)為d,降維后的維數(shù)為l,下面對主成分分析算法描述不正確的是()選項(xiàng):A、主成分分析學(xué)習(xí)得到了l個(gè)d維大小的向量,這l個(gè)d維向量之間彼此相關(guān)B、主成分分析要學(xué)習(xí)一個(gè)映射矩陣,其大小是d×lC、每個(gè)原始數(shù)據(jù)的維數(shù)大小從d變成了lD、在主成分分析中,我們將帶約束的最優(yōu)化問題,通過拉格朗日乘子法將其轉(zhuǎn)化為無約束最優(yōu)化問題正確答案:【主成分分析學(xué)習(xí)得到了l個(gè)d維大小的向量,這l個(gè)d維向量之間彼此相關(guān)】10、問題:在主成分分析中,我們將帶約束的最優(yōu)化問題,通過拉格朗日乘子法將其轉(zhuǎn)化為無約束最優(yōu)化問題。下面對主成分分析中優(yōu)化的目標(biāo)函數(shù)和約束條件描述正確的是()選項(xiàng):A、保證映射投影(即降維后)所得結(jié)果方差最大以及投影方向正交(以去除冗余度)B、保證映射投影方向之間的方差最大以及投影方向正交(以去除冗余度)C、保證映射投影(即降維后)所得結(jié)果相關(guān)度最大以及投影后結(jié)果方差最大D、保證映射投影(即降維后)所得結(jié)果冗余度最小以及投影后結(jié)果方差最大正確答案:【保證映射投影(即降維后)所得結(jié)果方差最大以及投影方向正交(以去除冗余度)】11、問題:下面對特征人臉?biāo)惴枋霾徽_的是()選項(xiàng):A、特征人臉之間的相關(guān)度要盡可能大B、特征人臉方法是一種應(yīng)用主成分分析來實(shí)現(xiàn)人臉圖像降維的方法C、特征人臉方法是用一種稱為“特征人臉(eigenface)”的特征向量按照線性組合形式來表達(dá)每一張?jiān)既四槇D像D、每一個(gè)特征人臉的維數(shù)與原始人臉圖像的維數(shù)一樣大正確答案:【特征人臉之間的相關(guān)度要盡可能大】第七周測試1、問題:下面對邏輯斯蒂回歸(logisticregression)描述不正確的是()選項(xiàng):A、在邏輯斯蒂回歸中,輸入數(shù)據(jù)特征加權(quán)累加值在接近?∞或+∞附近時(shí),模型輸出的概率值變化很大B、邏輯斯蒂回歸中所使用Sigmoid函數(shù)的輸出形式是概率輸出C、在邏輯斯蒂回歸中,能夠?qū)崿F(xiàn)數(shù)據(jù)特征加權(quán)累加D、邏輯斯蒂回歸是一種非線性回歸模型正確答案:【在邏輯斯蒂回歸中,輸入數(shù)據(jù)特征加權(quán)累加值在接近?∞或+∞附近時(shí),模型輸出的概率值變化很大】2、問題:邏輯斯蒂回歸模型(logisticregression)屬于()選項(xiàng):A、監(jiān)督學(xué)習(xí)B、無監(jiān)督學(xué)習(xí)C、半監(jiān)督學(xué)習(xí)D、以上都不是正確答案:【監(jiān)督學(xué)習(xí)】3、問題:潛在語義分析屬于()選項(xiàng):A、無監(jiān)督學(xué)習(xí)B、監(jiān)督學(xué)習(xí)C、半監(jiān)督學(xué)習(xí)D、以上都不是正確答案:【無監(jiān)督學(xué)習(xí)】4、問題:線性區(qū)別分析屬于()選項(xiàng):A、監(jiān)督學(xué)習(xí)B、無監(jiān)督學(xué)習(xí)C、半監(jiān)督學(xué)習(xí)D、以上都不是正確答案:【監(jiān)督學(xué)習(xí)】5、問題:邏輯斯蒂回歸函數(shù)也可被稱為()選項(xiàng):A、對數(shù)幾率回歸(log-oddsregression)B、交叉熵回歸模型C、最大似然估計(jì)回歸模型D、最大后驗(yàn)估計(jì)回歸模型正確答案:【對數(shù)幾率回歸(log-oddsregression)】6、問題:在隱性語義分析中,給定M個(gè)單詞和N個(gè)文檔所構(gòu)成的單詞-文檔矩陣(term-document)矩陣,對其進(jìn)行分解,將單詞或文檔映射到一個(gè)R維的隱性空間。下面描述不正確的是()選項(xiàng):A、這一映射過程中需要利用文檔的類別信息B、單詞和文檔映射到R維隱性空間后,單詞和文檔具有相同的維度C、通過矩陣分解可重建原始單詞-文檔矩陣,所得到的重建矩陣結(jié)果比原始單詞-文檔矩陣更好捕獲了單詞-單詞、單詞-文檔、文檔-文檔之間的隱性關(guān)系D、隱性空間維度的大小由分解過程中所得對角矩陣中對角線上不為零的系數(shù)個(gè)數(shù)所決定正確答案:【這一映射過程中需要利用文檔的類別信息】7、問題:線性區(qū)別分析(lineardiscriminantanalysis,LDA)在進(jìn)行數(shù)據(jù)降維時(shí),原始高維數(shù)據(jù)被映射到低維空間中后需要達(dá)到的優(yōu)化的目標(biāo)是()選項(xiàng):A、既要保證同一類別樣本盡可能靠近,也要保證不同類別樣本盡可能彼此遠(yuǎn)離B、只要保證同一類別樣本盡可能靠近C、只要保證不同類別樣本盡可能彼此遠(yuǎn)離D、既要保證不同類別樣本盡可能靠近,也要保證同一類別樣本盡可能彼此遠(yuǎn)離正確答案:【既要保證同一類別樣本盡可能靠近,也要保證不同類別樣本盡可能彼此遠(yuǎn)離】8、問題:LDA(線性區(qū)別分析)與PCA(主成分分析)均是降維的方法,下面描述不正確的是()選項(xiàng):A、PCA和LDA均是基于監(jiān)督學(xué)習(xí)的降維方法B、PCA對高維數(shù)據(jù)降維后的維數(shù)是與原始數(shù)據(jù)特征維度相關(guān)(與數(shù)據(jù)類別標(biāo)簽無關(guān))C、LDA降維后所得到維度是與數(shù)據(jù)樣本的類別個(gè)數(shù)K有關(guān)(與數(shù)據(jù)本身維度無關(guān))D、假設(shè)原始數(shù)據(jù)一共有K個(gè)類別,那么LDA所得數(shù)據(jù)的降維維度小于或等于K?1正確答案:【PCA和LDA均是基于監(jiān)督學(xué)習(xí)的降維方法】9、問題:邏輯斯蒂回歸和線性區(qū)別分析均可完成分類任務(wù),下面描述正確的是()選項(xiàng):A、邏輯斯蒂回歸可直接在數(shù)據(jù)原始空間進(jìn)行分類,線性區(qū)別分析需要在降維所得空間中進(jìn)行分類B、邏輯斯蒂回歸和線性區(qū)別分析都是直接在數(shù)據(jù)原始空間進(jìn)行分類C、邏輯斯蒂回歸在降維所得空間中進(jìn)行分類,線性區(qū)別分析在數(shù)據(jù)原始空間進(jìn)行分類D、以上都不正確正確答案:【邏輯斯蒂回歸可直接在數(shù)據(jù)原始空間進(jìn)行分類,線性區(qū)別分析需要在降維所得空間中進(jìn)行分類】10、問題:下面對邏輯斯蒂回歸(logisticregression)和多項(xiàng)邏輯斯蒂回歸模型(multi-nominallogisticmodel)描述不正確的是()選項(xiàng):A、邏輯斯帝回歸是監(jiān)督學(xué)習(xí),多項(xiàng)邏輯斯蒂回歸模型是非監(jiān)督學(xué)習(xí)B、兩者都是監(jiān)督學(xué)習(xí)的方法C、多項(xiàng)邏輯斯蒂回歸模型也被稱為softmax函數(shù)D、兩者都可被用來完成多類分類任務(wù)正確答案:【邏輯斯帝回歸是監(jiān)督學(xué)習(xí),多項(xiàng)邏輯斯蒂回歸模型是非監(jiān)督學(xué)習(xí)】第八周測試1、問題:在神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)中,每個(gè)神經(jīng)元會完成若干功能,下面哪個(gè)功能不是神經(jīng)元所能夠完成的功能()選項(xiàng):A、向前序相鄰神經(jīng)元反饋加權(quán)累加信息B、對前序相鄰神經(jīng)元所傳遞信息進(jìn)行加權(quán)累加C、對加權(quán)累加信息進(jìn)行非線性變化(通過激活函數(shù))D、將加權(quán)累加信息向后續(xù)相鄰神經(jīng)元傳遞正確答案:【向前序相鄰神經(jīng)元反饋加權(quán)累加信息】2、問題:下面對前饋神經(jīng)網(wǎng)絡(luò)描述不正確的是()選項(xiàng):A、同一層內(nèi)神經(jīng)元之間存在全連接B、各個(gè)神經(jīng)元接受前一級神經(jīng)元的輸入,并輸出到下一級C、層與層之間通過“全連接”進(jìn)行連接,即兩個(gè)相鄰層之間神經(jīng)元完全成對連接D、同一層內(nèi)的神經(jīng)元相互不連接正確答案:【同一層內(nèi)神經(jīng)元之間存在全連接】3、問題:下面對感知機(jī)網(wǎng)絡(luò)(PerceptronNetworks)描述不正確的是()選項(xiàng):A、感知機(jī)網(wǎng)絡(luò)具有一層隱藏層B、感知機(jī)網(wǎng)絡(luò)是一種特殊的前饋神經(jīng)網(wǎng)絡(luò)C、感知機(jī)網(wǎng)絡(luò)沒有隱藏層D、感知機(jī)網(wǎng)絡(luò)不能擬合復(fù)雜數(shù)據(jù)正確答案:【感知機(jī)網(wǎng)絡(luò)具有一層隱藏層】4、問題:下面對梯度下降方法描述不正確的是()選項(xiàng):A、梯度方向是函數(shù)值下降最快方向B、梯度下降算法是一種使得損失函數(shù)最小化的方法C、梯度反方向是函數(shù)值下降最快方向D、梯度下降算法用來優(yōu)化深度學(xué)習(xí)模型的參數(shù)正確答案:【梯度方向是函數(shù)值下降最快方向】5、問題:下面對誤差反向傳播(errorbackpropagation,BP)描述不正確的是()選項(xiàng):A、在BP算法中,每個(gè)神經(jīng)元單元可包含不可偏導(dǎo)的映射函數(shù)B、BP算法是一種將輸出層誤差反向傳播給隱藏層進(jìn)行參數(shù)更新的方法C、BP算法將誤差從后向前傳遞,獲得各層單元所產(chǎn)生誤差,進(jìn)而依據(jù)這個(gè)誤差來讓各層單元修正各單元參數(shù)D、對前饋神經(jīng)網(wǎng)絡(luò)而言,BP算法可調(diào)整相鄰層神經(jīng)元之間的連接權(quán)重大小正確答案:【在BP算法中,每個(gè)神經(jīng)元單元可包含不可偏導(dǎo)的映射函數(shù)】6、問題:我們可以將深度學(xué)習(xí)看成一種端到端的學(xué)習(xí)方法,這里的端到端指的是()選項(xiàng):A、輸入端-輸出端B、輸入端-中間端C、輸出端-中間端D、中間端-中間端正確答案:【輸入端-輸出端】7、問題:在前饋神經(jīng)網(wǎng)絡(luò)中,誤差后向傳播(BP算法)將誤差從輸出端向輸入端進(jìn)行傳輸?shù)倪^程中,算法會調(diào)整前饋神經(jīng)網(wǎng)絡(luò)的什么參數(shù)()選項(xiàng):A、相鄰層神經(jīng)元和神經(jīng)元之間的連接權(quán)重B、輸入數(shù)據(jù)大小C、神經(jīng)元和神經(jīng)元之間連接有無D、同一層神經(jīng)元之間的連接權(quán)重正確答案:【相鄰層神經(jīng)元和神經(jīng)元之間的連接權(quán)重】8、問題:前饋神經(jīng)網(wǎng)絡(luò)通過誤差后向傳播(BP算法)進(jìn)行參數(shù)學(xué)習(xí),這是一種()機(jī)器學(xué)習(xí)手段選項(xiàng):A、監(jiān)督學(xué)習(xí)B、無監(jiān)督學(xué)習(xí)C、半監(jiān)督學(xué)習(xí)D、無監(jiān)督學(xué)習(xí)和監(jiān)督學(xué)習(xí)的結(jié)合正確答案:【監(jiān)督學(xué)習(xí)】9、問題:下面對前饋神經(jīng)網(wǎng)絡(luò)這種深度學(xué)習(xí)方法描述不正確的是()選項(xiàng):A、隱藏層數(shù)目大小對學(xué)習(xí)性能影響不大B、是一種端到端學(xué)習(xí)的方法C、是一種監(jiān)督學(xué)習(xí)的方法D、實(shí)現(xiàn)了非線性映射正確答案:【隱藏層數(shù)目大小對學(xué)習(xí)性能影響不大】10、問題:下面對淺層學(xué)習(xí)和深度學(xué)習(xí)描述不正確的是()選項(xiàng):A、淺層學(xué)習(xí)僅能實(shí)現(xiàn)線性映射、深度學(xué)習(xí)可以實(shí)現(xiàn)非線性映射B、K-means聚類是一種淺層學(xué)習(xí)方法C、線性回歸分析是一種淺層學(xué)習(xí)方法D、包含了若干隱藏層的前饋神經(jīng)網(wǎng)絡(luò)是一種深度學(xué)習(xí)方法正確答案:【淺層學(xué)習(xí)僅能實(shí)現(xiàn)線性映射、深度學(xué)習(xí)可以實(shí)現(xiàn)非線性映射】第九周測試1、問題:卷積操作是卷積神經(jīng)網(wǎng)絡(luò)所具備的一個(gè)重要功能,對一幅圖像進(jìn)行高斯卷積操作的作用是()選項(xiàng):A、對圖像進(jìn)行平滑(模糊化)B、對圖像進(jìn)行增強(qiáng)C、對圖像進(jìn)行裁剪D、對圖像進(jìn)行分類正確答案:【對圖像進(jìn)行平滑(模糊化)】2、問題:對完成特定任務(wù)的卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練采用的是監(jiān)督學(xué)習(xí)方法。在這個(gè)過程中,通過誤差后向傳播來優(yōu)化調(diào)整網(wǎng)絡(luò)參數(shù),請問下面哪個(gè)參數(shù)不是通過誤差后向傳播來優(yōu)化的()選項(xiàng):A、模型的隱藏層數(shù)目B、卷積濾波矩陣中的參數(shù)C、全連接層的鏈接權(quán)重D、激活函數(shù)中的參數(shù)正確答案:【模型的隱藏層數(shù)目】3、問題:下面哪個(gè)作用是池化(pooling)層所完成的()選項(xiàng):A、下采樣B、圖像增強(qiáng)C、圖像裁剪D、上采樣正確答案:【下采樣】4、問題:假設(shè)我們需要訓(xùn)練一個(gè)卷積神經(jīng)網(wǎng)絡(luò),來完成500種概念的圖像分類。該卷積神經(jīng)網(wǎng)絡(luò)最后一層是分類層,則最后一層輸出向量的維數(shù)大小可能是()選項(xiàng):A、500B、1C、300D、100正確答案:【500】5、問題:下面對Word2Vec描述不正確的是()選項(xiàng):A、詞向量是一種one-hot的單詞表達(dá)形式B、可以根據(jù)某個(gè)單詞的上下文單詞來預(yù)測該單詞,從而訓(xùn)練得到詞向量模型C、可以利用某個(gè)單詞來分別預(yù)測該單詞的上下文單詞,從而訓(xùn)練得到詞向量模型D、詞向量是一種分布式的單詞表達(dá)形式正確答案:【詞向量是一種one-hot的單詞表達(dá)形式】6、問題:前饋神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)的模型學(xué)習(xí)均是通過誤差后向傳播來優(yōu)化模型參數(shù),因此是一種監(jiān)督學(xué)習(xí)方法。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】7、問題:一般而言,在深度學(xué)習(xí)模型中,層數(shù)越多,其完成的非線性映射就越復(fù)雜,因此模型就具有更強(qiáng)的學(xué)習(xí)能力。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】8、問題:與one-hot的單詞表達(dá)不同,在詞向量模型中,單詞和單詞之間的共現(xiàn)關(guān)系被忽略了。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】9、問題:卷積神經(jīng)網(wǎng)絡(luò)一般包括卷積層、池化層、全連接層,一般激活函數(shù)在卷積層后進(jìn)行使用。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】10、問題:在使用卷積神經(jīng)網(wǎng)絡(luò)對圖像分類中,一般將最后一層全連接層(即與輸出層相連的全連接層)的輸出作為每幅圖像的特征表達(dá)。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】第十周測試1、問題:下面對強(qiáng)化學(xué)習(xí)、監(jiān)督學(xué)習(xí)和深度卷積神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)的描述正確的是()選項(xiàng):A、評估學(xué)習(xí)方式、有標(biāo)注信息學(xué)習(xí)方式、端到端學(xué)習(xí)方式B、有標(biāo)注信息學(xué)習(xí)方式、端到端學(xué)習(xí)方式、端到端學(xué)習(xí)方式C、評估學(xué)習(xí)方式、端到端學(xué)習(xí)方式、端到端學(xué)習(xí)方式D、無標(biāo)注學(xué)習(xí)、有標(biāo)注信息學(xué)習(xí)方式、端到端學(xué)習(xí)方式正確答案:【評估學(xué)習(xí)方式、有標(biāo)注信息學(xué)習(xí)方式、端到端學(xué)習(xí)方式】2、問題:在強(qiáng)化學(xué)習(xí)中,通過哪兩個(gè)步驟的迭代,來學(xué)習(xí)得到最佳策略()選項(xiàng):A、策略優(yōu)化與策略評估B、動態(tài)規(guī)劃與Q-LearningC、價(jià)值函數(shù)計(jì)算與動作-價(jià)值函數(shù)計(jì)算D、Q-learning與貪心策略優(yōu)化正確答案:【策略優(yōu)化與策略評估】3、問題:在強(qiáng)化學(xué)習(xí)中,哪個(gè)機(jī)制的引入使得強(qiáng)化學(xué)習(xí)具備了在利用與探索中尋求平衡的能力()選項(xiàng):A、貪心策略B、蒙特卡洛采樣C、動態(tài)規(guī)劃D、Bellman方程正確答案:【貪心策略】4、問題:深度強(qiáng)化學(xué)習(xí)是深度學(xué)習(xí)與強(qiáng)化學(xué)習(xí)的結(jié)合。在深度強(qiáng)化學(xué)習(xí)中,神經(jīng)網(wǎng)絡(luò)被用來進(jìn)行哪個(gè)函數(shù)的學(xué)習(xí)?選項(xiàng):A、q函數(shù)B、貪心策略函數(shù)C、蒙特卡洛采樣函數(shù)D、Bellman方程正確答案:【q函數(shù)】5、問題:與馬爾可夫獎(jiǎng)勵(lì)過程相比,馬爾可夫決策過程引入了哪一個(gè)新的元素()?選項(xiàng):A、動作B、反饋C、終止?fàn)顟B(tài)D、概率轉(zhuǎn)移矩陣正確答案:【動作】6、問題:在本課程所講述的范圍內(nèi),“在狀態(tài)s,選擇一個(gè)動作,使得狀態(tài)s得到最大的反饋期望”,這句話描述了狀態(tài)s的()選項(xiàng):A、策略學(xué)習(xí)與優(yōu)化B、價(jià)值函數(shù)C、動作-價(jià)值函數(shù)D、采樣函數(shù)正確答案:【策略學(xué)習(xí)與優(yōu)化】7、問題:在本課程內(nèi)容范圍內(nèi),“在狀態(tài)s,按照某個(gè)策略行動后在未來所獲得反饋值的期望”,這句話描述了狀態(tài)s的()選項(xiàng):A、價(jià)值函數(shù)B、策略優(yōu)化C、動作-價(jià)值函數(shù)D、采樣函數(shù)正確答案:【價(jià)值函數(shù)】8、問題:在本課程內(nèi)容范圍內(nèi),“在狀態(tài)s,按照某個(gè)策略采取動作a后在未來所獲得反饋值的期望”,這句話描述了狀態(tài)s的()選項(xiàng):A、動作-價(jià)值函數(shù)B、策略優(yōu)化C、價(jià)值函數(shù)D、采樣函數(shù)正確答案:【動作-價(jià)值函數(shù)】9、問題:下面哪句話正確描述了馬爾科夫鏈中定義的馬爾可夫性()選項(xiàng):A、t+1時(shí)刻狀態(tài)取決于t時(shí)刻狀態(tài)B、t-1時(shí)刻狀態(tài)取決于t+1時(shí)刻狀態(tài)C、t+2時(shí)刻狀態(tài)取決于t時(shí)刻狀態(tài)D、t+1時(shí)刻狀態(tài)和t時(shí)刻狀態(tài)相互獨(dú)立正確答案:【t+1時(shí)刻狀態(tài)取決于t時(shí)刻狀態(tài)】10、問題:下面對強(qiáng)化學(xué)習(xí)、有監(jiān)督學(xué)習(xí)和無監(jiān)督學(xué)習(xí)描述正確的是()選項(xiàng):A、都是人工智能的學(xué)習(xí)算法B、都是深度學(xué)習(xí)的學(xué)習(xí)算法C、都需要標(biāo)注數(shù)據(jù)D、都不需要標(biāo)注信息正確答案:【都是人工智能的學(xué)習(xí)算法】11、問題:下面哪一種方法不是通過迭代計(jì)算貝爾曼方程來進(jìn)行策略評估()選項(xiàng):A、深度學(xué)習(xí)B、動態(tài)規(guī)劃C、蒙特卡洛采樣D、時(shí)序差分(TemporalDifference)正確答案:【深度學(xué)習(xí)】第十一周測試1、問題:標(biāo)志著現(xiàn)代博弈理論的初步形成的事件是()選項(xiàng):A、1944年馮·諾伊曼與奧斯卡·摩根斯特恩合著《博弈論與經(jīng)濟(jì)行為》的出版B、納什均衡思想的提出C、囚徒困境思想的提出D、馮·諾伊曼計(jì)算機(jī)的實(shí)現(xiàn)正確答案:【1944年馮·諾伊曼與奧斯卡·摩根斯特恩合著《博弈論與經(jīng)濟(jì)行為》的出版】2、問題:下面對博弈研究分類不正確的是()選項(xiàng):A、囚徒困境與納什均衡B、合作博弈與非合作博弈C、靜態(tài)博弈與動態(tài)博弈D、完全信息博弈與不完全信息博弈正確答案:【囚徒困境與納什均衡】3、問題:囚徒困境是一種()選項(xiàng):A、納什均衡B、最優(yōu)解C、合作博弈D、動態(tài)博弈正確答案:【納什均衡】4、問題:下面對納什均衡描述正確的是()選項(xiàng):A、參與者所作出的這樣一種策略組合,在該策略組合上,任何參與者單獨(dú)改變策略都不會得到好處。B、在一個(gè)策略組合上,當(dāng)所有其他人都改變策略時(shí),也無法破壞先前的博弈平衡,則該策略組合就是一個(gè)納什均衡。C、參與者所作出的這樣一種策略組合,在該策略組合上,有且只有1個(gè)參與者改變策略后,其不會得到好處。D、參與者所作出的這樣一種策略組合,在該策略組合上,有且只有1個(gè)參與者改變策略后,其收益會增加。正確答案:【參與者所作出的這樣一種策略組合,在該策略組合上,任何參與者單獨(dú)改變策略都不會得到好處?!?、問題:下面對混合策略納什均衡描述正確的是()選項(xiàng):A、博弈過程中,博弈方通過概率形式隨機(jī)從可選策略中選擇一個(gè)策略而達(dá)到的納什均衡被稱為混合策略納什均衡。B、博弈過程中,博弈方通過非概率形式隨機(jī)從可選策略中選擇一個(gè)策略而達(dá)到的納什均衡被稱為混合策略納什均衡。C、博弈過程中,博弈方以概率形式隨機(jī)從可選收益中選擇一個(gè)收益,而達(dá)到的納什均衡被稱為混合策略納什均衡。D、博弈過程中,博弈方以非概率形式隨機(jī)從可選收益中選擇一個(gè)收益,而達(dá)到的納什均衡被稱為混合策略納什均衡。正確答案:【博弈過程中,博弈方通過概率形式隨機(jī)從可選策略中選擇一個(gè)策略而達(dá)到的納什均衡被稱為混合策略納什均衡。】6、問題:ε-納什均衡與納什均衡的關(guān)系是()選項(xiàng):A、納什均衡是ε-納什均衡B、ε-納什均衡是納什均衡C、納什均衡不是ε-納什均衡D、納什均衡和ε-納什均衡均是最優(yōu)解正確答案:【納什均衡是ε-納什均衡】7、問題:在遺憾最小化算法中,玩家i按照如下方法來計(jì)算其在每一輪產(chǎn)生的悔恨值()選項(xiàng):A、其他玩家策略不變,只改變玩家i的策略后,所產(chǎn)生的收益之差。B、所有玩家策略均改變,所產(chǎn)生的收益之差。C、至少改變1個(gè)以上玩家的策略,所產(chǎn)生的收益之差。D、每個(gè)玩家策略不變,只改變收益函數(shù),所產(chǎn)生的收益之差。正確答案:【其他玩家策略不變,只改變玩家i的策略后,所產(chǎn)生的收益之差?!?、問題:下面對生成對抗網(wǎng)絡(luò)(GenerativeAdversarialNetwork)描述不正確的是()選項(xiàng):A、GAN是一種區(qū)別學(xué)習(xí)模型。B、GAN是一種生成學(xué)習(xí)模型。C、GAN包含生成網(wǎng)絡(luò)和判別網(wǎng)絡(luò)兩個(gè)網(wǎng)絡(luò)。D、生成網(wǎng)絡(luò)和判別網(wǎng)絡(luò)分別依次迭代優(yōu)化。正確答案:【GAN是一種區(qū)別學(xué)習(xí)模型?!?、問題:在生成對抗網(wǎng)絡(luò)(GenerativeAdversarialNetwork)中,生成網(wǎng)絡(luò)和判別網(wǎng)絡(luò)的功能分別是()選項(xiàng):A、學(xué)習(xí)真實(shí)數(shù)據(jù)的分布/區(qū)別真實(shí)數(shù)據(jù)與合成的虛假數(shù)據(jù)B、學(xué)習(xí)真實(shí)數(shù)據(jù)的標(biāo)簽分布/區(qū)別真實(shí)數(shù)據(jù)與合成的虛假數(shù)據(jù)C、區(qū)別真實(shí)數(shù)據(jù)與合成的虛假數(shù)據(jù)/學(xué)習(xí)真實(shí)數(shù)據(jù)的分布D、區(qū)別真實(shí)數(shù)據(jù)與合成的虛假數(shù)據(jù)/學(xué)習(xí)真實(shí)數(shù)據(jù)的標(biāo)簽分布正確答案:【學(xué)習(xí)真實(shí)數(shù)據(jù)的分布/區(qū)別真實(shí)數(shù)據(jù)與合成的虛假數(shù)據(jù)】10、問題:最佳反應(yīng)策略和納什均衡之間的關(guān)系是()選項(xiàng):A、如果每個(gè)玩家的策略相對于其他玩家的策略而言都是最佳反應(yīng)策略,那么策略組就是一個(gè)納什均衡策略。B、如果每個(gè)玩家的策略相對于其他玩家的策略中至少有一個(gè)是最佳反應(yīng)策略,那么策略組就是一個(gè)納什均衡策略。C、每個(gè)玩家的策略相對于其他玩家的策略而言不少于一個(gè)是最佳反應(yīng)策略,那么策略組就是一個(gè)納什均衡策略。D、至少一個(gè)玩家的策略相對于其他玩家的策略而言都是最佳反應(yīng)策略,那么策略組就是一個(gè)納什均衡策略。正確答案:【如果每個(gè)玩家的策略相對于其他玩家的策略而言都是最佳反應(yīng)策略,那么策略組就是一個(gè)納什均衡策略。】人工智能模型與算法1、問題:標(biāo)志著人工智能走上人類歷史舞臺的事件是()選項(xiàng):A、1955年8月,JohnMcCarthy、MarvinLeeMinsky、ClaudeShannon和NathanielRochester提交了一份題為AProposalfortheDartmouthSummerResearchProjectonArtificialIntelligence(關(guān)于舉辦達(dá)特茅斯人工智能夏季研討會的提議)的報(bào)告中。B、1937年,圖靈發(fā)表了《論數(shù)字計(jì)算在決斷難題中的應(yīng)用》論文,提出了圖靈機(jī)模型。C、圖靈測試模型的提出D、納什均衡思想的提出正確答案:【1955年8月,JohnMcCarthy、MarvinLeeMinsky、ClaudeShannon和NathanielRochester提交了一份題為AProposalfortheDartmouthSummerResearchProjectonArtificialIntelligence(關(guān)于舉辦達(dá)特茅斯人工智能夏季研討會的提議)的報(bào)告中?!?、問題:下面兩個(gè)單詞短語中,前者和后者之間存在真子集關(guān)系的是()選項(xiàng):A、監(jiān)督學(xué)習(xí)、無監(jiān)督學(xué)習(xí)B、監(jiān)督學(xué)習(xí)、機(jī)器學(xué)習(xí)C、人工智能、機(jī)器學(xué)習(xí)D、機(jī)器學(xué)習(xí)、深度學(xué)習(xí)正確答案:【監(jiān)督學(xué)習(xí)、機(jī)器學(xué)習(xí)】3、問題:如果一個(gè)表示蘊(yùn)含關(guān)系的符合命題是真命題(即a-b是真命題),則下面哪個(gè)命題一定是真命題()選項(xiàng):A、該命題的逆否命題B、命題aC、命題bD、該命題的反命題(b-a)正確答案:【該命題的逆否命題】4、問題:在本課程所介紹的貪婪最佳優(yōu)先搜索和A*搜索中,都需要用到的輔助信息是()選項(xiàng):A、任意一個(gè)城市與目標(biāo)城市之間的直線距離B、任意一個(gè)城市與始點(diǎn)城市之間的直線距離C、搜索空間中城市的個(gè)數(shù)D、搜索空間中城市的天氣狀況正確答案:【任意一個(gè)城市與目標(biāo)城市之間的直線距離】5、問題:下面對Alpha-Beta剪枝搜索描述不正確的是()選項(xiàng):A、與minimax搜索算法相比,可減少所搜索的搜索樹節(jié)點(diǎn)數(shù)B、是一種對抗搜索C、搜索樹中節(jié)點(diǎn)的位置先后次序不會影響搜索效率D、被剪枝的節(jié)點(diǎn)不會影響搜索結(jié)果正確答案:【搜索樹中節(jié)點(diǎn)的位置先后次序不會影響搜索效率】6、問題:下面對蒙特卡洛樹搜索描述不正確的是()選項(xiàng):A、是一種基于采樣的搜索方法B、是將上限置信區(qū)間算法(UCB)應(yīng)用于游戲樹的搜索方法C、其包含了選舉、擴(kuò)展、模擬和反向傳播四個(gè)步驟D、是一種窮舉式枚舉的搜索方法正確答案:【是一種窮舉式枚舉的搜索方法】7、問題:下面對期望風(fēng)險(xiǎn)和經(jīng)驗(yàn)風(fēng)險(xiǎn)描述正確的是()選項(xiàng):A、期望風(fēng)險(xiǎn)指模型關(guān)于聯(lián)合分布期望損失,經(jīng)驗(yàn)風(fēng)險(xiǎn)指模型關(guān)于訓(xùn)練樣本集平均損失B、在有監(jiān)督學(xué)習(xí)的訓(xùn)練過程中,經(jīng)驗(yàn)風(fēng)險(xiǎn)小和期望風(fēng)險(xiǎn)大被稱為欠學(xué)習(xí)C、在有監(jiān)督學(xué)習(xí)的訓(xùn)練過程中,經(jīng)驗(yàn)風(fēng)險(xiǎn)大和期望風(fēng)險(xiǎn)大被稱為過學(xué)習(xí)D、經(jīng)驗(yàn)風(fēng)險(xiǎn)指模型關(guān)于聯(lián)合分布期望損失,期望風(fēng)險(xiǎn)指模型關(guān)于訓(xùn)練樣本集平均損失正確答案:【期望風(fēng)險(xiǎn)指模型關(guān)于聯(lián)

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論