人工智能核心算法模擬練習(xí)題+參考答案_第1頁(yè)
人工智能核心算法模擬練習(xí)題+參考答案_第2頁(yè)
人工智能核心算法模擬練習(xí)題+參考答案_第3頁(yè)
人工智能核心算法模擬練習(xí)題+參考答案_第4頁(yè)
人工智能核心算法模擬練習(xí)題+參考答案_第5頁(yè)
已閱讀5頁(yè),還剩16頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

人工智能核心算法模擬練習(xí)題+參考答案一、單選題(共44題,每題1分,共44分)1.在不考慮標(biāo)記樣本時(shí),支持向量機(jī)試圖找到(___)間隔劃分超平面A、最小B、最長(zhǎng)C、最短D、最大正確答案:D2.關(guān)于神經(jīng)網(wǎng)絡(luò)中經(jīng)典使用的優(yōu)化器,以下說(shuō)法正確的是?A、Adam的收斂速度比RMSprop慢B、相比于SGD或RMSprop等優(yōu)化器,Adam的收斂效果是最好的C、對(duì)于輕量級(jí)神經(jīng)網(wǎng)絡(luò),使用Adam比使用RMSprop更合適D、相比于Adam或RMSprop等優(yōu)化器,SGD的收斂效果是最好的正確答案:D3.假定你在神經(jīng)網(wǎng)絡(luò)中的隱藏層中使用激活函數(shù)X。在特定神經(jīng)元給定任意輸入,你會(huì)得到輸出「-0.0001」。X可能是以下哪一個(gè)激活函數(shù)?A、ReLUB、tanhC、SIGMOIDD、以上都不是正確答案:B4.關(guān)于boosting下列說(shuō)法錯(cuò)誤的是()A、測(cè)試時(shí),根據(jù)各層分類器的結(jié)果的加權(quán)得到最終結(jié)果。B、boosting方法的主要思想是迭代式學(xué)習(xí)。C、基分類器層層疊加,每一層在訓(xùn)練時(shí),對(duì)前一層基分類器分錯(cuò)的樣本給予更高的權(quán)值。D、訓(xùn)練基分類器時(shí)采用并行的方式。正確答案:D5.下列哪些項(xiàng)目是在圖像識(shí)別任務(wù)中使用的數(shù)據(jù)擴(kuò)增技術(shù)(dataaugmentationtechnique)?1水平翻轉(zhuǎn)(Horizontalflipping)2隨機(jī)裁剪(Randomcropping)3隨機(jī)放縮(Randomscaling)4顏色抖動(dòng)(Colorjittering)5隨機(jī)平移(Randomtranslation)6隨機(jī)剪切(Randomshearing)A、1,3,5,6B、1,2,4C、2,3,4,5,6D、所有項(xiàng)目正確答案:D6.下面哪項(xiàng)操作能實(shí)現(xiàn)跟神經(jīng)網(wǎng)絡(luò)中Dropout的類似效果?()A、BoostingB、BaggingC、StackingD、Mapping正確答案:B7.混淆矩陣中TP=16,FP=12,FN=8,TN=4,準(zhǔn)確率是()。A、1/2B、4/7C、2/3D、1/4正確答案:A8.LSTM是一個(gè)非常經(jīng)典的面向序列的模型,可以對(duì)自然語(yǔ)言句子或是其他時(shí)序信號(hào)進(jìn)行建模,是一種()。A、循環(huán)神經(jīng)網(wǎng)絡(luò)B、樸素貝葉斯C、卷積神經(jīng)網(wǎng)絡(luò)D、深度殘差網(wǎng)絡(luò)正確答案:A9.ROIAlign在哪個(gè)模型被采用()A、fastRCNNB、fasterRCNNC、maskRCNND、YOLOv3正確答案:C10.在分類學(xué)習(xí)中,提升方法通過(guò)反復(fù)修改訓(xùn)練數(shù)據(jù)的(),構(gòu)建一系列基本分類器并將它們線性組合,形成一個(gè)強(qiáng)分類器。A、權(quán)值分布B、方差C、偏差D、采樣樣本正確答案:A11.下面關(guān)于隨機(jī)森林和集成學(xué)習(xí)的說(shuō)法,正確的是()A、隨機(jī)森林只能用于解決分類問(wèn)題B、集成學(xué)習(xí)通過(guò)構(gòu)建多個(gè)模型,并將各個(gè)模型的結(jié)果使用求平均數(shù)的方法集成起來(lái),作為最終的預(yù)測(cè)結(jié)果,提高分類問(wèn)題的準(zhǔn)確率C、隨機(jī)森林由隨機(jī)數(shù)量的決策樹(shù)組成D、隨機(jī)森林的弱分類器(基分類器)的特征選擇不是隨機(jī)的正確答案:B12.下列哪項(xiàng)不屬于集成學(xué)習(xí)A、隨機(jī)森林B、AdaboostC、kNND、XGBoost正確答案:C13.rcnn網(wǎng)絡(luò)用()結(jié)構(gòu)生成候選框?A、RPNB、NMSC、SelectiveSearchD、RCNN正確答案:C14.每一棵決策樹(shù)擬合的是之前迭代得到的模型的()A、標(biāo)準(zhǔn)差B、均方差C、殘差D、方差正確答案:C15.為應(yīng)對(duì)卷積網(wǎng)絡(luò)模型中大量的權(quán)重存儲(chǔ)問(wèn)題,研究人員在適量犧牲精度的基礎(chǔ)上設(shè)計(jì)出一款超輕量化模型()A、KNNB、RNNC、BNND、VGG正確答案:C16.以下關(guān)于算法的說(shuō)法中,不正確的是A、機(jī)器學(xué)習(xí)算法分為有監(jiān)督、半監(jiān)督和無(wú)監(jiān)督三種B、K-Means是屬于無(wú)監(jiān)督學(xué)習(xí)算法C、卷積神經(jīng)網(wǎng)絡(luò)是重要的遷移學(xué)習(xí)算法D、決策樹(shù)算法屬于監(jiān)督學(xué)習(xí)類別正確答案:C17.下面哪個(gè)/些超參數(shù)的增加可能會(huì)造成隨機(jī)森林?jǐn)?shù)據(jù)過(guò)擬合?1樹(shù)的數(shù)量2樹(shù)的深度3學(xué)習(xí)速率A、只有2B、只有1C、都正確D、只有3正確答案:A18.關(guān)于循環(huán)神經(jīng)網(wǎng)絡(luò)以下說(shuō)法錯(cuò)誤的是?A、循環(huán)神經(jīng)網(wǎng)絡(luò)可以簡(jiǎn)寫(xiě)為RNNB、循環(huán)神經(jīng)網(wǎng)絡(luò)可以根據(jù)時(shí)間軸展開(kāi)C、LSTM無(wú)法解決梯度消失的問(wèn)題D、LSTM也是一種循環(huán)神經(jīng)網(wǎng)絡(luò)正確答案:C19.()是一種基于樹(shù)結(jié)構(gòu)進(jìn)行決策的算法。A、K近鄰算法B、決策樹(shù)C、數(shù)據(jù)挖掘D、軌跡跟蹤正確答案:B20.獨(dú)熱編碼的英文是:A、twohotB、onehotC、onecoldD、twocold正確答案:B21.在RNN中,目前使用最廣泛的模型便是()模型,該模型能夠更好地建模長(zhǎng)序列。A、LSMTB、LSTMC、SLMTD、SLTM正確答案:B22.下列關(guān)于特征選擇的說(shuō)法錯(cuò)誤的是(___)A、可以提高特征關(guān)聯(lián)性B、可以降低學(xué)習(xí)任務(wù)的難度C、可以減輕維數(shù)災(zāi)難問(wèn)題D、特征選擇和降維具有相似的動(dòng)機(jī)正確答案:A23.機(jī)器學(xué)習(xí)的算法中,以下哪個(gè)不是無(wú)監(jiān)督學(xué)習(xí)?A、聚類B、GMMC、XgboostD、關(guān)聯(lián)規(guī)則正確答案:C24.閔可夫斯基距離表示為曼哈頓距離時(shí),p為()。A、1B、2C、3D、4正確答案:A25.Boosting的本質(zhì)實(shí)際上是一個(gè)加法模型,通過(guò)改變訓(xùn)練樣本()學(xué)習(xí)多個(gè)分類器并進(jìn)行一些線性組合A、權(quán)重B、分布C、概率D、數(shù)量正確答案:A26.關(guān)于貝葉斯網(wǎng)描述錯(cuò)誤的是(___)A、借助有向無(wú)環(huán)圖刻畫(huà)屬性之間的關(guān)系;B、也稱為信念網(wǎng);C、借助無(wú)向無(wú)環(huán)圖刻畫(huà)屬性之間的關(guān)系;D、用條件概率表來(lái)描述屬性的聯(lián)合概率分布;正確答案:C27.下列關(guān)于隨機(jī)變量的分布函數(shù),分布律,密度函數(shù)的理解描述不正確的是?A、分布律只能描述離散型隨機(jī)變量的取值規(guī)律B、分布函數(shù)描述隨機(jī)變量的取值規(guī)律C、密度函數(shù)只能描述連續(xù)型隨機(jī)變量的取值規(guī)律。D、離散型隨機(jī)變量沒(méi)有分布函數(shù)正確答案:D28.關(guān)于聚類說(shuō)法錯(cuò)誤的是()A、在無(wú)監(jiān)督學(xué)習(xí)任務(wù)中,研究最多、應(yīng)用最廣的是聚類B、聚類可作為一個(gè)單獨(dú)過(guò)程,用于找尋數(shù)據(jù)內(nèi)在的分布結(jié)構(gòu),但不能作為其他學(xué)習(xí)任務(wù)的前驅(qū)過(guò)程C、聚類分析的目標(biāo)是組內(nèi)的對(duì)象之間是相似的,不同組中的對(duì)象是不同的D、組內(nèi)的相似性越大,組間差別越大,聚類就越好正確答案:B29.在ε-greedy策略當(dāng)中,ε的值越大,表示采用隨機(jī)的一個(gè)動(dòng)作的概率越(),采用當(dāng)前Q函數(shù)值最大的動(dòng)作的概率越()。A、小;大B、小;小C、大;小D、大;大正確答案:C30.下列有關(guān)決策樹(shù)說(shuō)法錯(cuò)誤的是A、是一個(gè)分類模型B、是一個(gè)回歸模型C、是一個(gè)監(jiān)督學(xué)習(xí)算法D、主要用來(lái)處理時(shí)間序列數(shù)據(jù)樣本正確答案:D31.神經(jīng)網(wǎng)絡(luò)由許多神經(jīng)元(Neuron)組成,每個(gè)神經(jīng)元接受一個(gè)輸入,對(duì)輸入進(jìn)行處理后給出一個(gè)輸出。請(qǐng)問(wèn)下列關(guān)于神經(jīng)元的描述中,哪一項(xiàng)是正確的?A、上述都正確B、每個(gè)神經(jīng)元可以有一個(gè)輸入和一個(gè)輸出C、每個(gè)神經(jīng)元可以有多個(gè)輸入和多個(gè)輸出D、每個(gè)神經(jīng)元可以有多個(gè)輸入和一個(gè)輸出正確答案:A32.DSSM模型總的來(lái)說(shuō)可以分成哪幾層結(jié)構(gòu),分別是()A、表示層、匹配層B、輸入層、匹配層C、輸入層、表示層D、輸入層、表示層和匹配層。正確答案:D33.下列哪個(gè)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)會(huì)發(fā)生權(quán)重共享?()A、卷積神經(jīng)網(wǎng)絡(luò)B、循環(huán)神經(jīng)網(wǎng)絡(luò)C、全連接神經(jīng)網(wǎng)絡(luò)D、選項(xiàng)A和B正確答案:D34.在主成分分析中,將幾個(gè)主分量經(jīng)過(guò)線性組合構(gòu)造為一個(gè)綜合評(píng)價(jià)函數(shù)時(shí),每個(gè)主分量的權(quán)數(shù)為()。A、每個(gè)主分量的標(biāo)準(zhǔn)差B、每個(gè)主分量的方差貢獻(xiàn)率C、每個(gè)主分量的方差D、每個(gè)主分量的貢獻(xiàn)率正確答案:B35.NaveBayes(樸素貝葉斯)是一種特殊的Bayes分類器,特征變量是X,類別標(biāo)簽是C,它的一個(gè)假定是()A、各類別的先驗(yàn)概率P(C)是相等的B、以0為均值,sqr(2)/2為標(biāo)準(zhǔn)差的正態(tài)分布C、特征變量X的各個(gè)維度是類別條件獨(dú)立隨機(jī)變量D、P(X|C)是高斯分布正確答案:C36.ResNet-50:depth=[3,4,6,3]代表()A、C3有3個(gè)殘差塊B、C4有4個(gè)殘差塊C、C5有4個(gè)殘差塊D、C2有3個(gè)殘差塊正確答案:D37.關(guān)于線性回歸的描述,以下正確的有()A、基本假設(shè)包括隨機(jī)干擾項(xiàng)是均值為0,方差為1的標(biāo)準(zhǔn)正態(tài)分布B、基本假設(shè)包括隨機(jī)干擾項(xiàng)是均值為0的同方差正態(tài)分布C、多重共線性會(huì)使得參數(shù)估計(jì)值方差減小D、基本假設(shè)包括不服從正態(tài)分布的隨機(jī)干擾項(xiàng)正確答案:B38.圖像數(shù)字化分為兩個(gè)步驟:一為取樣,二為()。A、清洗B、數(shù)字化C、量化D、去噪聲正確答案:C39.關(guān)于常用評(píng)分函數(shù)描述錯(cuò)誤的為(___)A、編碼位數(shù)僅為自身所需的編碼位數(shù);B、學(xué)習(xí)目標(biāo)為以最短編碼長(zhǎng)度描述訓(xùn)練數(shù)據(jù)模型;C、學(xué)習(xí)問(wèn)題看做為數(shù)據(jù)壓縮任務(wù);D、基于信息論準(zhǔn)則;正確答案:A40.產(chǎn)生式系統(tǒng)的推理不包括A、雙向推理B、簡(jiǎn)單推理C、正向推理D、逆向推理正確答案:B41.OCR是指對(duì)文本書(shū)面資料(印刷字體、手寫(xiě)字體)的圖像文件進(jìn)行分析識(shí)別處理,獲取文字及版面信息的過(guò)程,其中文全程是()。A、光學(xué)字符識(shí)別B、文字識(shí)別C、字符識(shí)別D、書(shū)面識(shí)別正確答案:A42.下述()不是人工智能中常用的知識(shí)格式化表示方法。A、產(chǎn)生式表示法B、形象描寫(xiě)表示法C、語(yǔ)義網(wǎng)絡(luò)表示法D、框架表示法正確答案:B43.代碼arr3=np.array([[1,2,3],[4,5,6]]).transpose();print(arr3[1,1])的輸出結(jié)果是()?A、4B、5C、3D、2正確答案:B44.下列哪些沒(méi)有使用Anchorbox?()A、FasterRCNNB、YOLOv1C、YOLOv2D、YOLOv3正確答案:B二、多選題(共24題,每題1分,共24分)1.圖像平滑目的是()。A、減小突變梯度;B、突出圖像的窄小區(qū)域C、改善圖像質(zhì)量;D、使圖像亮度平緩漸變;正確答案:ACD2.關(guān)于對(duì)數(shù)幾率回歸,以下說(shuō)法正確的是()A、對(duì)數(shù)幾率回歸是可得到近似概率預(yù)測(cè)B、對(duì)數(shù)幾率回歸是一種分類學(xué)習(xí)方法C、對(duì)數(shù)幾率回歸任意階可導(dǎo)的凸函數(shù)D、對(duì)數(shù)幾率回歸無(wú)需事先假設(shè)數(shù)據(jù)分布正確答案:ABCD3.目標(biāo)檢測(cè)的應(yīng)用場(chǎng)景有()A、廠區(qū)安防B、智慧醫(yī)療C、生產(chǎn)質(zhì)檢D、智慧交通正確答案:ABCD4.以下算法中可以用于圖像處理中去噪的是()。A、中值濾波B、均值濾波C、最小值濾波D、最大值濾波正確答案:ABCD5.以下哪些是屬于深度學(xué)習(xí)算法的激活函數(shù)?A、SinB、TanhC、ReLUD、Sigmoid正確答案:BCD6.下列哪些網(wǎng)用到了殘差連接()A、FastTextB、BERTC、GoogLeNetD、ResNet正確答案:BD7.在隨機(jī)森林中,最終的集成模型是通過(guò)什么策略決定模型結(jié)果的?A、累加制B、求平均數(shù)C、投票制D、累乘制正確答案:BC8.關(guān)于線性回歸說(shuō)法正確的是()A、輸入特征是非隨機(jī)的且互不相關(guān)的B、隨機(jī)誤差具有零均值,同方差的特點(diǎn)C、隨機(jī)誤差彼此間不相關(guān)D、輸入特征于隨機(jī)誤差不相關(guān)正確答案:ABCD9.關(guān)于k折交叉驗(yàn)證,下列說(shuō)法正確的是?A、選擇更大的k值,會(huì)讓偏差更小,因?yàn)閗值越大,訓(xùn)練集越接近整個(gè)訓(xùn)練樣本B、選擇合適的k值,能減小驗(yàn)方差C、k值并不是越大越好,k值過(guò)大,會(huì)降低運(yùn)算速度D、k折交叉驗(yàn)證能夠有效提高模型的學(xué)習(xí)能力正確答案:ABCD10.以下屬于梯度下降的是A、BGDB、SGDC、Mini-BatchD、dropout正確答案:ABC11.在Skip-gram的實(shí)際實(shí)現(xiàn)中,vocab_size通常很大,導(dǎo)致W非常大。為了緩解這個(gè)問(wèn)題,通常采?。ǎ┑姆绞絹?lái)近似模擬()任務(wù)。A、負(fù)采樣B、正采樣C、單分類D、多分類正確答案:AD12.決策樹(shù)分為兩大類()。A、森林B、交叉樹(shù)C、回歸樹(shù)D、分類樹(shù)正確答案:CD13.以下哪些操作常被用于目標(biāo)檢測(cè)的骨干網(wǎng)絡(luò):A、分組卷積B、轉(zhuǎn)置卷積C、池化D、深度可分離卷積正確答案:ACD14.卷積神經(jīng)網(wǎng)絡(luò)中的池化層可以減小下層輸入的尺寸。常見(jiàn)的池化有A、最小地化層B、乘積池化層C、最大池化層D、平均池化層正確答案:CD15.以下哪些機(jī)器學(xué)習(xí)算法可以不對(duì)特征做歸一化處理()A、隨機(jī)森林B、邏輯回歸C、SVMD、GBDT正確答案:AD16.降維的重要特征提取技術(shù)()A、PCAB、KPCAC、ICAD、AA正確答案:ABC17.關(guān)于歸一化描述正確的是()。A、歸一化可以預(yù)防過(guò)擬合B、歸一化沒(méi)有實(shí)質(zhì)作用C、歸一化將所有數(shù)據(jù)樣本之縮放到0-1之間D、歸一化是一種激活函數(shù)正確答案:AC18.強(qiáng)化學(xué)習(xí)中的兩種免模型學(xué)習(xí)是()、()。A、蒙特卡羅強(qiáng)化學(xué)習(xí)B、逆強(qiáng)化學(xué)習(xí)C、時(shí)序差分學(xué)習(xí)D、模仿學(xué)習(xí)正確答案:AC19.神經(jīng)網(wǎng)絡(luò)可以按()A、網(wǎng)絡(luò)的活動(dòng)方式分類B、網(wǎng)絡(luò)的協(xié)議類型分類C、網(wǎng)絡(luò)結(jié)構(gòu)分類D、學(xué)習(xí)方式分類正確答案:ACD20.關(guān)于線性回歸說(shuō)法正確的是()A、日常生活中,收入預(yù)測(cè)可以作為線性回歸問(wèn)題來(lái)解決B、商品庫(kù)存預(yù)測(cè),是一種典型的有監(jiān)督學(xué)習(xí)方法C、線性回歸是簡(jiǎn)單的方法"D、常用的回歸模型有線性回實(shí)用歸和非線性回歸正確答案:ABCD21.下列哪些技術(shù)能被用于計(jì)算兩個(gè)詞向量之間的距離?A、詞形還原(Lemmatization)B、歐氏距離(EuclideanDistance)C、余弦相似度(CosineSimilarity)D、N-grams正確答案:BC22.SVM中常用的核函數(shù)包括哪些?A、高斯核函數(shù)B、線性核函數(shù)C、多項(xiàng)式核函數(shù)D、Sigmiod核函數(shù)正確答案:ABCD23.EM算法每次迭代包括哪些步驟?A、求極大值B、求期望C、求標(biāo)準(zhǔn)差D、求方差正確答案:AB24.如果深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)出現(xiàn)了梯度消失或梯度爆炸問(wèn)題我們常用的解決方法為.A、隨機(jī)欠采樣B、正則化C、使用Relu激活函數(shù)D、梯度剪切正確答案:BCD三、判斷題(共36題,每題1分,共36分)1.感受野是輸出特征圖上的像素點(diǎn)所能感受到的輸入數(shù)據(jù)的范圍A、正確B、錯(cuò)誤正確答案:A2.KNN不需要進(jìn)行訓(xùn)練A、正確B、錯(cuò)誤正確答案:A3.Mapreduce適用于可以串行處理的應(yīng)用程序A、正確B、錯(cuò)誤正確答案:B4.用多個(gè)小卷積核串聯(lián)可以有大卷積核同樣的能力,2個(gè)3*3卷積核可以代替一個(gè)7*7卷積核,參數(shù)更少;A、正確B、錯(cuò)誤正確答案:B5.目標(biāo)檢測(cè)位置的準(zhǔn)確度可以用IOU值評(píng)估,IOU的計(jì)算方法是求檢測(cè)結(jié)果和真實(shí)標(biāo)注的并集和交集的比值。A、正確B、錯(cuò)誤正確答案:B6.可用作數(shù)據(jù)挖掘分析中的關(guān)聯(lián)規(guī)則算法有Apriori算法、FP-Tree算法、K均值法、SOM神經(jīng)網(wǎng)絡(luò)A、正確B、錯(cuò)誤正確答案:B7.正則化是解決過(guò)擬合的方法之一()A、正確B、錯(cuò)誤正確答案:A8.卷積神經(jīng)網(wǎng)絡(luò)的常用模塊包括:卷積、池化、激活函數(shù)、批歸一化、丟棄法A、正確B、錯(cuò)誤正確答案:A9.聚類分析當(dāng)中,簇內(nèi)的相似性越大,簇間的差別越大,聚類的效果就越差A(yù)、正確B、錯(cuò)誤正確答案:B10.()模擬退火算法結(jié)合了爬山法和隨機(jī)行走方法的優(yōu)點(diǎn)。A、正確B、錯(cuò)誤正確答案:A11.embedding就是獨(dú)熱。A、正確B、錯(cuò)誤正確答案:B12.基于規(guī)則的AI系統(tǒng)由一連串的if-then-else規(guī)則來(lái)進(jìn)行推斷或行動(dòng)決策。()A、正確B、錯(cuò)誤正確答案:A13.邏輯回歸是一種用于有監(jiān)督學(xué)習(xí)的回歸任務(wù)的簡(jiǎn)單算法A、正確B、錯(cuò)誤正確答案:B14.一個(gè)循環(huán)神經(jīng)網(wǎng)絡(luò)可以被展開(kāi)成為一個(gè)完全連接的、具有無(wú)限長(zhǎng)度的普通神經(jīng)網(wǎng)絡(luò)A、正確B、錯(cuò)誤正確答案:A15.訓(xùn)練集分割為小一點(diǎn)的子集訓(xùn)練,這些子集被取名為mini-batch。A、正確B、錯(cuò)誤正確答案:A16.廣度優(yōu)先搜索方法的原理是:從樹(shù)的根節(jié)點(diǎn)開(kāi)始,在樹(shù)中一層一層的查找,當(dāng)找到目標(biāo)節(jié)點(diǎn)時(shí),搜索結(jié)束()A、正確B、錯(cuò)誤正確答案:A17.樹(shù)形模型不需要?dú)w一化,它們不關(guān)心變量的值,如決策樹(shù)、隨機(jī)森林(RandomForest)A、正確B、錯(cuò)誤正確答案:A18.由于卷積核比較小,可以堆疊更多的卷積層,加深網(wǎng)絡(luò)的深度,這對(duì)于圖像分類任務(wù)來(lái)說(shuō)是不利的。A、正確B、錯(cuò)誤正確答案:B19.廣度優(yōu)先搜索方法的原理是:從樹(shù)的根節(jié)點(diǎn)開(kāi)始,在樹(shù)中一層一層的查找,當(dāng)找到目標(biāo)節(jié)點(diǎn)時(shí),搜索結(jié)束()。A、正確B、錯(cuò)誤正確答案:A20.數(shù)據(jù)集太小,數(shù)據(jù)樣本不足時(shí),深度學(xué)習(xí)相對(duì)其它機(jī)器學(xué)習(xí)算法,

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論