




版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
人工智能核心算法復(fù)習(xí)題(含答案)
1、SCikit-Learn中,所有的估計(jì)器都實(shí)現(xiàn)了O方法。
A、fit
B、transform
C、predict
D、fit_transform
答案:AC
2、下面關(guān)于隨機(jī)森林和集成學(xué)習(xí)的說(shuō)法,正確的是:
A、隨機(jī)森林只能用于解決分類問(wèn)題
B、隨機(jī)森林由隨機(jī)數(shù)量的決策樹(shù)組成
C、集成學(xué)習(xí)通過(guò)構(gòu)建多個(gè)模型,并將各個(gè)模型的結(jié)果使用求平均數(shù)的方法
集成起來(lái),作為最終的預(yù)測(cè)結(jié)果,提高分類問(wèn)題的準(zhǔn)確率
D、隨機(jī)森林的弱分類器(基分類器)的特征選擇是隨機(jī)的
答案:CD
3、One-hot獨(dú)熱編碼有哪些特點(diǎn)?
A、特征稠密
B、特征稀疏
C、詞之間相互獨(dú)立,沒(méi)有順序關(guān)系
D、不能表征詞與詞之間的關(guān)系,one-hot之間正交
答案:BCD
4、英語(yǔ)重視哪兩個(gè)問(wèn)題的區(qū)分?()
A、謂語(yǔ)與非謂語(yǔ)
B、可數(shù)名詞與不可數(shù)名詞
C、冠詞與數(shù)詞
D、單復(fù)數(shù)
答案:BD
5、針對(duì)聚類的性能度量指標(biāo),說(shuō)法正確的是O
A、Jaccard系數(shù)越大越好
B、DB指數(shù)的值越大越好
C、DUnn指數(shù)的值越大越好
D、Rand系數(shù)越大越好
答案:ACD
6、回歸問(wèn)題的評(píng)估方法包括
A、F值
B、AUC
C、決定系數(shù)
D、均方誤差
答案:CD
7、深度學(xué)習(xí)中以下哪些步驟是由模型自動(dòng)完成的?
A、模型訓(xùn)練
B、特征選擇
C、分析定位任務(wù)
D、特征提取
答案:BD
8、卷積神經(jīng)網(wǎng)絡(luò)中典型的模式是?
A、卷積層后為池化層,然后還是卷積層-池化層。
B、多個(gè)連續(xù)的池化層,然后跟著一個(gè)卷積層
C、網(wǎng)絡(luò)中最后的幾個(gè)層是全連接層
D、網(wǎng)絡(luò)中最開(kāi)始的幾個(gè)層是全連接層
答案:AC
9、在機(jī)器學(xué)習(xí)中,如果單純?nèi)ヌ岣哂?xùn)練數(shù)據(jù)的預(yù)測(cè)能力,所選模型的復(fù)雜
度往往會(huì)很高,這種現(xiàn)象稱為過(guò)擬合對(duì)于產(chǎn)生這種現(xiàn)象以下說(shuō)法正確的是O
A、樣本數(shù)量太少
B、樣本數(shù)量過(guò)多
C、模型太復(fù)雜
D、模型太簡(jiǎn)單
答案:AC
10、關(guān)于謂詞邏輯,下列描述正確的是。
A、緊接于量詞之后被量詞作用的謂詞公式稱為該量詞的轄域
B、在一個(gè)量詞的轄域中與該量詞的指導(dǎo)變?cè)嗤淖冊(cè)Q為約束變?cè)?/p>
C、僅個(gè)體變?cè)涣炕闹^詞成為一階謂詞
D、個(gè)體變?cè)?、函?shù)符號(hào)和謂詞符號(hào)都被量化的謂詞成為二階謂詞
答案:ABCD
11、使用KNN(K-NeareStNeighbor)算法解決分類問(wèn)題的步驟包括
A、對(duì)未知數(shù)據(jù)進(jìn)行正則化
B、計(jì)算未知數(shù)據(jù)與已知標(biāo)簽數(shù)據(jù)之間的距離
C、得到距離未知數(shù)據(jù)最近的k個(gè)已知標(biāo)簽數(shù)據(jù)
D、通過(guò)已知標(biāo)簽數(shù)據(jù)的數(shù)量進(jìn)行多數(shù)表決,作為未知數(shù)據(jù)的分類結(jié)果
答案:BCD
12、k近鄰算法包含哪幾個(gè)要素?
A、距離度量
B、k值選擇
C、分類決策規(guī)則
D、函數(shù)間隔定義
答案:ABC
13、在隨機(jī)森林中,最終的集成模型是通過(guò)什么策略決定模型結(jié)果的?
A、累加制
B、求平均數(shù)
C、投票制
D、累乘制
答案:BC
14、關(guān)于線性回歸說(shuō)法正確的是O
A、輸入特征是非隨機(jī)的且互不相關(guān)的
B、隨機(jī)誤差具有零均值,同方差的特點(diǎn)
C、隨機(jī)誤差彼此間不相關(guān)
D、輸入特征于隨機(jī)誤差不相關(guān)
答案:ABCD
15、神經(jīng)網(wǎng)絡(luò)可以按O
A、學(xué)習(xí)方式分類
B、網(wǎng)絡(luò)結(jié)構(gòu)分類
C、網(wǎng)絡(luò)的協(xié)議類型分類
D、網(wǎng)絡(luò)的活動(dòng)方式分類
答案:ABD
16、配置關(guān)鍵詞時(shí),我們可以按照以下哪個(gè)方法來(lái)進(jìn)行操作?
A、僅配置數(shù)字;
B、僅配置字母;
C、使用核心的詞匯或詞組來(lái)配置
D、針對(duì)任一問(wèn)題來(lái)提取關(guān)鍵詞配置
答案:CD
17、統(tǒng)計(jì)模式分類問(wèn)題中,當(dāng)先驗(yàn)概率未知時(shí),可以使用。
A、最小最大損失準(zhǔn)則
B、最小誤判概率準(zhǔn)則
C、最小損失準(zhǔn)則
D、N-P判決
答案:AD
18、如果深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)出現(xiàn)了梯度消失或梯度爆炸問(wèn)題我們常用的解
決方法為.
A、梯度剪切
B、隨機(jī)欠采樣
C、使用Relu激活函數(shù)
D、正則化
答案:ACD
19、生成對(duì)抗網(wǎng)絡(luò)GAN的基本結(jié)構(gòu)主要包括以下哪些
A、觸發(fā)器
B、生成器
C、判別器
D、聚合器
答案:BC
20、考慮到RNN(或者LSTM,GRU等)類模型只能從()依次計(jì)算或者從()
依次計(jì)算,帶來(lái)了一定的局限性
A、前向后
B、后向前
C、左向右
D、右向左
答案:CD
21、下列哪些項(xiàng)屬于聚類算法?
A、K-means
B、BIRCH
C、SVM
D、DBSCAN
答案:ABD
22、前饋神經(jīng)網(wǎng)絡(luò)由()、()、()構(gòu)成?
A、輸入層
B、隱藏層
C、中間層
D、輸出層
答案:ABD
23、關(guān)于遺傳算法和進(jìn)化策略,下列說(shuō)法正確的是
A、遺傳算法同時(shí)使用交叉和突變操作
B、進(jìn)化策略僅使用交叉操作
C、進(jìn)化策略不需要用編碼的形式來(lái)表示問(wèn)題
D、進(jìn)化策略使用純粹的數(shù)值優(yōu)化計(jì)算
答案:ACD
24、考慮智能體函數(shù)與智能體程序的差異,從下列陳述中選擇正確的答案
A、一個(gè)智能體程序?qū)崿F(xiàn)一個(gè)智能體函數(shù)
B、智能體程序與智能體函數(shù)沒(méi)有任何關(guān)系
C、一個(gè)智能體函數(shù)實(shí)現(xiàn)一個(gè)智能體程序
D、智能體程序包含智能體函數(shù)
答案:AD
25、下列選項(xiàng)屬于靜態(tài)圖缺點(diǎn)的是()
A、代碼編寫較為簡(jiǎn)潔和方便
B、計(jì)算圖構(gòu)建很長(zhǎng)時(shí)間后才提示錯(cuò)誤
C、無(wú)法使用pdb或print語(yǔ)句調(diào)試執(zhí)行
D、控制流與Python不同,造成一定的學(xué)習(xí)門檻
答案:BCD
26、聚類試圖將數(shù)據(jù)集中的樣本劃分為若干個(gè)通常是的子集,
每個(gè)子集稱為一個(gè)“簇”,每個(gè)簇對(duì)應(yīng)一定的概念(如無(wú)籽瓜、淺色瓜等),
這些概念對(duì)聚類算法是的,聚類過(guò)程僅能自動(dòng)形成簇結(jié)構(gòu),簇對(duì)應(yīng)
的概念含義由使用者來(lái)把握和命名。
A、相交
B、不相交
C、事先已知
D、事先未知
答案:BD
27、卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)包括()、()、O0
A、輸入層
B、卷積層
C、隱含層
D、輸出層
答案:ACD
28、關(guān)于感知器,下列說(shuō)法正確的是()
A、感知器由2層神經(jīng)元組成,是一個(gè)單層的前饋神經(jīng)網(wǎng)絡(luò)
B、輸入結(jié)點(diǎn)把接收到的值傳送給輸出鏈,不作任何轉(zhuǎn)換
C、輸出結(jié)點(diǎn)計(jì)算輸入的加權(quán)和,加上偏置項(xiàng),根據(jù)結(jié)果的符號(hào)產(chǎn)生輸出
D、訓(xùn)練階段,權(quán)值參數(shù)不斷調(diào)整,直至模型輸出和訓(xùn)練樣例的實(shí)際輸出一
答案:ABD
29、自適應(yīng)神經(jīng)-模糊推理系統(tǒng)(ANFIS)可以表達(dá)成包括6個(gè)層的神經(jīng)網(wǎng)
絡(luò),包括以下?
A、歸一化層
B、去模糊化層
C、總結(jié)層
D、輸出層
答案:ABC
30、以下屬于AnChOr-free的目標(biāo)檢測(cè)模型有?
A、CornerNet
B、PANet
C、FCOS
D、CenterNet
答案:ACD
31、支持向量機(jī)的求解通常是借助于凸優(yōu)化技術(shù),針對(duì)線性核SVM來(lái)說(shuō),
主要的求解提升效率方法為(一)O
A、割平面法
B、隨機(jī)梯度下降
C、坐標(biāo)下降法
D、快速采樣法
答案:ABC
32、哪些是XGBoost與GBDT相比具有的優(yōu)點(diǎn)?
A、損失函數(shù)是用泰勒展式二項(xiàng)逼近,而GBDT只是一階導(dǎo)數(shù)
B、對(duì)樹(shù)的結(jié)構(gòu)進(jìn)行了正則化約束,防止模型過(guò)度復(fù)雜,降低了過(guò)擬合的可
能性
$節(jié)點(diǎn)分裂的方式不同,GBDT是用的基尼系數(shù),XGB。OSt是經(jīng)過(guò)優(yōu)化推導(dǎo)后
的
C、XGBOoSt使用網(wǎng)格搜索,只能檢測(cè)有限個(gè)值
答案:ABC
33、屬于卷積神經(jīng)網(wǎng)絡(luò)(CNN)的有()。
A、VGGNet
B、ResNet
C、AlexNet
D、GoogleNet
答案:ABCD
34、分類問(wèn)題的評(píng)估方法包括
A、正確率
B、精確率
C、召回率
D、均方誤差
答案:ABC
35、下列哪些組件是ReSnet通常不包括的O
A、殘差連接
B、卷積單元
C、循環(huán)連接
D、Attention模塊
答案:CD
36、以下方法不需要目標(biāo)向量的是()
A、特征選擇嵌入法
B、無(wú)監(jiān)督學(xué)習(xí)
C、監(jiān)督學(xué)習(xí)
D、特征選擇過(guò)濾法
答案:BD
37、關(guān)于學(xué)習(xí)率初始值設(shè)定描述正確的是。?以下()數(shù)值適合作為學(xué)
習(xí)率的初始值?
A、學(xué)習(xí)率是網(wǎng)絡(luò)自己學(xué)習(xí)得到的
B、學(xué)習(xí)率是根據(jù)不同場(chǎng)景,人為設(shè)定的
C、5e-08
D、0.005
答案:BD
38、決策樹(shù)的生成是一個(gè)遞歸過(guò)程.在決策樹(shù)基本算法中導(dǎo)致遞歸返回的情
況包括O
A、當(dāng)前屬性集為空,無(wú)法劃分
B、當(dāng)前結(jié)點(diǎn)包含的樣本全屬于同一類別,無(wú)需劃分
C、所有樣本在所有屬性上取值相同,無(wú)法劃分
D、當(dāng)前結(jié)點(diǎn)包含的樣本集合為空,不能劃分
答案:ABCD
39、以下關(guān)于機(jī)器學(xué)習(xí)算法與傳統(tǒng)基于規(guī)則方法的區(qū)別中正確的是?
A、傳統(tǒng)的基于規(guī)則的方法,其中的規(guī)律可以人工顯性的明確出來(lái)
B、傳統(tǒng)基于規(guī)則的方法使用顯性編程來(lái)解決問(wèn)題
C、機(jī)器學(xué)習(xí)中模型的映射關(guān)系是自動(dòng)學(xué)習(xí)的
D、機(jī)器學(xué)習(xí)所中模型的映射關(guān)系必須是隱性的
答案:ABC
40在SkiP-gram的實(shí)際實(shí)現(xiàn)中,VOCab_size通常很大,導(dǎo)致W非常大。
為了緩解這個(gè)問(wèn)題,通常采取。的方式來(lái)近似模擬()任務(wù)。
A、正采樣
B、負(fù)采樣
C、多分類
D、單分類
答案:BC
41、在訓(xùn)練神經(jīng)網(wǎng)絡(luò)來(lái)學(xué)習(xí)分類任務(wù)前,應(yīng)優(yōu)先考慮()問(wèn)題。
A、確定輸入層和輸出層的結(jié)點(diǎn)數(shù)目。
B、選擇網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu)
C、初始化權(quán)值和偏置
D、去掉有遺漏值的訓(xùn)練樣例,或用最合理的值來(lái)代替
答案:ABCD
42、WordEmbedding,是一種高效的從原始語(yǔ)料中學(xué)習(xí)字詞空間向量的預(yù)測(cè)
模型。分為()兩種形式。
A、CBOW
B、Skip-Gram
C、BBP
D、BPNM
答案:AB
43、哪些屬于生成式對(duì)抗網(wǎng)絡(luò)模塊
A、生成模型
B、對(duì)抗模型
C、判別模型
D、回歸模型
答案:AC
44、已知4個(gè)樣本的實(shí)際類別分別是[0,0,1,1],聚類結(jié)果是
[1,0,0,0],JaCCard系數(shù)為(),Rand指數(shù)為()
A、0.25
B、0.5
C、O.75
D、1
答案:AB
45、對(duì)股票漲跌方向的判斷,理論上下列哪些方法是可行的?。
A、SVM
B、DBSCAN
C、FP-growth
D、決策樹(shù)
答案:AD
46、對(duì)于以下幾種性能度量指標(biāo),屬于外部度量的是()
A、Jaccard系數(shù)
B、FM指數(shù)
C、DB指數(shù)
D、Dunn指數(shù)
答案:AB
47、在神經(jīng)網(wǎng)絡(luò)中常有權(quán)重共享現(xiàn)象,以下哪些神經(jīng)網(wǎng)絡(luò)會(huì)發(fā)生權(quán)重共享?
A、感知器
B、卷積神經(jīng)網(wǎng)絡(luò)
C、全連接神經(jīng)網(wǎng)絡(luò)
D、循環(huán)神經(jīng)網(wǎng)絡(luò)
答案:BD
48、在深度學(xué)習(xí)中,常用的損失函數(shù)有O
A、平方損失函數(shù)
B、交叉燧損失函數(shù)
C、原型損失函數(shù)
D、累加合損失函數(shù)
答案:AB
49、關(guān)于Bagging集成方法說(shuō)法正確的是()
A、訓(xùn)練一個(gè)Bagging集成與直接使用基學(xué)習(xí)算法訓(xùn)練一個(gè)學(xué)習(xí)器的復(fù)雜度
同階,因此Bagging是一個(gè)很高效的集成學(xué)習(xí)算法
B、為處理多分類或回歸任務(wù),Bagging需進(jìn)行修改
C、從偏差-方差分解的角度看,Bagging主要關(guān)注降低偏差
D、Bagging的性能依賴于基分類器的穩(wěn)定性。
答案:AD
50、如何使featuremap尺寸變大?
A、ur?-sampling
B、Transpose-Conv
C、un-pooling
D、conv
答案:ABC
51、不確定性類型按性質(zhì)可分哪些?
A、隨機(jī)性
B、模糊性
C、不完全性
D、不一致性
答案:ABCD
52、k-means算法的典型計(jì)算步驟包括
A、從數(shù)據(jù)點(diǎn)中隨機(jī)選擇數(shù)量與簇的數(shù)量相同的數(shù)據(jù)點(diǎn),作為這些簇的重心
B、計(jì)算數(shù)據(jù)點(diǎn)與各重心之間的距離,并將最近的重心所在的簇作為該數(shù)據(jù)
點(diǎn)所屬的簇
C、計(jì)算每個(gè)簇的數(shù)據(jù)點(diǎn)到重心距離的平均值,并將其作為新的重心
D、重復(fù)步驟2與步驟3,繼續(xù)計(jì)算,直到所有數(shù)據(jù)點(diǎn)不改變所屬的簇,或
達(dá)到計(jì)算最大次數(shù)
答案:ABCD
53、關(guān)于支持向量機(jī),哪項(xiàng)說(shuō)法正確?
A、支持向量機(jī)可以用于處理二分類及多分類問(wèn)題
B、支持向量機(jī)只能用于線性可分的分類問(wèn)題
C、支持向量機(jī)可用于回歸問(wèn)題
D、核函數(shù)的選擇對(duì)支持向量機(jī)的性能影響較大
答案:ACD
54、卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)上的三大特性包括O
A、局部連接
B、權(quán)重共享
C、下采樣
D、歸一化
答案:ABC
55、深度學(xué)習(xí)的訓(xùn)練過(guò)程包括:自下而上的()和自頂向下的Oo
A、無(wú)監(jiān)督學(xué)習(xí)
B、監(jiān)督學(xué)習(xí)
C、強(qiáng)化學(xué)習(xí)
D、半監(jiān)督學(xué)習(xí)
答案:AB
56、數(shù)據(jù)不平衡問(wèn)題由于數(shù)據(jù)分布不平衡造成的,解決方法如下O
A、對(duì)小樣本加噪聲采樣
B、對(duì)大樣本進(jìn)行下采樣
C、進(jìn)行特殊的加權(quán)
D、采用對(duì)不平衡數(shù)據(jù)集不敏感的算法
答案:ABCD
57、以下說(shuō)法正確的是()。
A、聚類是監(jiān)督學(xué)習(xí)
B、聚類是非監(jiān)督學(xué)習(xí)
C、分類是非監(jiān)督學(xué)習(xí)
D、分類是監(jiān)督學(xué)習(xí)
答案:BD
58、常用的聚類模型評(píng)價(jià)指標(biāo)包括
A、調(diào)整蘭德系數(shù)
B、輪廓系數(shù)
C、基尼系數(shù)
D、Jaccard系數(shù)
答案:ABD
59、以下屬于現(xiàn)有的文本情感分析的途徑的是。
A、關(guān)鍵詞識(shí)別
B、詞匯關(guān)聯(lián)
C、統(tǒng)計(jì)方法
D、概念級(jí)技術(shù)
答案:ABCD
60、關(guān)于線性回歸說(shuō)法正確的是()
A、日常生活中,收入預(yù)測(cè)可以作為線性回歸問(wèn)題來(lái)解決
B、商品庫(kù)存預(yù)測(cè),是一種典型的有監(jiān)督學(xué)習(xí)方法
C、常用的回歸模型有線性回實(shí)用歸和非線性回歸
D、線性回歸是簡(jiǎn)單的方法”
答案:ABCD
61、產(chǎn)生式系統(tǒng)的組成部分包括()
A、狀態(tài)空間
B、綜合數(shù)據(jù)庫(kù)
C、規(guī)則集
D、控制策略
答案:BCD
62、下列哪些部分是專家系統(tǒng)的組成部分?
A、用戶
B、綜合數(shù)據(jù)庫(kù)
C、推理機(jī)
D、知識(shí)庫(kù)
答案:BCD
63、在隨機(jī)森林中,最終的集成模型是通過(guò)什么策略決定模型結(jié)果的?
A、累加制
B、求平均數(shù)
C、投票制
D、累乘制
答案:BC
64、以下術(shù)語(yǔ)中,屬于具有降維特征提取技術(shù)的是:
A、PCA
B、KPCA
C、ICA
D、RANSAC
答案:ABC
65、線性回歸的基本假設(shè)包括哪個(gè)?
A、隨機(jī)誤差項(xiàng)是一個(gè)期望值為O的隨機(jī)變量
B、對(duì)于解釋變量的所有觀測(cè)值,隨機(jī)誤差項(xiàng)有相同的方差
C、隨機(jī)誤差項(xiàng)彼此相關(guān)
D、解釋變量是確定性變量不是隨機(jī)變量,與隨機(jī)誤差項(xiàng)之間相互獨(dú)立
答案:ABD
66、BERT模型的主要?jiǎng)?chuàng)新點(diǎn)都在pre-train方法上,即用了()和()兩
種方法分別捕捉詞語(yǔ)和句子級(jí)別的representationo
A、MaskedLM
B、MaskedML
C、NextSentencePrediction
D、PreSentencePrediction
答案:AC
67、關(guān)于卷積神經(jīng)網(wǎng)絡(luò)池化層以下描述正確的是?
A、池化操作采用掃描窗口實(shí)現(xiàn)
B、池化層可以起到降維的作用
C、常用的池化方法有最大池化和平均池化
D、經(jīng)過(guò)池化的特征圖像變小了
答案:ABCD
68、計(jì)算智能的主要內(nèi)容包括()
A、神經(jīng)計(jì)算
B、進(jìn)化計(jì)算
C、免疫計(jì)算
D、蟻群算法
答案:AB
69、循環(huán)神經(jīng)網(wǎng)絡(luò)RNN中,常用的激活函數(shù)是()和()。
A、sigmod函數(shù)
B、Relu函數(shù)
C、tanh函數(shù)
D、ELU函數(shù)
答案:AC
70、下列哪些包是圖像處理時(shí)常用的?O
A、numpy
B、opencv
C、gensim
D、matplotlib
答案:ABD
71、下列有關(guān)數(shù)據(jù)歸一化操作的說(shuō)法,正確的有:
A、歸一化的目的是將數(shù)據(jù)限制在一定范圍
B、歸一化后可加快梯度下降求最優(yōu)解的速度
C、邏輯回歸等模型先驗(yàn)假設(shè)數(shù)據(jù)服從正態(tài)分布
答案:ABC
72、關(guān)于樸素貝葉斯分類器說(shuō)法正確的是()。
A、樸素貝葉斯分類器假設(shè)每個(gè)屬性獨(dú)立地對(duì)分類結(jié)果發(fā)生影響
B、面對(duì)孤立的噪聲點(diǎn),樸素貝葉斯分類器是健壯的
C、面對(duì)無(wú)關(guān)屬性,樸素貝葉斯分類器是健壯的
D、相關(guān)屬性可能會(huì)降低樸素貝葉斯分類器的性能
答案:ABCD
73、可以有效解決過(guò)擬合的方法包括()
A、增加樣本數(shù)量
B、增加特征數(shù)量
C、訓(xùn)練更多的迭代次數(shù)
D、采用正則化方法
答案:AD
74^faster-rcnn網(wǎng)絡(luò)每個(gè)位置生成哪幾種比例的anchor?
A、1比2
B、2比1
C、1比1
D、2比2
答案:ABC
75、FaSterRCNN模型相比于FaStR-CNN模型,算法的改進(jìn)主要體現(xiàn)在()
A、提出候選框生成網(wǎng)絡(luò),取代了SelectiveSearch
B、在RPN與最終輸出的兩個(gè)階段,將分類損失和框回歸損失進(jìn)行聯(lián)合后對(duì)
網(wǎng)絡(luò)進(jìn)行優(yōu)化
C、采用ROIPoOIing層,加速特征提取過(guò)程
D、將CNN提取到的特征送入SVM進(jìn)行分類
答案:AB
76、機(jī)器學(xué)習(xí)一般分為()和()。
A、強(qiáng)化學(xué)習(xí)
B、監(jiān)督學(xué)習(xí)
C、非監(jiān)督學(xué)習(xí)
D、深度學(xué)習(xí)
答案:BC
77、采用生理模擬和神經(jīng)計(jì)算方法的人工智能研究被稱為()
A、連接主義
B、邏輯學(xué)派
C、生理學(xué)派
D、符號(hào)主義
答案:AC
78、神經(jīng)網(wǎng)絡(luò)層數(shù)越多,就會(huì)產(chǎn)生什么效果O
A、算法精度提升
B、梯度消失風(fēng)險(xiǎn)越大
C、計(jì)算時(shí)間越長(zhǎng)
D、參數(shù)越多
答案:ΛBCD
79、下列哪些項(xiàng)是構(gòu)建知識(shí)圖譜用到的主要技術(shù)?
A、詞性標(biāo)注
B、實(shí)體鏈接
C、關(guān)系抽取
D、命名實(shí)體識(shí)別
答案:BCD
80、深度學(xué)習(xí)的步驟:()、()、()
A、效果評(píng)估
B、建立模型
C、損失函數(shù)
D、參數(shù)學(xué)習(xí)
答案:BCD
81、下列有監(jiān)督學(xué)習(xí)算法中可解決回歸問(wèn)題的算法包括
A、線性回歸
B、邏輯回歸
C、神經(jīng)網(wǎng)絡(luò)
D、隨機(jī)森林
答案:ACD
82、層次聚類算法中數(shù)據(jù)集的劃分可采用的策略為。
A、“自底向上”的聚合策略
B、“自底向上”的分拆策略
C、“自頂向下”的聚合策略
D、“自頂向下”的分拆策略
答案:AD
83、對(duì)于以下幾種性能度量指標(biāo),屬于內(nèi)部度量的是O
A、Jaccard系數(shù)
B、FM指數(shù)
C、DB指數(shù)
D、Dunn指數(shù)
答案:CD
84、完整的CNN架構(gòu)除了輸入及輸出外還包含哪些層()
A、全連接層
B、隱藏層
C、卷積層
D、池化層
答案:ACD
85、現(xiàn)代的卷積神經(jīng)網(wǎng)絡(luò),常用的模塊包括哪些O
A、多分枝結(jié)構(gòu)
B、殘差連接
C、BatchNormalization
D、Sigmoid激活函數(shù)
答案:ABC
86、下面機(jī)器學(xué)習(xí)算法屬于監(jiān)督學(xué)習(xí)的是()
A、線性回歸
B、K-均值
C、樸素貝葉斯
D、SVM
答案:ACD
87、神經(jīng)元分為三種不同類型的層次:
A、輸入層
B、隱藏層
C、傳輸層
D、輸出層
答案:ABD
88、假設(shè)我們要解決一個(gè)二類分類問(wèn)題,我們已經(jīng)建立好了模型,輸出是0
或1,初始時(shí)設(shè)閾值為0.5,超過(guò)0.5概率估計(jì),就判別為1,否則就判別為0;如果
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 全包水電合同協(xié)議書范本
- AI語(yǔ)音助手行業(yè)創(chuàng)業(yè)計(jì)劃書
- 天氣課件創(chuàng)意說(shuō)明
- 電鏟大修合同協(xié)議書模板
- 青年文化教育教案
- 榴客商業(yè)計(jì)劃書
- 中國(guó)空氣源熱泵閥件行業(yè)市場(chǎng)前景預(yù)測(cè)及投資價(jià)值評(píng)估分析報(bào)告
- 2025年變壓器用閥門市場(chǎng)調(diào)研報(bào)告
- 業(yè)務(wù)轉(zhuǎn)包合同協(xié)議書
- 員工強(qiáng)制終止合同協(xié)議書
- 2023-2024年整形外科學(xué)(副高)考試參考題庫(kù)(真題考點(diǎn)版)帶答案解析
- 廣東省中山市八年級(jí)下學(xué)期期末考試語(yǔ)文試題
- 【淺析如何將游戲化課程融入幼兒一日活動(dòng)之中2600字】
- 雙減背景下高中語(yǔ)文優(yōu)化作業(yè)設(shè)計(jì)實(shí)踐與研究
- 《企業(yè)財(cái)務(wù)現(xiàn)狀的杜邦分析-以大疆科技為例》開(kāi)題報(bào)告(含提綱)2400字
- 道德與法治六年級(jí)下冊(cè)7《多元文化 多樣魅力》(課件)
- 中醫(yī)治療頸椎病課件完整版
- KJ251煤礦人員定位系統(tǒng)-設(shè)計(jì)方案
- 消防接警調(diào)度崗位理論知識(shí)考試題庫(kù)匯總-上(單選題)
- YS/T 778-2011真空脫脂燒結(jié)爐
- GB/T 15256-1994硫化橡膠低溫脆性的測(cè)定(多試樣法)
評(píng)論
0/150
提交評(píng)論