人工智能核心算法復(fù)習(xí)題(含答案)_第1頁(yè)
人工智能核心算法復(fù)習(xí)題(含答案)_第2頁(yè)
人工智能核心算法復(fù)習(xí)題(含答案)_第3頁(yè)
人工智能核心算法復(fù)習(xí)題(含答案)_第4頁(yè)
人工智能核心算法復(fù)習(xí)題(含答案)_第5頁(yè)
已閱讀5頁(yè),還剩13頁(yè)未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

人工智能核心算法復(fù)習(xí)題(含答案)

1、SCikit-Learn中,所有的估計(jì)器都實(shí)現(xiàn)了O方法。

A、fit

B、transform

C、predict

D、fit_transform

答案:AC

2、下面關(guān)于隨機(jī)森林和集成學(xué)習(xí)的說(shuō)法,正確的是:

A、隨機(jī)森林只能用于解決分類問(wèn)題

B、隨機(jī)森林由隨機(jī)數(shù)量的決策樹(shù)組成

C、集成學(xué)習(xí)通過(guò)構(gòu)建多個(gè)模型,并將各個(gè)模型的結(jié)果使用求平均數(shù)的方法

集成起來(lái),作為最終的預(yù)測(cè)結(jié)果,提高分類問(wèn)題的準(zhǔn)確率

D、隨機(jī)森林的弱分類器(基分類器)的特征選擇是隨機(jī)的

答案:CD

3、One-hot獨(dú)熱編碼有哪些特點(diǎn)?

A、特征稠密

B、特征稀疏

C、詞之間相互獨(dú)立,沒(méi)有順序關(guān)系

D、不能表征詞與詞之間的關(guān)系,one-hot之間正交

答案:BCD

4、英語(yǔ)重視哪兩個(gè)問(wèn)題的區(qū)分?()

A、謂語(yǔ)與非謂語(yǔ)

B、可數(shù)名詞與不可數(shù)名詞

C、冠詞與數(shù)詞

D、單復(fù)數(shù)

答案:BD

5、針對(duì)聚類的性能度量指標(biāo),說(shuō)法正確的是O

A、Jaccard系數(shù)越大越好

B、DB指數(shù)的值越大越好

C、DUnn指數(shù)的值越大越好

D、Rand系數(shù)越大越好

答案:ACD

6、回歸問(wèn)題的評(píng)估方法包括

A、F值

B、AUC

C、決定系數(shù)

D、均方誤差

答案:CD

7、深度學(xué)習(xí)中以下哪些步驟是由模型自動(dòng)完成的?

A、模型訓(xùn)練

B、特征選擇

C、分析定位任務(wù)

D、特征提取

答案:BD

8、卷積神經(jīng)網(wǎng)絡(luò)中典型的模式是?

A、卷積層后為池化層,然后還是卷積層-池化層。

B、多個(gè)連續(xù)的池化層,然后跟著一個(gè)卷積層

C、網(wǎng)絡(luò)中最后的幾個(gè)層是全連接層

D、網(wǎng)絡(luò)中最開(kāi)始的幾個(gè)層是全連接層

答案:AC

9、在機(jī)器學(xué)習(xí)中,如果單純?nèi)ヌ岣哂?xùn)練數(shù)據(jù)的預(yù)測(cè)能力,所選模型的復(fù)雜

度往往會(huì)很高,這種現(xiàn)象稱為過(guò)擬合對(duì)于產(chǎn)生這種現(xiàn)象以下說(shuō)法正確的是O

A、樣本數(shù)量太少

B、樣本數(shù)量過(guò)多

C、模型太復(fù)雜

D、模型太簡(jiǎn)單

答案:AC

10、關(guān)于謂詞邏輯,下列描述正確的是。

A、緊接于量詞之后被量詞作用的謂詞公式稱為該量詞的轄域

B、在一個(gè)量詞的轄域中與該量詞的指導(dǎo)變?cè)嗤淖冊(cè)Q為約束變?cè)?/p>

C、僅個(gè)體變?cè)涣炕闹^詞成為一階謂詞

D、個(gè)體變?cè)?、函?shù)符號(hào)和謂詞符號(hào)都被量化的謂詞成為二階謂詞

答案:ABCD

11、使用KNN(K-NeareStNeighbor)算法解決分類問(wèn)題的步驟包括

A、對(duì)未知數(shù)據(jù)進(jìn)行正則化

B、計(jì)算未知數(shù)據(jù)與已知標(biāo)簽數(shù)據(jù)之間的距離

C、得到距離未知數(shù)據(jù)最近的k個(gè)已知標(biāo)簽數(shù)據(jù)

D、通過(guò)已知標(biāo)簽數(shù)據(jù)的數(shù)量進(jìn)行多數(shù)表決,作為未知數(shù)據(jù)的分類結(jié)果

答案:BCD

12、k近鄰算法包含哪幾個(gè)要素?

A、距離度量

B、k值選擇

C、分類決策規(guī)則

D、函數(shù)間隔定義

答案:ABC

13、在隨機(jī)森林中,最終的集成模型是通過(guò)什么策略決定模型結(jié)果的?

A、累加制

B、求平均數(shù)

C、投票制

D、累乘制

答案:BC

14、關(guān)于線性回歸說(shuō)法正確的是O

A、輸入特征是非隨機(jī)的且互不相關(guān)的

B、隨機(jī)誤差具有零均值,同方差的特點(diǎn)

C、隨機(jī)誤差彼此間不相關(guān)

D、輸入特征于隨機(jī)誤差不相關(guān)

答案:ABCD

15、神經(jīng)網(wǎng)絡(luò)可以按O

A、學(xué)習(xí)方式分類

B、網(wǎng)絡(luò)結(jié)構(gòu)分類

C、網(wǎng)絡(luò)的協(xié)議類型分類

D、網(wǎng)絡(luò)的活動(dòng)方式分類

答案:ABD

16、配置關(guān)鍵詞時(shí),我們可以按照以下哪個(gè)方法來(lái)進(jìn)行操作?

A、僅配置數(shù)字;

B、僅配置字母;

C、使用核心的詞匯或詞組來(lái)配置

D、針對(duì)任一問(wèn)題來(lái)提取關(guān)鍵詞配置

答案:CD

17、統(tǒng)計(jì)模式分類問(wèn)題中,當(dāng)先驗(yàn)概率未知時(shí),可以使用。

A、最小最大損失準(zhǔn)則

B、最小誤判概率準(zhǔn)則

C、最小損失準(zhǔn)則

D、N-P判決

答案:AD

18、如果深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)出現(xiàn)了梯度消失或梯度爆炸問(wèn)題我們常用的解

決方法為.

A、梯度剪切

B、隨機(jī)欠采樣

C、使用Relu激活函數(shù)

D、正則化

答案:ACD

19、生成對(duì)抗網(wǎng)絡(luò)GAN的基本結(jié)構(gòu)主要包括以下哪些

A、觸發(fā)器

B、生成器

C、判別器

D、聚合器

答案:BC

20、考慮到RNN(或者LSTM,GRU等)類模型只能從()依次計(jì)算或者從()

依次計(jì)算,帶來(lái)了一定的局限性

A、前向后

B、后向前

C、左向右

D、右向左

答案:CD

21、下列哪些項(xiàng)屬于聚類算法?

A、K-means

B、BIRCH

C、SVM

D、DBSCAN

答案:ABD

22、前饋神經(jīng)網(wǎng)絡(luò)由()、()、()構(gòu)成?

A、輸入層

B、隱藏層

C、中間層

D、輸出層

答案:ABD

23、關(guān)于遺傳算法和進(jìn)化策略,下列說(shuō)法正確的是

A、遺傳算法同時(shí)使用交叉和突變操作

B、進(jìn)化策略僅使用交叉操作

C、進(jìn)化策略不需要用編碼的形式來(lái)表示問(wèn)題

D、進(jìn)化策略使用純粹的數(shù)值優(yōu)化計(jì)算

答案:ACD

24、考慮智能體函數(shù)與智能體程序的差異,從下列陳述中選擇正確的答案

A、一個(gè)智能體程序?qū)崿F(xiàn)一個(gè)智能體函數(shù)

B、智能體程序與智能體函數(shù)沒(méi)有任何關(guān)系

C、一個(gè)智能體函數(shù)實(shí)現(xiàn)一個(gè)智能體程序

D、智能體程序包含智能體函數(shù)

答案:AD

25、下列選項(xiàng)屬于靜態(tài)圖缺點(diǎn)的是()

A、代碼編寫較為簡(jiǎn)潔和方便

B、計(jì)算圖構(gòu)建很長(zhǎng)時(shí)間后才提示錯(cuò)誤

C、無(wú)法使用pdb或print語(yǔ)句調(diào)試執(zhí)行

D、控制流與Python不同,造成一定的學(xué)習(xí)門檻

答案:BCD

26、聚類試圖將數(shù)據(jù)集中的樣本劃分為若干個(gè)通常是的子集,

每個(gè)子集稱為一個(gè)“簇”,每個(gè)簇對(duì)應(yīng)一定的概念(如無(wú)籽瓜、淺色瓜等),

這些概念對(duì)聚類算法是的,聚類過(guò)程僅能自動(dòng)形成簇結(jié)構(gòu),簇對(duì)應(yīng)

的概念含義由使用者來(lái)把握和命名。

A、相交

B、不相交

C、事先已知

D、事先未知

答案:BD

27、卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)包括()、()、O0

A、輸入層

B、卷積層

C、隱含層

D、輸出層

答案:ACD

28、關(guān)于感知器,下列說(shuō)法正確的是()

A、感知器由2層神經(jīng)元組成,是一個(gè)單層的前饋神經(jīng)網(wǎng)絡(luò)

B、輸入結(jié)點(diǎn)把接收到的值傳送給輸出鏈,不作任何轉(zhuǎn)換

C、輸出結(jié)點(diǎn)計(jì)算輸入的加權(quán)和,加上偏置項(xiàng),根據(jù)結(jié)果的符號(hào)產(chǎn)生輸出

D、訓(xùn)練階段,權(quán)值參數(shù)不斷調(diào)整,直至模型輸出和訓(xùn)練樣例的實(shí)際輸出一

答案:ABD

29、自適應(yīng)神經(jīng)-模糊推理系統(tǒng)(ANFIS)可以表達(dá)成包括6個(gè)層的神經(jīng)網(wǎng)

絡(luò),包括以下?

A、歸一化層

B、去模糊化層

C、總結(jié)層

D、輸出層

答案:ABC

30、以下屬于AnChOr-free的目標(biāo)檢測(cè)模型有?

A、CornerNet

B、PANet

C、FCOS

D、CenterNet

答案:ACD

31、支持向量機(jī)的求解通常是借助于凸優(yōu)化技術(shù),針對(duì)線性核SVM來(lái)說(shuō),

主要的求解提升效率方法為(一)O

A、割平面法

B、隨機(jī)梯度下降

C、坐標(biāo)下降法

D、快速采樣法

答案:ABC

32、哪些是XGBoost與GBDT相比具有的優(yōu)點(diǎn)?

A、損失函數(shù)是用泰勒展式二項(xiàng)逼近,而GBDT只是一階導(dǎo)數(shù)

B、對(duì)樹(shù)的結(jié)構(gòu)進(jìn)行了正則化約束,防止模型過(guò)度復(fù)雜,降低了過(guò)擬合的可

能性

$節(jié)點(diǎn)分裂的方式不同,GBDT是用的基尼系數(shù),XGB。OSt是經(jīng)過(guò)優(yōu)化推導(dǎo)后

C、XGBOoSt使用網(wǎng)格搜索,只能檢測(cè)有限個(gè)值

答案:ABC

33、屬于卷積神經(jīng)網(wǎng)絡(luò)(CNN)的有()。

A、VGGNet

B、ResNet

C、AlexNet

D、GoogleNet

答案:ABCD

34、分類問(wèn)題的評(píng)估方法包括

A、正確率

B、精確率

C、召回率

D、均方誤差

答案:ABC

35、下列哪些組件是ReSnet通常不包括的O

A、殘差連接

B、卷積單元

C、循環(huán)連接

D、Attention模塊

答案:CD

36、以下方法不需要目標(biāo)向量的是()

A、特征選擇嵌入法

B、無(wú)監(jiān)督學(xué)習(xí)

C、監(jiān)督學(xué)習(xí)

D、特征選擇過(guò)濾法

答案:BD

37、關(guān)于學(xué)習(xí)率初始值設(shè)定描述正確的是。?以下()數(shù)值適合作為學(xué)

習(xí)率的初始值?

A、學(xué)習(xí)率是網(wǎng)絡(luò)自己學(xué)習(xí)得到的

B、學(xué)習(xí)率是根據(jù)不同場(chǎng)景,人為設(shè)定的

C、5e-08

D、0.005

答案:BD

38、決策樹(shù)的生成是一個(gè)遞歸過(guò)程.在決策樹(shù)基本算法中導(dǎo)致遞歸返回的情

況包括O

A、當(dāng)前屬性集為空,無(wú)法劃分

B、當(dāng)前結(jié)點(diǎn)包含的樣本全屬于同一類別,無(wú)需劃分

C、所有樣本在所有屬性上取值相同,無(wú)法劃分

D、當(dāng)前結(jié)點(diǎn)包含的樣本集合為空,不能劃分

答案:ABCD

39、以下關(guān)于機(jī)器學(xué)習(xí)算法與傳統(tǒng)基于規(guī)則方法的區(qū)別中正確的是?

A、傳統(tǒng)的基于規(guī)則的方法,其中的規(guī)律可以人工顯性的明確出來(lái)

B、傳統(tǒng)基于規(guī)則的方法使用顯性編程來(lái)解決問(wèn)題

C、機(jī)器學(xué)習(xí)中模型的映射關(guān)系是自動(dòng)學(xué)習(xí)的

D、機(jī)器學(xué)習(xí)所中模型的映射關(guān)系必須是隱性的

答案:ABC

40在SkiP-gram的實(shí)際實(shí)現(xiàn)中,VOCab_size通常很大,導(dǎo)致W非常大。

為了緩解這個(gè)問(wèn)題,通常采取。的方式來(lái)近似模擬()任務(wù)。

A、正采樣

B、負(fù)采樣

C、多分類

D、單分類

答案:BC

41、在訓(xùn)練神經(jīng)網(wǎng)絡(luò)來(lái)學(xué)習(xí)分類任務(wù)前,應(yīng)優(yōu)先考慮()問(wèn)題。

A、確定輸入層和輸出層的結(jié)點(diǎn)數(shù)目。

B、選擇網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu)

C、初始化權(quán)值和偏置

D、去掉有遺漏值的訓(xùn)練樣例,或用最合理的值來(lái)代替

答案:ABCD

42、WordEmbedding,是一種高效的從原始語(yǔ)料中學(xué)習(xí)字詞空間向量的預(yù)測(cè)

模型。分為()兩種形式。

A、CBOW

B、Skip-Gram

C、BBP

D、BPNM

答案:AB

43、哪些屬于生成式對(duì)抗網(wǎng)絡(luò)模塊

A、生成模型

B、對(duì)抗模型

C、判別模型

D、回歸模型

答案:AC

44、已知4個(gè)樣本的實(shí)際類別分別是[0,0,1,1],聚類結(jié)果是

[1,0,0,0],JaCCard系數(shù)為(),Rand指數(shù)為()

A、0.25

B、0.5

C、O.75

D、1

答案:AB

45、對(duì)股票漲跌方向的判斷,理論上下列哪些方法是可行的?。

A、SVM

B、DBSCAN

C、FP-growth

D、決策樹(shù)

答案:AD

46、對(duì)于以下幾種性能度量指標(biāo),屬于外部度量的是()

A、Jaccard系數(shù)

B、FM指數(shù)

C、DB指數(shù)

D、Dunn指數(shù)

答案:AB

47、在神經(jīng)網(wǎng)絡(luò)中常有權(quán)重共享現(xiàn)象,以下哪些神經(jīng)網(wǎng)絡(luò)會(huì)發(fā)生權(quán)重共享?

A、感知器

B、卷積神經(jīng)網(wǎng)絡(luò)

C、全連接神經(jīng)網(wǎng)絡(luò)

D、循環(huán)神經(jīng)網(wǎng)絡(luò)

答案:BD

48、在深度學(xué)習(xí)中,常用的損失函數(shù)有O

A、平方損失函數(shù)

B、交叉燧損失函數(shù)

C、原型損失函數(shù)

D、累加合損失函數(shù)

答案:AB

49、關(guān)于Bagging集成方法說(shuō)法正確的是()

A、訓(xùn)練一個(gè)Bagging集成與直接使用基學(xué)習(xí)算法訓(xùn)練一個(gè)學(xué)習(xí)器的復(fù)雜度

同階,因此Bagging是一個(gè)很高效的集成學(xué)習(xí)算法

B、為處理多分類或回歸任務(wù),Bagging需進(jìn)行修改

C、從偏差-方差分解的角度看,Bagging主要關(guān)注降低偏差

D、Bagging的性能依賴于基分類器的穩(wěn)定性。

答案:AD

50、如何使featuremap尺寸變大?

A、ur?-sampling

B、Transpose-Conv

C、un-pooling

D、conv

答案:ABC

51、不確定性類型按性質(zhì)可分哪些?

A、隨機(jī)性

B、模糊性

C、不完全性

D、不一致性

答案:ABCD

52、k-means算法的典型計(jì)算步驟包括

A、從數(shù)據(jù)點(diǎn)中隨機(jī)選擇數(shù)量與簇的數(shù)量相同的數(shù)據(jù)點(diǎn),作為這些簇的重心

B、計(jì)算數(shù)據(jù)點(diǎn)與各重心之間的距離,并將最近的重心所在的簇作為該數(shù)據(jù)

點(diǎn)所屬的簇

C、計(jì)算每個(gè)簇的數(shù)據(jù)點(diǎn)到重心距離的平均值,并將其作為新的重心

D、重復(fù)步驟2與步驟3,繼續(xù)計(jì)算,直到所有數(shù)據(jù)點(diǎn)不改變所屬的簇,或

達(dá)到計(jì)算最大次數(shù)

答案:ABCD

53、關(guān)于支持向量機(jī),哪項(xiàng)說(shuō)法正確?

A、支持向量機(jī)可以用于處理二分類及多分類問(wèn)題

B、支持向量機(jī)只能用于線性可分的分類問(wèn)題

C、支持向量機(jī)可用于回歸問(wèn)題

D、核函數(shù)的選擇對(duì)支持向量機(jī)的性能影響較大

答案:ACD

54、卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)上的三大特性包括O

A、局部連接

B、權(quán)重共享

C、下采樣

D、歸一化

答案:ABC

55、深度學(xué)習(xí)的訓(xùn)練過(guò)程包括:自下而上的()和自頂向下的Oo

A、無(wú)監(jiān)督學(xué)習(xí)

B、監(jiān)督學(xué)習(xí)

C、強(qiáng)化學(xué)習(xí)

D、半監(jiān)督學(xué)習(xí)

答案:AB

56、數(shù)據(jù)不平衡問(wèn)題由于數(shù)據(jù)分布不平衡造成的,解決方法如下O

A、對(duì)小樣本加噪聲采樣

B、對(duì)大樣本進(jìn)行下采樣

C、進(jìn)行特殊的加權(quán)

D、采用對(duì)不平衡數(shù)據(jù)集不敏感的算法

答案:ABCD

57、以下說(shuō)法正確的是()。

A、聚類是監(jiān)督學(xué)習(xí)

B、聚類是非監(jiān)督學(xué)習(xí)

C、分類是非監(jiān)督學(xué)習(xí)

D、分類是監(jiān)督學(xué)習(xí)

答案:BD

58、常用的聚類模型評(píng)價(jià)指標(biāo)包括

A、調(diào)整蘭德系數(shù)

B、輪廓系數(shù)

C、基尼系數(shù)

D、Jaccard系數(shù)

答案:ABD

59、以下屬于現(xiàn)有的文本情感分析的途徑的是。

A、關(guān)鍵詞識(shí)別

B、詞匯關(guān)聯(lián)

C、統(tǒng)計(jì)方法

D、概念級(jí)技術(shù)

答案:ABCD

60、關(guān)于線性回歸說(shuō)法正確的是()

A、日常生活中,收入預(yù)測(cè)可以作為線性回歸問(wèn)題來(lái)解決

B、商品庫(kù)存預(yù)測(cè),是一種典型的有監(jiān)督學(xué)習(xí)方法

C、常用的回歸模型有線性回實(shí)用歸和非線性回歸

D、線性回歸是簡(jiǎn)單的方法”

答案:ABCD

61、產(chǎn)生式系統(tǒng)的組成部分包括()

A、狀態(tài)空間

B、綜合數(shù)據(jù)庫(kù)

C、規(guī)則集

D、控制策略

答案:BCD

62、下列哪些部分是專家系統(tǒng)的組成部分?

A、用戶

B、綜合數(shù)據(jù)庫(kù)

C、推理機(jī)

D、知識(shí)庫(kù)

答案:BCD

63、在隨機(jī)森林中,最終的集成模型是通過(guò)什么策略決定模型結(jié)果的?

A、累加制

B、求平均數(shù)

C、投票制

D、累乘制

答案:BC

64、以下術(shù)語(yǔ)中,屬于具有降維特征提取技術(shù)的是:

A、PCA

B、KPCA

C、ICA

D、RANSAC

答案:ABC

65、線性回歸的基本假設(shè)包括哪個(gè)?

A、隨機(jī)誤差項(xiàng)是一個(gè)期望值為O的隨機(jī)變量

B、對(duì)于解釋變量的所有觀測(cè)值,隨機(jī)誤差項(xiàng)有相同的方差

C、隨機(jī)誤差項(xiàng)彼此相關(guān)

D、解釋變量是確定性變量不是隨機(jī)變量,與隨機(jī)誤差項(xiàng)之間相互獨(dú)立

答案:ABD

66、BERT模型的主要?jiǎng)?chuàng)新點(diǎn)都在pre-train方法上,即用了()和()兩

種方法分別捕捉詞語(yǔ)和句子級(jí)別的representationo

A、MaskedLM

B、MaskedML

C、NextSentencePrediction

D、PreSentencePrediction

答案:AC

67、關(guān)于卷積神經(jīng)網(wǎng)絡(luò)池化層以下描述正確的是?

A、池化操作采用掃描窗口實(shí)現(xiàn)

B、池化層可以起到降維的作用

C、常用的池化方法有最大池化和平均池化

D、經(jīng)過(guò)池化的特征圖像變小了

答案:ABCD

68、計(jì)算智能的主要內(nèi)容包括()

A、神經(jīng)計(jì)算

B、進(jìn)化計(jì)算

C、免疫計(jì)算

D、蟻群算法

答案:AB

69、循環(huán)神經(jīng)網(wǎng)絡(luò)RNN中,常用的激活函數(shù)是()和()。

A、sigmod函數(shù)

B、Relu函數(shù)

C、tanh函數(shù)

D、ELU函數(shù)

答案:AC

70、下列哪些包是圖像處理時(shí)常用的?O

A、numpy

B、opencv

C、gensim

D、matplotlib

答案:ABD

71、下列有關(guān)數(shù)據(jù)歸一化操作的說(shuō)法,正確的有:

A、歸一化的目的是將數(shù)據(jù)限制在一定范圍

B、歸一化后可加快梯度下降求最優(yōu)解的速度

C、邏輯回歸等模型先驗(yàn)假設(shè)數(shù)據(jù)服從正態(tài)分布

答案:ABC

72、關(guān)于樸素貝葉斯分類器說(shuō)法正確的是()。

A、樸素貝葉斯分類器假設(shè)每個(gè)屬性獨(dú)立地對(duì)分類結(jié)果發(fā)生影響

B、面對(duì)孤立的噪聲點(diǎn),樸素貝葉斯分類器是健壯的

C、面對(duì)無(wú)關(guān)屬性,樸素貝葉斯分類器是健壯的

D、相關(guān)屬性可能會(huì)降低樸素貝葉斯分類器的性能

答案:ABCD

73、可以有效解決過(guò)擬合的方法包括()

A、增加樣本數(shù)量

B、增加特征數(shù)量

C、訓(xùn)練更多的迭代次數(shù)

D、采用正則化方法

答案:AD

74^faster-rcnn網(wǎng)絡(luò)每個(gè)位置生成哪幾種比例的anchor?

A、1比2

B、2比1

C、1比1

D、2比2

答案:ABC

75、FaSterRCNN模型相比于FaStR-CNN模型,算法的改進(jìn)主要體現(xiàn)在()

A、提出候選框生成網(wǎng)絡(luò),取代了SelectiveSearch

B、在RPN與最終輸出的兩個(gè)階段,將分類損失和框回歸損失進(jìn)行聯(lián)合后對(duì)

網(wǎng)絡(luò)進(jìn)行優(yōu)化

C、采用ROIPoOIing層,加速特征提取過(guò)程

D、將CNN提取到的特征送入SVM進(jìn)行分類

答案:AB

76、機(jī)器學(xué)習(xí)一般分為()和()。

A、強(qiáng)化學(xué)習(xí)

B、監(jiān)督學(xué)習(xí)

C、非監(jiān)督學(xué)習(xí)

D、深度學(xué)習(xí)

答案:BC

77、采用生理模擬和神經(jīng)計(jì)算方法的人工智能研究被稱為()

A、連接主義

B、邏輯學(xué)派

C、生理學(xué)派

D、符號(hào)主義

答案:AC

78、神經(jīng)網(wǎng)絡(luò)層數(shù)越多,就會(huì)產(chǎn)生什么效果O

A、算法精度提升

B、梯度消失風(fēng)險(xiǎn)越大

C、計(jì)算時(shí)間越長(zhǎng)

D、參數(shù)越多

答案:ΛBCD

79、下列哪些項(xiàng)是構(gòu)建知識(shí)圖譜用到的主要技術(shù)?

A、詞性標(biāo)注

B、實(shí)體鏈接

C、關(guān)系抽取

D、命名實(shí)體識(shí)別

答案:BCD

80、深度學(xué)習(xí)的步驟:()、()、()

A、效果評(píng)估

B、建立模型

C、損失函數(shù)

D、參數(shù)學(xué)習(xí)

答案:BCD

81、下列有監(jiān)督學(xué)習(xí)算法中可解決回歸問(wèn)題的算法包括

A、線性回歸

B、邏輯回歸

C、神經(jīng)網(wǎng)絡(luò)

D、隨機(jī)森林

答案:ACD

82、層次聚類算法中數(shù)據(jù)集的劃分可采用的策略為。

A、“自底向上”的聚合策略

B、“自底向上”的分拆策略

C、“自頂向下”的聚合策略

D、“自頂向下”的分拆策略

答案:AD

83、對(duì)于以下幾種性能度量指標(biāo),屬于內(nèi)部度量的是O

A、Jaccard系數(shù)

B、FM指數(shù)

C、DB指數(shù)

D、Dunn指數(shù)

答案:CD

84、完整的CNN架構(gòu)除了輸入及輸出外還包含哪些層()

A、全連接層

B、隱藏層

C、卷積層

D、池化層

答案:ACD

85、現(xiàn)代的卷積神經(jīng)網(wǎng)絡(luò),常用的模塊包括哪些O

A、多分枝結(jié)構(gòu)

B、殘差連接

C、BatchNormalization

D、Sigmoid激活函數(shù)

答案:ABC

86、下面機(jī)器學(xué)習(xí)算法屬于監(jiān)督學(xué)習(xí)的是()

A、線性回歸

B、K-均值

C、樸素貝葉斯

D、SVM

答案:ACD

87、神經(jīng)元分為三種不同類型的層次:

A、輸入層

B、隱藏層

C、傳輸層

D、輸出層

答案:ABD

88、假設(shè)我們要解決一個(gè)二類分類問(wèn)題,我們已經(jīng)建立好了模型,輸出是0

或1,初始時(shí)設(shè)閾值為0.5,超過(guò)0.5概率估計(jì),就判別為1,否則就判別為0;如果

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論