人工智能核心算法考試題及參考答案1_第1頁(yè)
人工智能核心算法考試題及參考答案1_第2頁(yè)
人工智能核心算法考試題及參考答案1_第3頁(yè)
人工智能核心算法考試題及參考答案1_第4頁(yè)
人工智能核心算法考試題及參考答案1_第5頁(yè)
已閱讀5頁(yè),還剩11頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

人工智能核心算法考試題及參考答案1、在一個(gè)神經(jīng)網(wǎng)絡(luò)中,下面哪種方法可以用來(lái)處理過(guò)擬合?A、DropoutB、分批歸一化BatchNormalizationC、正則化regularizationD、都可以答案:D2、隨機(jī)森林是一種集成學(xué)習(xí)算法,是()算法的具體實(shí)現(xiàn)。A、BoostingB、BaggingC、StackingD、Dropping答案:B3、通過(guò)以下哪些指標(biāo)我們可以在層次聚類中尋找兩個(gè)集群之間的差異?()A、單鏈接B、全鏈接C、均鏈接D、以上都行答案:D4、RNN引入了循環(huán)的概念,但是在實(shí)際過(guò)程中卻出現(xiàn)了初始信息隨時(shí)間消失的題,即長(zhǎng)期依賴(Long-TermDependencies)問(wèn)題,所以引入()。A、CNNB、LSTMC、GRUD、BERT答案:B5、我們想在大數(shù)據(jù)集上訓(xùn)練決策樹(shù),為了減少訓(xùn)練時(shí)間,我們可以A、增加樹(shù)的深度B、增大學(xué)習(xí)率LearninRateC、對(duì)決策樹(shù)模型進(jìn)行預(yù)剪枝D、減少樹(shù)的數(shù)量答案:C6、強(qiáng)化學(xué)習(xí)在每個(gè)時(shí)刻環(huán)境和個(gè)體都會(huì)產(chǎn)生相應(yīng)的交互。個(gè)體可以采取一定的(),這樣的行動(dòng)是施加在環(huán)境中的。A、actionB、rewardC、stateD、agent答案:A7、如果我們用了一個(gè)過(guò)大的學(xué)習(xí)速率會(huì)發(fā)生什么?A、神經(jīng)網(wǎng)絡(luò)會(huì)收斂B、不好說(shuō)C、都不對(duì)D、神經(jīng)網(wǎng)絡(luò)不會(huì)收斂答案:D8、下列關(guān)于K-Means聚類說(shuō)法錯(cuò)誤的是()A、聚類的簇個(gè)數(shù)會(huì)由模型自動(dòng)給出B、可以使用多組隨機(jī)的初始中心點(diǎn)進(jìn)行計(jì)算C、聚類前應(yīng)當(dāng)進(jìn)行維度分析D、聚類前應(yīng)當(dāng)進(jìn)行數(shù)據(jù)標(biāo)準(zhǔn)化答案:A9、下面關(guān)于SVM中核函數(shù)的說(shuō)法正確的是?()A、核函數(shù)將低維空間中的數(shù)據(jù)映射到高維空間B、它是一個(gè)相似度函數(shù)C、A、B都對(duì)D、A、B都不對(duì)答案:C10、在回歸模型中,下列哪一項(xiàng)在權(quán)衡欠擬合(under-fitting)和過(guò)擬合(over-fitting)中影響最大?A、多項(xiàng)式階數(shù)B、更新權(quán)重w時(shí),使用的是矩陣求逆還是梯度下降C、使用常數(shù)項(xiàng)答案:A11、如果處理以下形狀的數(shù)據(jù)時(shí),適宜采用DBSCAN的是A、球形B、SS形C、橢球形D、方形答案:B12、循環(huán)神經(jīng)網(wǎng)絡(luò)(recurrentneuralnetwork,RNN),是一種用于處理具有類似()的數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)。A、網(wǎng)格結(jié)構(gòu)B、數(shù)組結(jié)構(gòu)C、序列結(jié)構(gòu)D、表格結(jié)構(gòu)答案:C13、下列哪一個(gè)不是無(wú)約束算法。A、梯度下降法B、擬牛頓法C、啟發(fā)式優(yōu)化方法D、EM算法答案:D14、哪項(xiàng)技術(shù)在BERT中沒(méi)有使用()A、自注意力B、NormalizationC、全連接D、卷積答案:D15、多分類學(xué)習(xí)中,最經(jīng)典的三種拆分策略不包括()A、一對(duì)一B、一對(duì)其余C、一對(duì)多D、多對(duì)多答案:C16、ResNet從角度改進(jìn)了之前的圖像分類網(wǎng)絡(luò)?A、增加網(wǎng)絡(luò)寬度B、輕量化網(wǎng)絡(luò)模型C、改善網(wǎng)絡(luò)退化現(xiàn)象D、增加網(wǎng)絡(luò)深度答案:C17、以下關(guān)于標(biāo)準(zhǔn)RNN模型,說(shuō)法正確的是?A、不存在一對(duì)一的模型結(jié)構(gòu)B、反向傳播時(shí)不考慮時(shí)間方向C、不存在多對(duì)多的模型結(jié)構(gòu)D、會(huì)出現(xiàn)長(zhǎng)時(shí)間傳輸記憶的信息衰減的問(wèn)題答案:D18、()是一種基于樹(shù)結(jié)構(gòu)進(jìn)行決策的算法。A、軌跡跟蹤B、決策樹(shù)C、數(shù)據(jù)挖掘D、K近鄰算法答案:B19、后剪枝是先從訓(xùn)練集生成一顆完整的決策樹(shù),然后(___)對(duì)非葉結(jié)點(diǎn)進(jìn)行考察。A、自上而下B、在劃分前C、禁止分支展開(kāi)D、自底向上答案:D20、隨著集成中個(gè)體分類器(相互獨(dú)立)數(shù)目T的增大,集成的錯(cuò)誤率將呈(___)_下降,最終趨向于零A、指數(shù)級(jí)B、對(duì)數(shù)級(jí)C、線性級(jí)D、平方級(jí)答案:C21、欠擬合會(huì)出現(xiàn)高()問(wèn)題A、標(biāo)準(zhǔn)差B、方差C、偏差D、平方差答案:C22、生成式方法是直接基于(___)的方法?A、生成式學(xué)習(xí)B、生成式場(chǎng)景C、生成式數(shù)據(jù)D、生成式模型答案:D23、康內(nèi)爾大學(xué)發(fā)表了公平無(wú)偏的排序?qū)W習(xí)模型FairCO,可緩解檢索排序()的問(wèn)題A、抖動(dòng)效應(yīng)B、馬太效應(yīng)C、數(shù)據(jù)溢出D、內(nèi)存不足答案:B24、混沌度(Perplexity)是一種常見(jiàn)的應(yīng)用在使用深度學(xué)習(xí)處理NLP問(wèn)題過(guò)程中的評(píng)估技術(shù),關(guān)于混沌度,哪種說(shuō)法是正確的?A、混沌度沒(méi)什么影響B(tài)、混沌度越低越好C、混沌度越高越好D、混沌度對(duì)于結(jié)果的影響不一定答案:B25、使用一組槽來(lái)描述事件的發(fā)生序列,這種知識(shí)表示法叫做()A、語(yǔ)義網(wǎng)絡(luò)法B、過(guò)程表示法C、劇本表示法D、框架表示法答案:C26、無(wú)監(jiān)督學(xué)習(xí)需要()A、學(xué)習(xí)程序自己形成和評(píng)價(jià)概念,沒(méi)有教師B、學(xué)習(xí)程序在教師監(jiān)督下形成和評(píng)價(jià)概念C、學(xué)習(xí)程序有時(shí)需要教師,有時(shí)不需要教師,以形成和評(píng)價(jià)概念D、以上說(shuō)法都不對(duì)答案:A27、標(biāo)準(zhǔn)循環(huán)神經(jīng)網(wǎng)絡(luò)隱含層的輸入對(duì)于網(wǎng)絡(luò)輸出的影響隨時(shí)間A、不斷遞歸而衰退B、不斷遞歸而增強(qiáng)C、先增強(qiáng)后減弱D、先減弱后增強(qiáng)答案:A28、LSTM單元中引入了哪些門(mén)來(lái)更新當(dāng)前時(shí)刻的單元狀態(tài)向量?A、輸入門(mén)、遺忘門(mén)B、任意門(mén)、輸入門(mén)C、輸出門(mén)、任意門(mén)D、遺忘門(mén)、任意門(mén)答案:A29、前饋神經(jīng)網(wǎng)絡(luò)是一種簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò),各神經(jīng)元分層排列,是目前應(yīng)用最廣泛,發(fā)展最迅速的人工神經(jīng)網(wǎng)絡(luò)之一。以下關(guān)于前饋神經(jīng)網(wǎng)絡(luò)說(shuō)法正確的是:A、具備計(jì)算能力的神經(jīng)元與上下兩層相連B、其輸入節(jié)點(diǎn)具備計(jì)算能力C、同一層神經(jīng)元相互連接D、層間信息只沿個(gè)方向傳遞答案:D30、執(zhí)行完語(yǔ)句X_train,X_test,y_train,y_test=train_test_split(...iris.data,iris.target,test_size=0.4,random_state=0),訓(xùn)練集占比多少?A、40%B、50%C、60%D、70%答案:C31、下面算法中哪個(gè)不是回歸算法A、線性回歸B、邏輯回歸C、嶺回歸D、隨機(jī)森林答案:B32、Transformer中拋棄了傳統(tǒng)的CNN和RNN,整個(gè)網(wǎng)絡(luò)結(jié)構(gòu)完全是由()機(jī)制組成。A、ActionB、AttentionC、TransformationD、Information答案:B33、SIFT特征是基于物體上的一些局部外觀的興趣點(diǎn)而與影像的()無(wú)關(guān)。A、大小和旋轉(zhuǎn)B、大小C、旋轉(zhuǎn)D、縮放答案:A34、哪些技術(shù)是RCNN采用而FasterRCNN沒(méi)有用?A、SVM分類B、使用SelectiveSearch輸出候選框C、使用MLP進(jìn)行分類與回歸預(yù)測(cè)D、使用ROIpooling答案:B35、關(guān)于集成學(xué)習(xí),以下說(shuō)法錯(cuò)誤的是A、集成學(xué)習(xí)一定能提升個(gè)體學(xué)習(xí)器的性能B、Bagging方法中,個(gè)體學(xué)習(xí)器之間彼此獨(dú)立C、Boosting是一種重視錯(cuò)誤樣本的學(xué)習(xí)方法D、Boosting方法中,個(gè)體學(xué)習(xí)器存在強(qiáng)依賴答案:A36、下列哪一項(xiàng)在神經(jīng)網(wǎng)絡(luò)中引入了非線性?A、隨機(jī)梯度下降B、修正線性單元(ReLU)C、卷積函數(shù)D、以上都不正確答案:B37、類別不平衡指分類任務(wù)中不同類別的訓(xùn)練樣例數(shù)目(___)的情況。A、沒(méi)有差別B、差別很大C、差別很小D、以上都不正確答案:B38、循環(huán)神經(jīng)網(wǎng)絡(luò)之所以有作用是因?yàn)椋篈、序列中的元素是無(wú)關(guān)的B、序列中的元素蘊(yùn)含著順序的規(guī)律C、序列中的元素都是隨機(jī)出現(xiàn)的D、序列中的元素都來(lái)自同一個(gè)數(shù)據(jù)源答案:B39、下面哪個(gè)/些超參數(shù)的增加可能會(huì)造成隨機(jī)森林?jǐn)?shù)據(jù)過(guò)擬合?1樹(shù)的數(shù)量2樹(shù)的深度3學(xué)習(xí)速率A、只有1B、只有2C、只有3D、都正確答案:B40、關(guān)于Boosting,Bagging和隨機(jī)森林,以下說(shuō)法錯(cuò)誤的是(___)A、從偏差-方差分解的角度看,Boosting主要關(guān)注降低偏差B、從偏差-方差分解的角度看,Bagging主要關(guān)注降低方差C、隨機(jī)森林簡(jiǎn)單、容易實(shí)現(xiàn)、計(jì)算開(kāi)銷小D、Boosting不能基于泛化性能相當(dāng)弱的學(xué)習(xí)器構(gòu)建出很強(qiáng)的集成答案:D41、半監(jiān)督學(xué)習(xí)包括。A、主動(dòng)學(xué)習(xí)B、回歸學(xué)習(xí)C、聚類學(xué)習(xí)D、直推學(xué)習(xí)答案:D42、CRF(條件隨機(jī)場(chǎng))和HMM(隱馬爾可夫模型)之間的主要區(qū)別是什么?A、CRF是生成式的,而HMM是判別式模型B、CRF是判別式模型,HMM是生成式模型。C、CRF和HMM都是生成式模型D、CRF和HMM都是判別式模型。答案:B43、如果我們用了一個(gè)過(guò)大的學(xué)習(xí)速率會(huì)發(fā)生什么?()A、神經(jīng)網(wǎng)絡(luò)會(huì)收斂B、不好說(shuō)C、都不對(duì)D、神經(jīng)網(wǎng)絡(luò)不會(huì)收斂答案:D44、檢索的()和基于反事實(shí)學(xué)習(xí)的檢索和推薦模型已經(jīng)成為信息檢索領(lǐng)域重要的研究方向A、公平性B、真實(shí)性C、快速性D、準(zhǔn)確性答案:A45、測(cè)試集應(yīng)盡可能與訓(xùn)練集(___)。A、相容B、相等C、互斥D、包含答案:C46、線性回歸在3維以上的維度中擬合面是?A、曲面B、平面C、超平面D、超曲面答案:C47、Transformer架構(gòu)首先是由下列哪項(xiàng)引入的?A、GloVeB、BERTC、OpenAI'sGPTD、ULMFit答案:C48、ID3在分類過(guò)程中使用的()A、條件熵B、基尼指數(shù)GiniC、信息增益D、聯(lián)合熵答案:C49、圖像數(shù)字化分為兩個(gè)步驟:一為取樣,二為()。A、數(shù)字化B、量化C、去噪聲D、清洗答案:B50、K折法是下列哪個(gè)函數(shù)?A、RepeatedKFoldB、KFoldC、LeaveOneOut答案:B51、對(duì)于神經(jīng)網(wǎng)絡(luò)的說(shuō)法,下面正確的是()A、增加神經(jīng)網(wǎng)絡(luò)層數(shù),可能會(huì)增加測(cè)試數(shù)據(jù)集的分類錯(cuò)誤率B、減少神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小測(cè)試數(shù)據(jù)集的分類錯(cuò)誤率C、增加神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小訓(xùn)練數(shù)據(jù)集的分類錯(cuò)誤率D、1、2都對(duì)答案:A52、以下對(duì)于標(biāo)稱屬性說(shuō)法不正確的是A、標(biāo)稱屬性的值是一些符號(hào)或事物的名稱,每種值代表某種類別、編碼或狀態(tài)。B、標(biāo)稱值并不具有有意義的順序,且不是定量的C、對(duì)于給定對(duì)象集,找出這些屬性的均值、中值沒(méi)有意義。D、標(biāo)稱屬性通過(guò)將數(shù)值量的值域劃分有限個(gè)有序類別,把數(shù)值屬性離散化得來(lái)。答案:D53、關(guān)于Boltzmann描述錯(cuò)誤的是(___)A、基于能量的模型;B、優(yōu)化目標(biāo)函數(shù)為最小化能力函數(shù);C、分為顯層和隱層;D、神經(jīng)元都是數(shù)值型;答案:D54、循環(huán)神經(jīng)網(wǎng)絡(luò)中,假設(shè)輸入是一個(gè)32*32*3的圖像,3表示RGB三通道,卷積核的結(jié)構(gòu)是5*5*3,共6個(gè)不同的卷積核,一個(gè)卷積核產(chǎn)生一個(gè)featuremap,則輸出的featuremap矩陣的結(jié)構(gòu)是()。A、27*27*3B、28*28*3C、27*27*6D、28*28*6答案:D55、卷積神經(jīng)網(wǎng)絡(luò)(convolu-tionalneuralnetwork,CNN),是一種專門(mén)用來(lái)處理具有類似()的數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)。A、網(wǎng)格結(jié)構(gòu)B、數(shù)組結(jié)構(gòu)C、序列結(jié)構(gòu)D、表格結(jié)構(gòu)答案:A56、人工神經(jīng)網(wǎng)絡(luò)訓(xùn)練的目的就是使得損失函數(shù)最小化。()A、正確B、錯(cuò)誤答案:A57、反演歸結(jié)(消解)證明定理時(shí),若當(dāng)前歸結(jié)式是空子句時(shí),則定理得證。A、正確B、錯(cuò)誤答案:A58、LDA(LatentDirichletAllocation)是一種降維算法,適用于文本建模A、正確B、錯(cuò)誤答案:A59、Self-OrganizingFeatureMap(SOFM)神經(jīng)網(wǎng)絡(luò)可用于聚類。()A、正確B、錯(cuò)誤答案:A60、PSP網(wǎng)絡(luò)獲取上下文信息的關(guān)鍵在于增大感受野A、正確B、錯(cuò)誤答案:A61、循環(huán)神經(jīng)網(wǎng)絡(luò)只能進(jìn)行分類處理A、正確B、錯(cuò)誤答案:B62、DecisionTree中的非葉節(jié)點(diǎn)對(duì)應(yīng)于屬性值。()A、正確B、錯(cuò)誤答案:B63、yoloV3是一種單步法(onestage)目標(biāo)檢測(cè)模型A、正確B、錯(cuò)誤答案:A64、決策樹(shù)分類器的假設(shè)空間VC維可以為無(wú)窮大A、正確B、錯(cuò)誤答案:A65、聚類分析的相異度矩陣是用于存儲(chǔ)所有對(duì)象兩兩之間相異度的矩陣,為一個(gè)nn維的單模矩陣A、正確B、錯(cuò)誤答案:A66、卷積核尺寸一般是奇數(shù)A、正確B、錯(cuò)誤答案:A67、梯度下降算法是最常用也是最有效的神經(jīng)網(wǎng)絡(luò)的優(yōu)化辦法,完全可以滿足不同類型的需求。()A、正確B、錯(cuò)誤答案:B68、Python不允許使用關(guān)鍵字作為變量名,允許使用內(nèi)置函數(shù)名作為變量名,但這會(huì)改變函數(shù)名的含義。A、正確B、錯(cuò)誤答案:A69、Batch歸一化簡(jiǎn)化參數(shù)搜索問(wèn)題。A、正確B、錯(cuò)誤答案:A70、mini-batch太小會(huì)導(dǎo)致收斂變慢A、正確B、錯(cuò)誤答案:A71、卷積的物理意義是:一個(gè)函數(shù)(如:?jiǎn)挝豁憫?yīng))在另一個(gè)函數(shù)(如:輸入信號(hào))上的加權(quán)疊加。A、正確B、錯(cuò)誤答案:A72、損失函數(shù)與模型函數(shù)是一回事A、正確B、錯(cuò)誤答案:B73、FasterRCNN中的ROIpooling,仍能保留pixel-level的輸入輸出對(duì)應(yīng)A、正確B、錯(cuò)誤答案:B74、LR更側(cè)重全局優(yōu)化,而樹(shù)模型主要是局部的優(yōu)化。A、正確B、錯(cuò)誤答案:A75、程序中異常處理結(jié)構(gòu)在大多數(shù)情況下是沒(méi)必要的。A、正確B、錯(cuò)誤答案:B76、對(duì)于計(jì)算機(jī)視覺(jué)問(wèn)題,效果最好的模型是經(jīng)典的全連接神經(jīng)網(wǎng)絡(luò)A、正確B、錯(cuò)誤答案:B77、學(xué)習(xí)率是根據(jù)不同場(chǎng)景人為設(shè)定的A、正確B、錯(cuò)誤答案:A78、由于池化之后特征圖會(huì)變小,如果后面連接的是全連接層,能有效的減小神經(jīng)元的個(gè)數(shù),節(jié)省存儲(chǔ)空間并提高計(jì)算效率A、正確B、錯(cuò)誤答案:A79、神經(jīng)網(wǎng)絡(luò)研究屬于行為主義學(xué)派。A、正確B、錯(cuò)誤答案:B80、監(jiān)督學(xué)習(xí)的數(shù)據(jù)必須要帶標(biāo)簽等人為標(biāo)注信息A、正確B、錯(cuò)誤答案:A81、StateSpace和And/OrGraph只是兩種不同的問(wèn)題表示方法,但其解決問(wèn)題的思路是一樣的。()A、正確B、錯(cuò)誤答案:B82、CNN中常用的正則化手段是dropoutA、正確B、錯(cuò)誤答案:A83、所有的機(jī)器學(xué)習(xí)分類算法都屬于有監(jiān)督方法A、正確B、錯(cuò)誤答案:A84、用多個(gè)小卷積核串聯(lián)可以有大卷積核同樣的能力,2個(gè)3*3卷積核可以代替一個(gè)7*7卷積核,參數(shù)更少;A、正確B、錯(cuò)誤答案:B85、通過(guò)池化操作,必須保證特征損失不能太大。A、正確B、錯(cuò)誤答案:A86、樹(shù)形模型不需要?dú)w一化,它們不關(guān)心變量的值,如決策樹(shù)、隨機(jī)森林(RandomForest)A、正確B、錯(cuò)誤答案:A87、聚類(clustering)是這樣的過(guò)程:它找出描述并區(qū)分?jǐn)?shù)據(jù)類或概念的模型(或函數(shù)),以便能夠使用模型預(yù)測(cè)類標(biāo)記未知的對(duì)象類。A、正確B、錯(cuò)誤答案:B88、數(shù)據(jù)集太小,數(shù)據(jù)樣本不足時(shí),深度學(xué)習(xí)相對(duì)其它機(jī)器學(xué)習(xí)算法,有明顯優(yōu)勢(shì)。A、正確B、錯(cuò)誤答案:B89、數(shù)據(jù)集被劃分成訓(xùn)練集和測(cè)試集,其中訓(xùn)練集用于確定模型的參數(shù),測(cè)試集用于評(píng)判模型的效果A、正確B、錯(cuò)誤答案:A90、啟發(fā)式算法與AlphaBeta剪枝類似,是從葉節(jié)點(diǎn)自底向上計(jì)算估值。()A、正確B、錯(cuò)誤答案:B91、在聚類分析當(dāng)中,MAX(

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論