




版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
PAGEPAGE1《Hadoop數(shù)據(jù)分析與應(yīng)用》復(fù)習(xí)備考試題庫(kù)(附答案)一、單選題1.在啟動(dòng)hadoop集群以后,查看jps進(jìn)程有幾個(gè)?A、3個(gè)B、4個(gè)C、5個(gè)D、6個(gè)答案:D2.yarn-site.xml中參數(shù)和解釋不能對(duì)應(yīng)的是()A、yarn.nodemanager.resource.memory-mb:定義在節(jié)點(diǎn)管理器總的可用資源,以提供給運(yùn)行容器B、yarn.nodemanager.local-dirs:多條存儲(chǔ)路徑可以提高磁盤(pán)的讀寫(xiě)速度C、Yarn.nodemanager.remote-app-log-dir-suffix:匯聚日志的地方,目錄路徑,HDFS系統(tǒng)D、yarn.nodemanager.aux-services:需要設(shè)置的MapReduce的應(yīng)用程序服務(wù)答案:C3.當(dāng)我們使用命令卸載jdk時(shí)直到出現(xiàn)什么提示才算卸載完成()A、SUCCEESSEDB、ectC、pleteD、End答案:C4.在搭建中ZooKeeper運(yùn)行環(huán)境時(shí),首先需要安裝什么運(yùn)行環(huán)境?A、PythonB、CC、JavaD、Linux答案:C5.Hadoopfs中的-get和-put命令操作對(duì)象是A、文件B、目錄C、兩者都是D、以上都不對(duì)答案:C6.關(guān)于MapReduce的描述錯(cuò)誤的是()A、MapReduce框架會(huì)先排序map任務(wù)的輸出B、通常,作業(yè)的輸入輸出都會(huì)被存儲(chǔ)在文件系統(tǒng)中C、通常計(jì)算節(jié)點(diǎn)和存儲(chǔ)節(jié)點(diǎn)是同一節(jié)點(diǎn)D、一個(gè)Task通常會(huì)把輸入集切分成若干獨(dú)立的數(shù)據(jù)塊答案:D7.CentOS7中卸載自帶的jdk使用以下哪個(gè)命令()A、rmp-qu|grepjdkB、rmp-qa|grepjdkC、yum-ydeletejava-1.*D、yum-yremovejava-1.*答案:D8.以下關(guān)于NameNode和DataNode的關(guān)系描述正確的是()A、NameNode是元數(shù)據(jù)節(jié)點(diǎn),其中包含每個(gè)文件、文件位置以及這些文件所在的DataNode內(nèi)的所有數(shù)據(jù)塊的內(nèi)存映射,B、DataNode是元數(shù)據(jù)節(jié)點(diǎn),它為讀寫(xiě)請(qǐng)求提供服務(wù)以及按照NameNode的指令執(zhí)行數(shù)據(jù)塊創(chuàng)建、刪除和復(fù)制。C、NameNode每個(gè)集群節(jié)點(diǎn)上均有一個(gè)從屬的NameNodeD、NameNode和DataNode沒(méi)有任何關(guān)系答案:A9.端口50070默認(rèn)是Hadoop哪個(gè)服務(wù)的端口?()A、NameNodeB、DataNodeC、SecondaryNameNodeD、Yarn.答案:A10.在Hadoop中,下面哪個(gè)是默認(rèn)的InputFormat類型,它將每行內(nèi)容作為新值,而將字節(jié)偏移量作為key()A、FileInputFormatB、TextInputFormatC、KeyValueTextInputFormatD、FileOutFormat答案:B11.SecondaryNameNode是對(duì)主NameNode的一個(gè)補(bǔ)充,他會(huì)定期地執(zhí)行對(duì)HDFS元數(shù)據(jù)的檢查點(diǎn)。當(dāng)前設(shè)計(jì)僅允許每個(gè)HDFS只有()SecondaryNameNode節(jié)點(diǎn)。A、單個(gè)B、兩個(gè)C、三個(gè)D、四個(gè)答案:A12.哪個(gè)模塊負(fù)責(zé)HDFS數(shù)據(jù)的存儲(chǔ)?A、NameNodeB、DataNodeC、ZooKeeperD、JobTracker答案:B13.以下關(guān)于NodeManager描述正確的是()A、NodeManager是ResourceManager在每臺(tái)機(jī)器上的代理,負(fù)責(zé)容器管理;監(jiān)控資源使用情況。B、NodeManager是DataNode在每臺(tái)機(jī)器上的代理,負(fù)責(zé)管理和監(jiān)控資源使用情況。C、NodeManager是負(fù)責(zé)從Scheduler中申請(qǐng)資源,以及跟蹤資源的使用情況D、NodeManager實(shí)現(xiàn)了ApplicationMaster接口,負(fù)責(zé)接收新的任務(wù)。答案:A14.Hadoop2.X的版本中引入了雙namenode的架構(gòu),解決了什么問(wèn)題?A、單點(diǎn)故障。B、多點(diǎn)故障。C、分分布式故障。D、偽分布式故障。答案:A15.Hadoop是一個(gè)用()語(yǔ)言實(shí)現(xiàn)的框架A、C語(yǔ)言B、PythonC、JavaD、R語(yǔ)言答案:C16.搭建好集群過(guò)后,可以輸入那個(gè)地址訪問(wèn)集群的狀況?A、Master機(jī)器上的IP和50070B、Master機(jī)器上的IP和8080C、任意一個(gè)從機(jī)的IP和50070D、任意一個(gè)從機(jī)的IP和8080答案:B17.Hadoop完全分布模式配置免密登錄是要?A、實(shí)現(xiàn)主節(jié)點(diǎn)到其他節(jié)點(diǎn)免密登錄B、實(shí)現(xiàn)從節(jié)點(diǎn)到主節(jié)點(diǎn)的免密登錄C、主節(jié)點(diǎn)和從節(jié)點(diǎn)任意兩個(gè)節(jié)點(diǎn)之間免密登錄D、以上都不是答案:C18.上傳Hadoop壓縮文件到soft目錄下的命令為()A、tar-zxvfsoft/hadoop.2.7.3.tar.gzB、tar-zcvfsoft/hadoop.2.7.3.tar.gzC、tar-zvf/soft/hadoop.2.7.3.tarD、tar-zxvf/soft/hadoop.2.7.3.tar答案:A19.下列關(guān)于OSI網(wǎng)絡(luò)模型說(shuō)法正確的是:A、物理層這一層主要傳輸一些十進(jìn)制數(shù)據(jù)。B、鏈路層主要用于網(wǎng)絡(luò)傳輸。C、網(wǎng)絡(luò)層定義網(wǎng)絡(luò)協(xié)議,通信規(guī)則。D、會(huì)話層管理用戶的會(huì)話,控制用戶間邏輯的建立和中斷。答案:D20.格式化Hadoop的文件系統(tǒng)時(shí),當(dāng)系統(tǒng)提示格式化失敗時(shí),可能出現(xiàn)的情況是()A、.dir和dfs.datanode.data.dir不存在B、.dir和dfs.datanode.data.dir有數(shù)據(jù)C、.dir.file和dfs.datanode.data.dir.file不存在D、.dir.file和dfs.datanode.data.dir.file有數(shù)據(jù)答案:B21.使用哪個(gè)命令可以查看安裝的jdk()A、rpm-qu|grepjdkB、yum-ls|grepjdkC、yum-la|grepjdkD、rpm-qa|grepjdk答案:D22.用什么命令可以將ZooKeeper文件遠(yuǎn)程拷貝到其他機(jī)器?A、spcB、scpC、sendD、post答案:B23.以下哪一項(xiàng)不屬于Hadoop可以運(yùn)行的模式()A、單機(jī)(本地)模式B、偽分布式C、互聯(lián)網(wǎng)模式D、分布式模式答案:C24.ZooKeeper中有一個(gè)觀察節(jié)點(diǎn)的概念,它的作用是什么?A、觀察數(shù)據(jù)的節(jié)點(diǎn)B、收集數(shù)據(jù)的節(jié)點(diǎn)C、指有投票權(quán)的跟隨者。D、指沒(méi)有投票權(quán)的跟隨者。答案:D25.下面屬于Hadoop特點(diǎn)的是()A、低價(jià)值密度B、低吞吐量C、高容錯(cuò)D、高成本答案:C26.QJM在價(jià)格中的作用是作為共享存儲(chǔ)組件,它的作用主要是什么?A、主要解決單點(diǎn)故障。B、實(shí)現(xiàn)主備N(xiāo)ameNode源數(shù)據(jù)的操作信息同步。C、解決網(wǎng)絡(luò)通信問(wèn)題。D、解決數(shù)據(jù)傳輸問(wèn)題。答案:B27.Hadoop的高效性指的是()A、Hadoop能夠自動(dòng)保存數(shù)據(jù)的多個(gè)副本,并且能夠自動(dòng)將失敗的任務(wù)重新啟動(dòng)起來(lái)B、Hadoop能夠在節(jié)點(diǎn)之間動(dòng)態(tài)地移動(dòng)數(shù)據(jù),并保證各個(gè)節(jié)點(diǎn)的動(dòng)態(tài)平衡,因此處理速度非??臁、Hadoop的按位存儲(chǔ)和處理數(shù)據(jù)的能力值得人們信賴D、Hadoop是在可用的計(jì)算機(jī)集簇間分配數(shù)據(jù)并完成計(jì)算任務(wù)答案:B28..MapReduce框架提供了一種序列化鍵/值對(duì)的方法,支持這種序列化的類能夠在Map和Reduce過(guò)程中充當(dāng)鍵或值,以下說(shuō)法錯(cuò)誤的是A、實(shí)現(xiàn)Writable接口的類是值B、實(shí)現(xiàn)Writableparable接口的類可以是值或鍵C、Hadoop的基本類型Text并不實(shí)現(xiàn)Writableparable接口D、鍵和值的數(shù)據(jù)類型可以超出Hadoop自身支持的基本類型答案:C29.關(guān)于mapper類中map方法正確的是A、在MapReduce框架中執(zhí)行一次B、在MapReduce框架中執(zhí)行多次次C、執(zhí)行map任務(wù)時(shí)在進(jìn)行相關(guān)常量工作D、map方法中keyin表示行的文本內(nèi)容答案:B30.哪種場(chǎng)景適用于HDFSA、存儲(chǔ)大量小文件B、實(shí)時(shí)讀取C、需經(jīng)常修改數(shù)據(jù)D、流式讀取答案:D31.下面關(guān)于MapReduce中Drive類說(shuō)法錯(cuò)誤的是?A、Driver類是MapReduce作業(yè)需要的驅(qū)動(dòng)程序B、Driver類沒(méi)有默認(rèn)的父類C、Dirver類實(shí)現(xiàn)的大部分設(shè)置與job對(duì)象操作相關(guān)D、Driver類指數(shù)據(jù)庫(kù)連接驅(qū)動(dòng)答案:D32.DataNode默認(rèn)存放目錄為()A、/opt/hadoop-record/softB、/home/hadoop-record/dataC、/home/hadoop-record/softD、/opt/hadoop-record/data答案:D33.關(guān)于Multiplelnputs說(shuō)法正確的是?A、Multiplelnputs用來(lái)處理簡(jiǎn)單的文件B、Multiplelnputs處理二進(jìn)制文件C、Multiplelnputs用來(lái)處理內(nèi)容、格式不同的文件D、Multiplelnputs對(duì)象在org.apache.hadoop.mapreduce.lib.output包下答案:C34.下面的配置項(xiàng)配置在hadoop哪個(gè)配置文件?hadoop.tmp.dir/opt/temp/data/tmpA、core-site.xmlB、hdfs-site.xmlC、mapred-site.xmlD、yarn-site.xml答案:A35.下列關(guān)于分布式協(xié)調(diào)技術(shù)的說(shuō)明正確的是。A、解決分布式環(huán)境中單個(gè)進(jìn)程的控制。B、進(jìn)程是運(yùn)行在不同的服務(wù)器上。C、讓進(jìn)程有序的去訪問(wèn)某種資源,防止造成臟數(shù)據(jù)。D、讓進(jìn)程有序的去訪問(wèn)資源,達(dá)到數(shù)據(jù)分析。答案:C36.以下不屬于大數(shù)據(jù)時(shí)代呈現(xiàn)的趨勢(shì)的是()A、數(shù)據(jù)資源化將成為最有價(jià)值的資產(chǎn)B、大數(shù)據(jù)在更多傳統(tǒng)行業(yè)的企業(yè)管理落地C、數(shù)據(jù)將越來(lái)越開(kāi)放,數(shù)據(jù)共享聯(lián)盟將出現(xiàn)D、大數(shù)據(jù)安全可能被忽視答案:D37.Mapper排序后的輸出將作為下面哪個(gè)的輸入()A、ReducerB、ShuffleC、SortD、Mapper答案:A38.Hadoop和新架構(gòu)不包括()A、HDFS2B、HIveC、YARND、MapReduce答案:B39.Client在HDFS上進(jìn)行文件寫(xiě)入時(shí),namenode根據(jù)文件大小和配置情況,返回部分datanode信息,誰(shuí)負(fù)責(zé)將文件劃分為多個(gè)Block,根據(jù)DataNode的地址信息,按順序?qū)懭氲矫恳粋€(gè)DataNode塊A、ClientB、NamenodeC、DatanodeD、Secondarynamenode答案:A40.默認(rèn)NameNode周期性從DataNode接收心跳信號(hào)的時(shí)間間隔為A、1sB、2sC、3sD、4s答案:C41.hadoop集群之間的機(jī)器是用過(guò)()協(xié)議來(lái)進(jìn)行通信和協(xié)調(diào)工作的。A、HTTPB、HTTPSC、SSHD、ClientProtocol答案:C42.MapReduce是一種()模型A、面向?qū)ο竽P虰、編程模型C、MVC模型D、面向切面模型答案:B43.下列哪項(xiàng)通常是集群的最主要的瓶頸()A、CPUB、網(wǎng)絡(luò)C、磁盤(pán)IOD、內(nèi)存答案:C44.下列哪項(xiàng)通常是集群的最主要瓶頸A、CPUB、網(wǎng)絡(luò)C、磁盤(pán)IOD、內(nèi)存答案:C45.為了讓集群中的機(jī)器能夠正常通信,所有集群的IP必須設(shè)置成靜態(tài)IP,防止機(jī)器重啟之后而找不到機(jī)器的情況,那么IP地址配置需要修改那個(gè)文件()A、ifcfg-loB、network-functionsC、ifcfg-ens33D、network-functions-ipv6答案:C46.在MapReduce中,Map數(shù)取決于()的總量A、任務(wù)數(shù)B、輸入數(shù)據(jù)C、輸出數(shù)據(jù)D、以上都不對(duì)答案:B47.hdfs-site.xml中參數(shù)和解釋不能對(duì)應(yīng)的是()A、.dir:是本地磁盤(pán)目錄NN存儲(chǔ)的是fsimage文件的地方B、node.handler.coun:t設(shè)置更多的NameNode線程,處理從DataNode發(fā)出的大量RPC請(qǐng)求C、dfs.datanode.data.dir:設(shè)置是本地磁盤(pán)目錄,HDFS數(shù)據(jù)應(yīng)該存儲(chǔ)Block的地方D、dfs.replication:設(shè)置大型文件系統(tǒng)的HDFS的塊大小。答案:D48.下面那個(gè)不屬于全球首次劃分的大數(shù)據(jù)階段()A、大數(shù)據(jù)出現(xiàn)階段B、大數(shù)據(jù)熱門(mén)階段C、大數(shù)據(jù)時(shí)代特征階段D、大數(shù)據(jù)全覆蓋階段答案:D49.shuffle和sort輸出的key實(shí)現(xiàn)了下面哪個(gè)接口()A、WritableB、WritableparableC、ConfigurableD、parableWritable答案:B50.HDFS的Block默認(rèn)保存幾份?A、3B、2C、1D、不確定答案:A51.啟動(dòng)HDFS的命令是()A、start-dfs.shB、Start-yarn.shC、start-hdfs.shD、dfs-start.sh答案:A52.關(guān)于SecondaryNameNode哪項(xiàng)是正確的?A、它是NameNode的熱備B、它對(duì)內(nèi)存沒(méi)有要求C、它的目的是幫助NameNode合并編輯日志,減少NameNode啟動(dòng)時(shí)間D、SecondaryNameNode應(yīng)與NameNode部署到一個(gè)節(jié)點(diǎn)答案:C53.進(jìn)入到MapReduce目錄命令為()A、hadoopjarhadoop-mapreduce-examples-2.7.3.jarwordcount/hello/outB、hadoophadoop-mapreduce-examples-2.7.3.jarwordcount/helloC、hadoophadoop-mapreduce-examples-2.7.3.jarwordcount/hello/outD、hadoopjarhadoop-mapreduce-examples-2.7.3.jarwordcount/hello/home答案:A54.如何禁用reduce階段()A、設(shè)置conf.setNumreduceTasks(0)B、設(shè)置job.setNumreduceTasks(0)C、設(shè)置job.setNumreduceTasks(1)D、設(shè)置job.setNumreduceTasks()=0答案:B55.下列關(guān)于MapReduce說(shuō)法不正確的是A、MapReduce是一種計(jì)算框架B、MapReduce來(lái)源于google的學(xué)術(shù)論文C、MapReduce程序只能用java語(yǔ)言編寫(xiě)D、MapReduce隱藏了并行計(jì)算的細(xì)節(jié),方便使用答案:C56.znode的4種類型的節(jié)點(diǎn),下列名稱和說(shuō)明對(duì)應(yīng)正確的是。A、PERSISTENT:內(nèi)存化化節(jié)點(diǎn)。B、PERSISTENT_SEQUENTIAL:順序內(nèi)存化節(jié)點(diǎn)C、EPHHEMERAL:超時(shí)節(jié)點(diǎn)。D、EPHHEMERAL_SEQUENTIAL:臨時(shí)自動(dòng)編號(hào)節(jié)點(diǎn)。答案:D57.關(guān)于SecondaryNameNode下面哪項(xiàng)是正確的A、它是NameNode的熱備B、它對(duì)內(nèi)存沒(méi)有要求C、它的目的是幫助NameNode合并編輯日志,減少NameNode啟動(dòng)時(shí)間D、SecondaryNameNode應(yīng)與NameNode部署到一個(gè)節(jié)點(diǎn)。答案:C58.下列關(guān)于RPC說(shuō)法正確的是。A、RPC是一種遠(yuǎn)程調(diào)用協(xié)議B、它可以遠(yuǎn)程操縱計(jì)算機(jī)上的進(jìn)程C、需要了解底層網(wǎng)絡(luò)協(xié)議D、RPC通信之間不攜帶數(shù)據(jù)答案:A59.可以實(shí)現(xiàn)將本機(jī)公鑰拷貝給其他機(jī)器的命令是A、ssh-keygen-trsaB、ssh-copy-namerootlocalhostC、ssh-copy-id-irootlocalhostD、ssh-keygen-copy-namersa答案:C60.對(duì)于mapper類中的setup方法不正確的是?A、此方法被MapReduce框架僅且執(zhí)行一次B、在執(zhí)行map任務(wù)前,進(jìn)行相關(guān)變量或者資源的集中初始化工作C、在執(zhí)行map任務(wù)后,進(jìn)行相關(guān)變量或者資源的集中初始化工作D、將資源初始化工作放在map方法中,導(dǎo)致程序運(yùn)行效率降低答案:C61.ZooKeep中大多shell命令的行為,可以通過(guò)命令命令推測(cè),下列說(shuō)法正確的是。A、ls:顯示所有節(jié)點(diǎn)。B、create:創(chuàng)建一張表。C、get:獲取一個(gè)節(jié)點(diǎn)。D、set:設(shè)置一個(gè)節(jié)點(diǎn)。答案:A62.在MapReduce中,下面哪個(gè)階段是并行進(jìn)行的()A、Shuffle和MapB、Shuffle和SortC、Reduce和SortD、Map和Sort答案:B63.在MapReduce中,下面哪個(gè)數(shù)據(jù)流的順序是正確的()a.InputFormatb.Mapperc.binerd.Reducere.Partitionerf.OutputFormatA、abcdfeB、abcedfC、acdefbD、abcdef答案:B64.下面哪個(gè)是一種編程模型,它將大規(guī)模的數(shù)據(jù)處理工作拆分成互相獨(dú)立的任務(wù)然后并行處理()A、MapReduceB、HDFSC、PigD、Hbase答案:A65.把公鑰追加到授權(quán)文件的命令是?A、ssh-copy-idB、ssh-addC、sshD、ssh-keygen答案:A66.當(dāng)討論hdfs通信的時(shí)候,通信發(fā)生在以下服務(wù)之間,下列說(shuō)法正確的是。A、Client-NameNode之間,其中NameNode是客戶端B、Client-DataNode之間,其中DataNode是客戶端C、DataNode-NameNode之間,其中NameNode是服務(wù)端D、DataNode-DataNode之間,其中DataNode都是客戶端答案:C67.在HadoopMapReduce框架中,任何值類型A、需要實(shí)現(xiàn)Writable接口B、需要實(shí)現(xiàn)parable接口C、需要實(shí)現(xiàn)Writableparable接口D、不需要實(shí)現(xiàn)任何接口答案:A68.HDFS退出安全模式使用的命令是?A、hadoopdfsadmin-saftmodewaitB、hadoopdfsadmin-saftmodeleaveC、hadoopdfsadmin-saftmodeenterD、以上都不正確答案:B69.HDFS默認(rèn)的當(dāng)前工作目錄是/user/$USER,的值需要在哪個(gè)配置文件內(nèi)說(shuō)明A、mapred-site.xmlB、core-site.xmlC、hdfs-site.xmlD、以上均不是答案:B70.大數(shù)據(jù)的特點(diǎn)不包括下面哪一項(xiàng)()A、巨大的數(shù)據(jù)量B、多結(jié)構(gòu)化數(shù)據(jù)C、增長(zhǎng)速度快D、價(jià)值密度高答案:D71.使用put操作將“hello”文件上傳到HDFS的根目錄命令為()A、hadoop-puthello/helloB、hadoopfs-puthello/helloC、hodoopfs-put/helloD、Hadoop-put/hello答案:B72.關(guān)于HDFS的文件寫(xiě)入,正確的是A、支持多用戶對(duì)同一個(gè)文件的寫(xiě)操作B、用戶可以在文件的任意位置進(jìn)行修改C、默認(rèn)將文件復(fù)制成三份存放D、復(fù)制的文件默認(rèn)都存在同一機(jī)架上答案:C73.OSI網(wǎng)絡(luò)模型有幾層結(jié)構(gòu)?A、六層B、七層C、八層D、九層答案:B74.Hadoop偽分布式是()A、一個(gè)操作系統(tǒng)B、一臺(tái)機(jī)器C、一個(gè)軟件D、一種概念答案:B75.MapReduce的存儲(chǔ)模型能夠存儲(chǔ)什么數(shù)據(jù)?A、文件數(shù)據(jù)B、二進(jìn)制C、字符串D、任意格式答案:D76.MapReduce中的map階段的數(shù)據(jù)是由()決定的A、OutputFormatB、InputFormatC、FileInputD、FileOutput答案:B77.如果一個(gè)Hadoop集群中HDFS的默認(rèn)大小是128MB,本地磁盤(pán)有個(gè)HDFS上的目錄包含100個(gè)純文本文件,每個(gè)文件200MB。如果使用TextInputFormat作為輸入格式類,將該目錄作為作業(yè)輸入,將會(huì)啟動(dòng)()個(gè)Map。A、64B、100C、200D、640答案:C78.為銷(xiāo)售報(bào)表展示開(kāi)發(fā)一個(gè)MapReduce作業(yè),Mapper輸入數(shù)據(jù)的Key是年份(IntWritable),Value表示商品標(biāo)識(shí)(Text)。下列哪一項(xiàng)決定該Mapper的數(shù)據(jù)類型?A、JobConf.setMapInputKeyClass與JobConf.setMapInputValuesClassB、HADOOP_MAP_DATATYPES環(huán)境變量C、隨作業(yè)一起提交的mapper-specification.xml文件D、InputFormat格式類答案:D79.啟動(dòng)ZooKeeper服務(wù)的命令是什么?A、zk.shB、zkServer-all.shC、zkServer.shD、zkServer.shstart答案:D80.以下對(duì)定時(shí)調(diào)度器描述正確的是()A、定時(shí)調(diào)度器負(fù)責(zé)向應(yīng)用程序分配資源,它負(fù)責(zé)監(jiān)控和應(yīng)用程序的狀態(tài)跟蹤,并且不能夠保證重啟由于應(yīng)用程序本身或硬件出錯(cuò)而執(zhí)行失敗的應(yīng)用程序B、定時(shí)調(diào)度器負(fù)責(zé)向應(yīng)用程序分配資源,它負(fù)責(zé)監(jiān)控和應(yīng)用程序的狀態(tài)跟蹤,并且能夠保證重啟由于應(yīng)用程序本身或硬件出錯(cuò)而執(zhí)行失敗的應(yīng)用程序C、定時(shí)調(diào)度器負(fù)責(zé)向應(yīng)用程序分配資源,它不負(fù)責(zé)監(jiān)控和應(yīng)用程序的狀態(tài)跟蹤,并且不能夠保證重啟由于應(yīng)用程序本身或硬件出錯(cuò)而執(zhí)行失敗的應(yīng)用程序D、定時(shí)調(diào)度器負(fù)責(zé)向應(yīng)用程序分配資源,它不負(fù)責(zé)監(jiān)控和應(yīng)用程序的狀態(tài)跟蹤,并且能夠保證重啟由于應(yīng)用程序本身或硬件出錯(cuò)而執(zhí)行失敗的應(yīng)用程序答案:C81.查看Hadoop相關(guān)進(jìn)程是否啟動(dòng)成功的命令是()A、JpsB、JspC、taskilstD、task答案:A82.下面關(guān)于Reducer類說(shuō)法錯(cuò)誤的是哪個(gè)A、Reducerreduces是一組中間值B、Reducer有3個(gè)主要階段:1.shuffle,2.sort,3.ReduceC、在使用時(shí),通常子類重寫(xiě)多個(gè)reduce()方法即可D、在reduce方法中,KEYIN為Map的VALUEOUT集合答案:C83.下列哪個(gè)程序通常與NameNode在一個(gè)節(jié)點(diǎn)啟動(dòng)?A、SecondaryNameNodeB、DataNodeC、TaskTrackerD、Jobtracker答案:D84.在編寫(xiě)rpc接口時(shí)需要繼承什么接口類?A、VersionControlB、VersionedProtocolC、VersionControllerD、ControllerVersion答案:B85.哪個(gè)不是HDFS的特點(diǎn)?A、高容錯(cuò)B、高吞吐量C、低延遲讀取D、大文件存儲(chǔ)答案:C86.關(guān)于MapReducejavaAPI說(shuō)法錯(cuò)誤的是?A、新的API傾向于使用接口,而不是抽象類B、新的API實(shí)現(xiàn)了配置的統(tǒng)一C、新的API傾向于使用抽象類,而不是接口D、新的API充分使用上下文對(duì)象context,允許用戶能與MapReduce系統(tǒng)通信答案:A87.格式化NameNode命令為()A、hdfsnamenode-formattingB、Namenode-formatC、nameNodefomattingD、hdfsnamenode-format答案:D88.下列文件中,包含了主機(jī)名到IP地址的映射關(guān)系的文件是A、host.confB、hostsC、hosts.denyD、hosts.allow答案:B89.驗(yàn)證java運(yùn)行環(huán)境是否安裝成功,使用哪個(gè)命令查看java版本,若出現(xiàn)版本號(hào)則表示安裝成功()A、java-versionB、java-ipconfigC、java-editionD、java-Release答案:A90.關(guān)于QJM的寫(xiě)入過(guò)程,以下描述正確的是。A、在Hadoop中,NmeNode只會(huì)把Editlog寫(xiě)入到本地中。B、寫(xiě)入本地,由配置參數(shù)'.dir'控制。C、寫(xiě)入JouralNode,由配置參數(shù)'.dir'控制。D、在寫(xiě)Editlog時(shí),會(huì)有兩個(gè)不同的輸出流來(lái)控制日志的寫(xiě)入過(guò)程。答案:D91.ResourceManager默認(rèn)的WebUI訪問(wèn)端口號(hào)為A、8088B、8080C、50070D、50030答案:A92.關(guān)于MapReduce中的鍵值對(duì),下面陳述正確的是()A、Key類必須實(shí)現(xiàn)WritableB、Key類必須實(shí)現(xiàn)WritableparableC、Value類必須實(shí)現(xiàn)WritableparableD、Value類必須繼承Writableparable答案:B93.下列對(duì)HIve理解正確的選項(xiàng)是()A、一個(gè)高可用、高可靠、分布式的海量日志采集、聚合和傳輸?shù)南到y(tǒng)B、能夠支撐數(shù)據(jù)的匯合和臨時(shí)查詢的數(shù)據(jù)倉(cāng)庫(kù)基礎(chǔ)框架C、一個(gè)可擴(kuò)展的機(jī)器學(xué)習(xí)和數(shù)據(jù)挖掘庫(kù)D、一個(gè)快速通用的數(shù)據(jù)引擎答案:B94.以下關(guān)于MapReduce說(shuō)話錯(cuò)誤的是?A、Map和reduce是他們的主要思想B、用于大規(guī)模數(shù)據(jù)集的串行運(yùn)算C、極大的方便了編程人員不會(huì)分布式編程D、都是從函數(shù)式和矢量編程語(yǔ)言借來(lái)的特性答案:B95.下面哪個(gè)選項(xiàng)中的Daemon總是運(yùn)行在同一臺(tái)主機(jī)上()A、NameNode&JobTrackerB、SecondaryNameNode&JobTrackerC、NameNode&SecondaryNameNodeD、DataNode&TaskTracker答案:D96.linux系統(tǒng)中生成密鑰的命令是()A、ssh-copy-idB、ssh-keygenC、ssh-copy-id-iD、ssh-keygen-trsa答案:D97.Hadoop的RPC通信機(jī)制采用什么模式?A、客戶機(jī)/服務(wù)器模式B、客戶端/客戶端模式C、瀏覽器/服務(wù)器模式D、客戶機(jī)/瀏覽器模式答案:A98.Hadoop2.0中HDFS默認(rèn)BlockSizeA、32MB、64MC、128MD、256M答案:C99.主節(jié)點(diǎn)負(fù)責(zé)分發(fā)任務(wù),從接點(diǎn)負(fù)責(zé)處理任務(wù),當(dāng)主節(jié)點(diǎn)發(fā)生故障時(shí),整個(gè)系統(tǒng)就癱瘓了,把這種故障叫做什么?A、多點(diǎn)故障B、單點(diǎn)故障C、分分布式故障D、偽分布式故障答案:B100.在MapReduce中,如果將reducer數(shù)設(shè)置為0會(huì)發(fā)生怎樣的情形()A、僅有Reduce作業(yè)發(fā)生B、僅有Map作業(yè)發(fā)生C、Reducer輸出會(huì)成為最終輸出D、map和reduce作業(yè)答案:B101.在一個(gè)Hadoop集群中有多少個(gè)JobTrackerdaemon?A、一個(gè)B、兩個(gè)C、每個(gè)slave節(jié)點(diǎn)一個(gè)D、每個(gè)slave節(jié)點(diǎn)兩個(gè)答案:A102.下面哪個(gè)目錄保存了Hadoop集群的命令(比如啟動(dòng)Hadoop)?A、binB、sbinC、/etcD、share答案:B103.使用jar操作運(yùn)行Hadoop中自帶的jar進(jìn)行單詞的統(tǒng)計(jì)()A、cd-jarhadoop/share/hadoop/mapreduce/B、cdhadoop/share/hadoop/mapreduce/C、cdjar/hadoop/share/hadoop/mapreduce/D、cd/hadoop/share/hadoop/mapreduce/答案:B104.關(guān)于rmr命令,下列說(shuō)法正確的是。A、只刪除指定節(jié)點(diǎn)B、遞歸刪除C、刪除文件夾D、刪除文件答案:B105.一個(gè)文件大小156MB,在Hadoop2.0中默認(rèn)情況下請(qǐng)問(wèn)其占用幾個(gè)Block()?A、1B、2C、3D、4答案:B106.以下關(guān)于QJM原理的描述正確的是。A、節(jié)點(diǎn)一般是由偶數(shù)個(gè)構(gòu)成。B、JouralNode不對(duì)外提供rpc接口。C、每個(gè)JouralNode對(duì)外有一個(gè)簡(jiǎn)易的rpc接口。D、當(dāng)寫(xiě)Editlog時(shí),NameNode會(huì)向指定節(jié)點(diǎn)寫(xiě)文件。答案:C107.啟動(dòng)所有的Hadoop守護(hù)進(jìn)程。包括NameNode、SecondaryNameNode、DataNode、ResourceManager、NodeManager的命令是()A、start-yarn.shB、start-all.shC、start-dfs.shD、hadoop-daemons.sh答案:B108.關(guān)于Hadoop2中的MapReduce工作機(jī)制錯(cuò)誤的是A、客戶端開(kāi)始運(yùn)行MapReduce作業(yè)B、向資源管理器請(qǐng)求一個(gè)新的應(yīng)用ID,用作MapReduce作業(yè)IDC、在容器中啟動(dòng)作業(yè)對(duì)應(yīng)的applicationmaster進(jìn)程D、將運(yùn)行作業(yè)所需要的資源(作業(yè)JAR文件、配置文件和計(jì)算所得的輸入分片)復(fù)制到本地中以作業(yè)ID命名的目錄下答案:D109.ZooKeeper集群的機(jī)器數(shù)量一般有什么要求?A、一般為單數(shù)臺(tái)機(jī)器B、一般為雙數(shù)臺(tái)機(jī)器C、一般沒(méi)有要求D、有要求,但要求不高答案:A110.HDFS的NameNode負(fù)責(zé)管理文件系統(tǒng)的命名空間,將所有的文件和文件夾的元數(shù)據(jù)保存在一個(gè)文件系統(tǒng)樹(shù)中,這些信息也會(huì)在硬盤(pán)上保存成以下文件:A、日志B、命名空間鏡像C、兩者都是D、以上說(shuō)法都不正確答案:C111.HDFS是基于流數(shù)據(jù)模式訪問(wèn)和處理超大文件的需求而開(kāi)發(fā)的,具有高容錯(cuò)、高可靠性、高可擴(kuò)展性、高吞吐率等特征,適合的讀寫(xiě)任務(wù)是?A、一次寫(xiě)入,少次讀B、多次寫(xiě)入,少次讀C、多次寫(xiě)入,多次讀D、一次寫(xiě)入,多次讀答案:D112.5、大數(shù)據(jù)一詞是在哪一年由美國(guó)著名未來(lái)學(xué)家阿爾文·托夫勒在《第三次浪潮》中將大數(shù)據(jù)稱為“第三次浪潮的華彩篇章”()A、1978B、1980C、1983D、1990答案:B113.關(guān)于分布式鎖的實(shí)現(xiàn),下列說(shuō)法正確的是。A、在網(wǎng)絡(luò)中,網(wǎng)絡(luò)是可靠的,所以分布式協(xié)調(diào)調(diào)用很輕松。B、為每一個(gè)分布式應(yīng)用程序開(kāi)發(fā)一個(gè)獨(dú)立的協(xié)調(diào)程序是必要的,不會(huì)造成浪費(fèi)。C、在分布式協(xié)調(diào)系統(tǒng)中協(xié)調(diào)程序開(kāi)銷(xiāo)較大,反而會(huì)提高原程序的性能。D、為了防止分布式系統(tǒng)中的多個(gè)進(jìn)程之間相互干擾,需要一種分布式協(xié)調(diào)技術(shù)來(lái)對(duì)這些進(jìn)程進(jìn)行調(diào)度。答案:D114.下列關(guān)于HadoopAPI說(shuō)法錯(cuò)誤的是()A、hadoop的文件API不是通用的,只用于HDFS文件系統(tǒng)B、Configuration類的默認(rèn)實(shí)例化方法是以HDFS系統(tǒng)的資源配置為基礎(chǔ)C、FileStatus對(duì)象存儲(chǔ)文件和目錄的元數(shù)據(jù)D、FSDataInputStream是java.io.DataInputStream的子類答案:A115.ZooKeeper需要的相關(guān)家暴一共有幾個(gè)?A、5B、6C、7D、8答案:C116.對(duì)DBInputFormat描述不正確的是?A、DBInputFormat類能夠讀取數(shù)據(jù)庫(kù)表中數(shù)據(jù)B、Hadoop訪問(wèn)關(guān)系型數(shù)據(jù)庫(kù)主要通過(guò)DBInputFormat對(duì)象實(shí)現(xiàn)C、使用DBInputFormat之前,必須要jdbc驅(qū)動(dòng)包拷貝到Hadoop目錄下的share/hadoop/mon/libD、DBInputFormat接口僅僅適合讀取大數(shù)量的數(shù)據(jù)答案:D117.哪個(gè)場(chǎng)景適合使用HDFS?A、大量小文件B、大文件存儲(chǔ)C、隨機(jī)寫(xiě)入D、低延遲讀取答案:B118.在hadoop集群搭建中,需要將主機(jī)master上opt目錄下的jdk文件遠(yuǎn)程拷貝到從機(jī)slave01的opt下,以下使用的命令正確的是()A、scp/opt/jdkslave01:/opt/jdkB、scpmaster:/opt/jdk/slave01:/opt/jdkC、scp-r/opt/jdkslave01:/opt/jdkD、scp-rslave01:/opt/jdkmaster:/opt/jdk答案:C119.有關(guān)MapReduce的輸入輸出,說(shuō)法錯(cuò)誤的是A、鏈接多個(gè)MapReduce作業(yè)時(shí),序列文件是首選格式B、FileInputFormat中實(shí)現(xiàn)的getSplits()可以把輸入數(shù)據(jù)劃分為分片,分片數(shù)目和大小任意定義C、想完全禁止輸出,可以使用NullOutputFormatD、每個(gè)reduce需將它的輸出寫(xiě)入自己的文件中,輸出無(wú)需分片答案:B120.安裝Hadoop集群時(shí),在哪個(gè)文件指定從機(jī)是哪些機(jī)器?A、datanodeB、slavesC、yarn-site.xmlD、core-site.xml答案:B121.在海量數(shù)據(jù)中,Dynamo的存儲(chǔ)是按照什么策略來(lái)進(jìn)行的()A、消息代理B、傳統(tǒng)的存儲(chǔ)放置策略C、一致性哈希算法D、異步復(fù)制答案:C122.Namenode在啟動(dòng)時(shí)自動(dòng)進(jìn)入安全模式,在安全模式階段,說(shuō)法錯(cuò)誤的是A、安全模式目的是在系統(tǒng)啟動(dòng)時(shí)檢查各個(gè)DataNode上數(shù)據(jù)塊的有效性B、根據(jù)策略對(duì)數(shù)據(jù)塊進(jìn)行必要的復(fù)制或刪除C、當(dāng)數(shù)據(jù)塊最小百分比數(shù)滿足的最小副本數(shù)條件時(shí),會(huì)自動(dòng)退出安全模式D、文件系統(tǒng)允許有修改答案:D123..以下四個(gè)Hadoop預(yù)定義的Mapper實(shí)現(xiàn)類的描述錯(cuò)誤的是A、IdentityMapper實(shí)現(xiàn)Mapper,將輸入直接映射到輸出B、InverseMapper實(shí)現(xiàn)Mapper,反轉(zhuǎn)鍵/值對(duì)C、RegexMapper實(shí)現(xiàn)Mapper,為每個(gè)常規(guī)表達(dá)式的匹配項(xiàng)生成一個(gè)(match,1)對(duì)D、TokenCountMapper實(shí)現(xiàn)Mapper,當(dāng)輸入的值為分詞時(shí),生成(taken,1)對(duì)答案:B124.面關(guān)于MapReduce模型中Map函數(shù)與Reduce函數(shù)的描述正確的是()A、一個(gè)Map函數(shù)就是對(duì)一部分原始數(shù)據(jù)進(jìn)行指定的操作B、一個(gè)Map操作就是對(duì)每個(gè)ReD.uce所產(chǎn)生的一部分中間結(jié)果進(jìn)行合并操作C、Map與Map之間不是相互獨(dú)立的D、Reducee與Reduce之間不是相互獨(dú)立的答案:A125.以下哪個(gè)方法不是mapper類中的重寫(xiě)方法A、map()方法B、run()f方法C、setup方法D、clean()方法答案:D126.大數(shù)據(jù)(BigData)的定義正確的是()A、大數(shù)據(jù)是指無(wú)法在一定時(shí)間范圍內(nèi)使用常規(guī)軟件工具進(jìn)行捕捉、管理和處理的數(shù)據(jù)集合,是需要新處理模式才能具有更強(qiáng)的決策力、洞察發(fā)現(xiàn)力和流程優(yōu)化能力的海量、高增長(zhǎng)率和多樣化的信息資產(chǎn)B、大數(shù)據(jù)是數(shù)據(jù)量龐大的意思,將我們?cè)谏钪挟a(chǎn)生的各種數(shù)據(jù)進(jìn)行整合,最后通過(guò)分析快速的將有用的數(shù)據(jù)進(jìn)行保存C、大數(shù)據(jù)是指數(shù)據(jù)統(tǒng)計(jì)效率快速快,將龐大的數(shù)據(jù)進(jìn)行快速的分類,使我們的生活更高效更快捷D、以上都不對(duì)答案:A127.Hadoop實(shí)現(xiàn)了什么樣的系統(tǒng)A、操作系統(tǒng)B、數(shù)據(jù)管理系統(tǒng)C、數(shù)據(jù)整合系統(tǒng)D、分布式文件系統(tǒng)答案:D128.下面生成中間鍵值對(duì)的是()A、ReducerB、MapperC、binerD、Partitioner答案:B129.大數(shù)據(jù)4v特點(diǎn)中Variety理解正確的是A、數(shù)據(jù)體量大,從TB級(jí)別躍升到PB級(jí)別B、數(shù)據(jù)類型繁多,如網(wǎng)絡(luò)日志、視頻、圖片、地理位置信息等C、商業(yè)價(jià)值高,只要合理利用數(shù)據(jù)并對(duì)其進(jìn)行合理的分析,將會(huì)帶來(lái)較大的價(jià)值回報(bào)D、處理速度快,可以從各種類型的數(shù)據(jù)中快速的獲取有價(jià)值的信息答案:B130.配置Hadoop時(shí),JAVA_HOME包含在哪一個(gè)配置文件中?A、hadoop-default.xmlB、hadoop-env.shC、hadoop-site.xmlD、configuration.xml答案:B131.有關(guān)MapReduce,下面哪個(gè)說(shuō)法是正確的()A、它提供了資源管理能力B、它提供了用戶管理能力C、它是開(kāi)源數(shù)據(jù)倉(cāng)庫(kù)系統(tǒng),、用于查詢和分析存儲(chǔ)在Hadoop中的大型數(shù)據(jù)集D、它是Hadoop數(shù)據(jù)處理層答案:D132.YARN啟動(dòng)命令為()A、start-allB、JpsC、start-yarn.shD、Start.jps.sh答案:C133.mapred-site.xml配置文件中參數(shù)和解釋不能對(duì)應(yīng)的是()A、:執(zhí)行框架設(shè)置為HadoopYARNB、mapreduce.map.memory.mb:設(shè)置reduces對(duì)于較大資源的限制C、Mapreduce.task.io.sort.mb:設(shè)置數(shù)據(jù)進(jìn)行排序的內(nèi)存大小D、Mapreduce.task.io.sort.factor:在文件排序中將流進(jìn)行合并答案:B134.下列ZooKeeper模型的數(shù)據(jù)結(jié)構(gòu)特點(diǎn)說(shuō)明正確的是。A、znode可以有子節(jié)點(diǎn)目錄,并且每個(gè)znode的不可以存儲(chǔ)數(shù)據(jù)。B、znode不可以是臨時(shí)節(jié)點(diǎn),一旦創(chuàng)建這個(gè)znode的客戶端與服務(wù)端失去聯(lián)系,這個(gè)znode將自動(dòng)刪除。C、znode的是有版本的,每個(gè)znode的中存儲(chǔ)的數(shù)據(jù)可以有多個(gè)版本,也就是一個(gè)訪問(wèn)路徑中可以存儲(chǔ)多份數(shù)據(jù)。D、znode的目錄名不可以自動(dòng)編號(hào),如果已經(jīng)存在了,需要使用者手動(dòng)重新命名。答案:C135.在MapReduce中,下面哪個(gè)會(huì)將輸入鍵值對(duì)處理成中間鍵值對(duì)()A、MapperB、ReducerC、DriveD、Mapper和Reducer答案:A136.下列關(guān)于HDFS為存儲(chǔ)MapReduce并行切分和處理的數(shù)據(jù)做的設(shè)計(jì),錯(cuò)誤的是A、FSDataInputStream擴(kuò)展了DataInputStream以支持隨機(jī)讀B、為實(shí)現(xiàn)細(xì)粒度并行,輸入分片(InputSplit)應(yīng)該越小越好C、一臺(tái)機(jī)器可能被指派從輸入文件的任意位置開(kāi)始處理一個(gè)分片D、輸入分片是一種記錄的邏輯劃分,而HDFS數(shù)據(jù)塊是對(duì)輸入數(shù)據(jù)的物理分割答案:B137.在hadoop-eco.sh中添加完相關(guān)配置保存并退出后,使用什么命令可以使配配置文件生效()A、ResourceB、sourceC、RpmD、Yum答案:B138.在MapReduce編程時(shí),如下階段的順序是()a.Partitionerb.Mapperc.binerd.Shuffle/SortA、MapperPartitionerShuffle/SortbinerB、MapperPartitionerbinerShuffle/SortC、MapperShuffle/SortbinerPartitioneD、MapperbinerPartitionerShuffle/Sort答案:D139.下面與HDFS類似的框架是()A、NTFSB、FAT32C、GFSD、EXT3答案:C140.Hadoop的作者是哪一位()A、MartinFowlerB、DougCuttingC、KentBeckD、GraceHopper答案:B141.關(guān)于Hadoop單機(jī)模式和偽分布式的說(shuō)法正確的是()A、兩者都啟動(dòng)守護(hù)進(jìn)程,且守護(hù)進(jìn)程運(yùn)行在一臺(tái)機(jī)器上B、單機(jī)模式不使用HDFS,但加載守護(hù)進(jìn)程C、兩者都不與守護(hù)進(jìn)程交互,避免復(fù)雜性D、后者比前者增加了HDFS輸入輸出以及可檢查內(nèi)存使用情況答案:D142.查看Hadoop版本信息的命令是()A、Hadoop-versionB、HadoopversionC、Hadoop-vD、Hadoopv答案:B143.Hadoop的配置目錄在哪里?A、/etc/hostsB、/etc/hadoopC、$HADOOP_HOME/confD、$HADOOP_HOME/etc/hadoop答案:C多選題1.連接ZooKeep中的jar包下面哪些是必須的?【選兩項(xiàng)】A、mybatis.jarB、zookeeper.jarC、netty.jarD、znode.jar答案:BC2.在MapReduce中,對(duì)于map輸出的中間結(jié)果,不負(fù)責(zé)按key進(jìn)行分區(qū)的是()【選三項(xiàng)】A、RecordReaderB、binerC、PartitionerD、HDFS答案:ABD3.格式化HDFS系統(tǒng)的命令為?【選兩項(xiàng)】A、hdfsnamenode–formatB、hdfsdatanode-formatC、hadoopnamenode-formatD、hadoopdatanode-format答案:AC4.在Hadoop的分區(qū)階段,不是默認(rèn)的Partitioner是()【選三項(xiàng)】A、HashParB、PartitionerC、HashPartitionerD、Hmapper答案:ACD5.關(guān)關(guān)于ZooKeeper的配置參數(shù),下列說(shuō)明正確的是()【選兩項(xiàng)】A、tickTime:服務(wù)器與客戶端之間的心跳時(shí)間間隔。B、initLimit:設(shè)定了所有跟隨者與領(lǐng)導(dǎo)者進(jìn)行連接并同步的時(shí)間范圍。C、syncLimit:允許一個(gè)跟隨者與領(lǐng)導(dǎo)者進(jìn)行的交換數(shù)據(jù)時(shí)間。D、dataDir:hadoop的數(shù)據(jù)目錄。答案:AB6.HDNF的作用是負(fù)責(zé)對(duì)數(shù)據(jù)的分布式儲(chǔ)存,其內(nèi)部對(duì)象包括()【選三項(xiàng)】A、ClientB、NameNodeC、DataBasesD、
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 實(shí)訓(xùn)室設(shè)備管理制度
- 常用計(jì)算機(jī)管理制度
- 指甲店員工管理制度
- 服務(wù)業(yè)公司管理制度
- 標(biāo)準(zhǔn)養(yǎng)護(hù)箱管理制度
- 核酸采樣員管理制度
- 檢測(cè)隊(duì)成本管理制度
- 樓下停車(chē)位管理制度
- 母嬰室保潔管理制度
- 民工督導(dǎo)隊(duì)管理制度
- 《絲綢服飾文化》課件-第一講絲綢的起源與發(fā)展
- 院感質(zhì)量管理考核標(biāo)準(zhǔn)
- 多層鋼結(jié)構(gòu)廠房施工方案
- 《出租汽車(chē)綜合服務(wù)區(qū)規(guī)范》編制說(shuō)明
- 安全文明施工措施費(fèi)(終版)
- 2021年湖南省普通高中學(xué)業(yè)水平考試數(shù)學(xué)試卷及答案
- 知道網(wǎng)課智慧《藝術(shù)與科學(xué)理論基礎(chǔ)》測(cè)試答案
- 清拆勞務(wù)合同范本
- DL-T5366-2014發(fā)電廠汽水管道應(yīng)力計(jì)算技術(shù)規(guī)程
- 四川省成都市 2024年高一下數(shù)學(xué)期末考試試題含解析
- 開(kāi)票申請(qǐng)表模板
評(píng)論
0/150
提交評(píng)論