




版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)
文檔簡介
大語言模型學(xué)習(xí)目標(biāo)本章學(xué)習(xí)目標(biāo)為:1、了解大語言模型的技術(shù)背景2、了解大語言模型的應(yīng)用場景3、熟悉使用網(wǎng)頁以及API調(diào)用大語言模型分析金融文本大語言模型的現(xiàn)狀大語言在今年來取得了重大發(fā)展。以GPT為代表的大語言模型顯示出解答數(shù)學(xué),法律等問題的能力。這些大語言模型也展現(xiàn)了在編寫程序上的能力。早期人工智能的發(fā)展過程中,大量與語言相關(guān)的工作是由循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)以及其改進(jìn)方案(如長短期記憶模型,即LSTM)來處理的。這些架構(gòu)在許多語言相關(guān)的工作中(例如文本翻譯)都有優(yōu)秀的表現(xiàn)。但是這些架構(gòu)有很多缺點。最大的問題是訓(xùn)練效率不足,導(dǎo)致無法解析較長的文本。大語言模型的現(xiàn)狀在2017年,GoogleBrain團(tuán)隊發(fā)表了一篇重要的論文“AttentionisAllYouNeed”。這篇論文提出了Transformer神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。該架構(gòu)極大的提高了語言模型的訓(xùn)練效率,讓語言模型的復(fù)雜度提升成為現(xiàn)實。2018年GoogleAILanguage團(tuán)隊發(fā)表了重磅論文“BERT:Pre-trainingofDeepBidirectionalTransformersforLanguageUnderstanding”。該論文介紹了基于Transformer架構(gòu)的BERT模型并發(fā)現(xiàn)該模型在包括文本情緒分析等多項語言工作中能得出特別優(yōu)良的表現(xiàn)。同年,OpenAI公司也推出了第一代GPT模型。GPT模型的全稱是GenerativePre-trainedTransformer,即生成式預(yù)訓(xùn)練Transformer。該模型在2019年發(fā)展到了第三代,并在2022年發(fā)布了一個聊天機(jī)器人即ChatGPT(也稱GPT3.5)。Chat-GPT的表現(xiàn)得到了廣泛關(guān)注。在2023年,OpenAI公司發(fā)布了GPT4。有研究人員表示該模型具有一定“通用人工智能”的特點。大語言模型的現(xiàn)狀領(lǐng)先的大語言模型經(jīng)常有幾千億,甚至上萬億的模型參數(shù)。2024年年初OpenAI推出的GPT4仍然領(lǐng)先。Google公司也推出了旗鼓相當(dāng)?shù)亩嗄B(tài)大語言模型Gemini。頂尖模型的具體模型參數(shù)不是公開的信息,因為其具有極高的商業(yè)價值。同時也有許多性能上佳的開源模型可供開發(fā)者使用。其中具有代表性的就是Mistral公司的一系列模型(包括Mistral7B和Mixtral8x7B)以及Meta公司推出的Llama系列模型(包括7-65B的4個不同大小的模型)。我國大語言模型的發(fā)展也十分迅猛。其中的代表者包括京智源研究院推出了悟道模型,百度公司推出的文心一言模型。在本章中,我們也會介紹一款Chat-GLM模型的使用方法作為一個例子。大語言模型的技術(shù)背景大語言模型屬于Seq2seq(序列到序列)模型。序列到序列模型以一個序列作為輸入,進(jìn)行運(yùn)算過后再輸出一個序列。那么什么是序列呢?簡單來說,序列是一系列按照順序的標(biāo)記。例如,文本可以用一個序列來進(jìn)行表示。每一個詞語都可以當(dāng)成一個標(biāo)記(token)。當(dāng)然我們需要將詞語用向量的方式來表示。同樣,輸出也是一個向量的序列。如果我們要進(jìn)行將中文翻譯成英文的工作,那么輸入是中文的序列,而輸出是代表英文單詞的序列。如果我們需要完成的是個聊天機(jī)器人,那么輸入是一個代表問題的序列,而輸出則是代表對問題回答的序列。輸入序列的長度與輸出序列的長度不需要一致。具體輸出長度由模型來決定。序列到序列模型:大語言模型的技術(shù)背景Transformer模型圖16.1是經(jīng)典論文“AttentionisAllYouNeed”中對于Transformer模型結(jié)構(gòu)的進(jìn)行解釋的圖表。這個模型的結(jié)構(gòu)中有兩個重要的組成部分,編碼器以及解碼器。左邊的結(jié)構(gòu)為編碼器,右邊的結(jié)構(gòu)為解碼器圖16.1:Transformer模型在Transformer模型中,注意力(attention)機(jī)制是一個關(guān)鍵組成部分。它用于計算序列中輸入向量之間的相關(guān)性。在理解語言的應(yīng)用中,我們用嵌入向量embeddingvector)來代表文本中的詞匯。某些詞匯可能會影響到與它們距離較遠(yuǎn)的其他詞匯的含義。因此,注意力機(jī)制能有效地幫助模型捕捉這些非鄰近詞匯之間的關(guān)系。大語言模型的技術(shù)背景雖然之前的機(jī)器學(xué)習(xí)模型也有一定能力處理這些詞語之間的關(guān)系,但是Transformer模型對這一些問題的處理更為高效。此外,這一機(jī)制的計算過程可以通過并行運(yùn)算來加速,從而使Transformer模型能夠有效地處理數(shù)據(jù)中的長距離依賴關(guān)系,實現(xiàn)更快的訓(xùn)練速度,并高效處理更長的序列。在實際應(yīng)用中,編碼器與解碼器可以分開使用。BERT模型是由多個編碼器構(gòu)成。而GPT系列模型則是由多個解碼器疊加構(gòu)成。同樣谷歌的PaLM模型也是由解碼器疊加而成。總體來說,解碼器更適合用于生成式模型,因此在各種注重對話或代碼生成的場景中,解碼器都是主要模型。而編碼器更適合從事分類,語言嵌入(類似于之前提到的詞嵌入)之類的的工作。大語言模型的技術(shù)背景預(yù)訓(xùn)練:大語言模型的訓(xùn)練往往采用的是自監(jiān)督學(xué)習(xí)方法。或者說,模型會通過文本的上下文來進(jìn)行學(xué)習(xí)。在訓(xùn)練BERT模型的時候,研究人員使用了兩種訓(xùn)練任務(wù)。第一種任務(wù)是讓模型做填空題。即研究人員在訓(xùn)練時會在文本中隨機(jī)刪除一些詞語,并讓模型根據(jù)上下文來推斷刪去的詞語。另一種訓(xùn)練任務(wù)則是讓模型推斷文本中的下一個句子。GPT的訓(xùn)練任務(wù)則是讓模型猜測下一個出現(xiàn)的詞。這種訓(xùn)練方法的好處是很容易取得豐富的訓(xùn)練數(shù)據(jù)。我們一旦有豐富的文本那么我們就算不進(jìn)行人工標(biāo)記,也能得到大量的訓(xùn)練數(shù)據(jù)。而大量的訓(xùn)練數(shù)據(jù)是訓(xùn)練復(fù)雜模型的必要前提。大語言模型的訓(xùn)練在接下來的任務(wù)中,我們可能需要根據(jù)模型需要完成的具體任務(wù)對模型進(jìn)行微調(diào)(Fimetuning)。這一部分微調(diào)任務(wù)往往會輸入人工標(biāo)記的數(shù)據(jù),比如在GPT預(yù)訓(xùn)練過程結(jié)束之后,研究人員會使用人工標(biāo)記好的問答文本來對模型進(jìn)行進(jìn)一步的微調(diào)改進(jìn)。這樣微調(diào)過后,模型更適合進(jìn)行對話。表16.1中給出了一個微調(diào)數(shù)據(jù)中的幾個數(shù)據(jù)點。1.在微調(diào)數(shù)據(jù)的輸入之前,系統(tǒng)都會輸入“你是一個優(yōu)秀的人工智能助手。你總會提供解釋。請用一個五歲小孩的思維來思考?!?.通過這一類微調(diào)數(shù)據(jù)的訓(xùn)練,預(yù)訓(xùn)練好的模型會變得更加擅長與人交流。大語言模型的技術(shù)背景大語言模型的技術(shù)背景InputOutputThisisatestofcommonsense.Completethenextsentence:Amaniswaterskiingwhileholdingontoarope.Heloseshisbalance,fallingandthenregaininghiscomposure.hecontinuestoholdontotheropetightly,smilingandgigglingasheenjoysthefunrideonthewater.Sentence1:Swingabat.Sentence2:Hismoodswings.Multi-choiceproblem:Doesswingmeanthesamethinginthesetwosentences?Optionsare:1).differentmeanings;2).thesamemeaning;Swingmeansdifferentthingsinthesetwosentences,sothecorrectansweris:1).differentmeanings.InSentence1,"swingabat”meanstomovethebatwithyourhandsinafast,curvingmotiontohitsomething,likeaball.InSentence2,"hismoodswings”meansthathismoodchangesquicklyfromonefeelingtoanother,likebeinghappyandthensuddenlybecomingsad.大語言模型的技術(shù)背景基于人類反饋的強(qiáng)化學(xué)習(xí)(ReinforcementLearningwithHumanFeedback):在這一步中,人類將對模型產(chǎn)生的輸出進(jìn)行比較排名,并使用收集到的排名數(shù)據(jù)構(gòu)建一個獎勵模型。這個模型用于根據(jù)人類反饋來量化模型的輸出的優(yōu)劣。接下來可以使用近端策略優(yōu)化(PPO)這樣的強(qiáng)化學(xué)習(xí)算法,進(jìn)一步使用這個獎勵模型來微調(diào)模型。模型有效地學(xué)習(xí)產(chǎn)生最大化獎勵信號的輸出,該獎勵信號來自人類的排名輸入。大語言模型在金融中的應(yīng)用情緒分析:我們在前一章中討論過一些重要的金融文本中的信息。例如,文本中所傳達(dá)的情緒以及不確定性。相較于簡單的模型,大語言模型可以更好的理解詞匯在文本中所表達(dá)的意思。在Loughran和McDonald教授的論文中,他們提出了基于金融市場的詞典。他們給的一個具體例子是單詞“l(fā)iability”有多重含義。在一般的語境中l(wèi)iability表達(dá)的意思是“累贅”,因此具有較為負(fù)面的含義。然而,在金融市場中,liability是一個非常常見的單詞,表達(dá)的意思是“負(fù)債”。因為大部分公司都有一定程度的負(fù)債,并且更多的負(fù)債不一定說明公司基本面出現(xiàn)問題,因此該詞語在金融市場的語境中基本沒有表達(dá)任何負(fù)面情緒。大語言模型有幫助理解詞匯語境并給予更準(zhǔn)確標(biāo)記比如,BERT模型可以知道“吃蘋果”與“蘋果電腦”中的蘋果的意思完全不同。因此,在金融市場的運(yùn)用中,我們可以依賴大語言模型對金融市場中信息披露或新聞的文本中的詞匯進(jìn)行更精確的分類。更進(jìn)一步,我們可以對詞匯的情緒,表達(dá)的不確定性,以及我們關(guān)心的其他信息進(jìn)行更好的提取。基于大語言模型的聊天機(jī)器人也被發(fā)現(xiàn)可以對新聞標(biāo)題的情緒進(jìn)行很好的理解。Lira-Lopez和唐躍華教授發(fā)現(xiàn)ChatGPT可以通過新聞標(biāo)題產(chǎn)生的情緒進(jìn)行分析。通過情緒生成的交易信號可以得到超額收益。李雪君,屠致遠(yuǎn)及周德馨教授的研究則發(fā)現(xiàn)GPT-4具有一定對公司信息披露的文本進(jìn)行分析,并生成簡短的分析報告的能力。金融應(yīng)用場景大語言模型在金融中的應(yīng)用文本匹配:例如,在研究中,不同的數(shù)據(jù)庫經(jīng)常會將略微不同的名字來標(biāo)注同樣的公司或是實體。大語言模型可以幫助我們對相似但不完全一致的字串進(jìn)行模糊匹配。這樣可以極大提高金融研究中的工作效率。由于大語言模型的技術(shù)發(fā)展方興未艾,業(yè)界和學(xué)術(shù)界對其在金融方面的應(yīng)用研究處于起步階段,具有極大的拓展空間。因此,以上所描述的一些應(yīng)用場景都只是拋磚引玉。我們希望讀者對這一方面進(jìn)行更深入的探索及嘗試。預(yù)訓(xùn)練:我們可以考慮在預(yù)訓(xùn)練階段就準(zhǔn)備大量金融經(jīng)濟(jì)相關(guān)的文本。這樣,我們訓(xùn)練出來的模型可能對金融經(jīng)濟(jì)領(lǐng)域的表現(xiàn)更加優(yōu)越。但是重新訓(xùn)練一個大語言模型往往需要消耗大量的時間與金錢。因此,我們需要權(quán)衡這種方法的利與弊。在最近的學(xué)術(shù)研究中,Huangetal.(2023)對BERT模型通過金融領(lǐng)域的數(shù)據(jù)進(jìn)行微調(diào),并生成出了FinBERT模型。該模型相較于BERT模型來說,對金融領(lǐng)域文本的情緒的解讀更為精準(zhǔn)。同時,該模型相較于直接從頭使用金融數(shù)據(jù)訓(xùn)練的BERT模型在很多方面表現(xiàn)更為出色。大語言模型在金融中的應(yīng)用微調(diào):另一種方案是我們對已經(jīng)訓(xùn)練好的模型進(jìn)行微調(diào)。具體來說,微調(diào)是用預(yù)訓(xùn)練好的模型的參數(shù)進(jìn)行初始值,用更多的數(shù)據(jù)對模型的參數(shù)進(jìn)行修改。往往微調(diào)中所使用的訓(xùn)練數(shù)據(jù)是針對某一特定領(lǐng)域或應(yīng)用場景的。例如,我們可以考慮在微調(diào)這一步用金融或經(jīng)濟(jì)領(lǐng)域的文本對與訓(xùn)練過的模型進(jìn)行微調(diào)。因為模型已經(jīng)經(jīng)過預(yù)訓(xùn)練,在微調(diào)這一步我們所需的計算量以及訓(xùn)練時間都能得到大大的縮短。原始模型:最后,我們也可以直接使用預(yù)訓(xùn)練好的模型(并且沒有針對金融經(jīng)濟(jì)領(lǐng)域進(jìn)行微調(diào))。例如,Lira-Lopez和唐躍華教授的研究中,他們直接使用了沒有針對金融經(jīng)濟(jì)進(jìn)行微調(diào)的ChatGPT,其已經(jīng)展現(xiàn)出良好的表現(xiàn)。Kellyetal在他們的分析中,也直接使用了許多沒有經(jīng)過微調(diào)的大語言模型。然后用這些模型生成的文本嵌入向量對股票回報進(jìn)行預(yù)測,并取得了很好的效果。大語言模型在金融中的應(yīng)用提示:以ChatGPT為例,我們的輸入的問題是模型提示重要的組成部分。許多研究發(fā)現(xiàn)使用略微不同的提問可能對模型回答的準(zhǔn)確性產(chǎn)生很大的影響。如果我們需要模型在經(jīng)濟(jì)或金融領(lǐng)域中取得好的表現(xiàn),我們可以考慮在提問之前,先對模型進(jìn)行如下提示“youareanexpertineconomicsandfnance”,即你是經(jīng)濟(jì)及金融領(lǐng)域的專家。這樣的提示可以喚起模型在經(jīng)濟(jì)金融領(lǐng)域的知識。另一種生成有效提示的方法則是直接向模型進(jìn)行提問。比如,我們可以問GPT:我們需要你對金融文本信息的情緒進(jìn)行分析。請為我生成十條有用的提示。我們可以對模型生成的提示再進(jìn)行選擇。如果我們用一個普通的大語言模型(如BERT),而不是類似于ChatGPT之類的聊天機(jī)器人。那么我們可以將提示加在文本之前。并將提示加正文的信息一并輸入模型。這樣提示的信息會改變模型對之后正文的分析結(jié)果。國產(chǎn)大語言模型我國大語言生態(tài)最近也得到了很好的發(fā)展。大學(xué),研究機(jī)構(gòu),以及科技公司都推出了各具特色的大語言模型。例如,百度推出了文心大模型(ERNIE),阿里巴巴推出了DAMO模型。在本章中,我們著重介紹清華大學(xué)與智譜AI共同開發(fā)的GLM模型。隨著人工智能的飛速發(fā)展,自然語言處理(NLP)領(lǐng)域的大型語言模型在越來越多的領(lǐng)域展現(xiàn)出了重要的作用。清華大學(xué)于2022年推出了GLM大模型,標(biāo)志著中文語言大模型的重大突破。ChatGLM大模型的獨(dú)特之處在于它是開源的允許本地部署和行業(yè)微調(diào),同時也提供API在線服務(wù),這為開發(fā)者提供了更廣泛的研究和應(yīng)用可能性。2022年智譜AI與清華大學(xué)發(fā)布了雙語千億級超大規(guī)模預(yù)訓(xùn)練模型GLM-130B,它在斯坦福大學(xué)基礎(chǔ)模型中心的評測中顯示出不弱于GPT-3的性能?;贕LM-130B模型的對話模型ChatGLM-6B通過有監(jiān)督微調(diào)等技術(shù)初步實現(xiàn)與人類意圖對齊,初具理解人類指令意圖的能力,并支持在單張英偉達(dá)RIX208OTi圖形加速卡上進(jìn)行推理使用,具備獨(dú)立部署潛質(zhì)。智譜AI還推出了認(rèn)知大模型平臺Bigmodel.ai提供智能API服務(wù),旨在將這些技術(shù)成果應(yīng)用于更廣泛的領(lǐng)域。GLM模型國產(chǎn)大語言模型——應(yīng)用場景GLM大模型就屬于開源大模型。開源大模型是基于開源軟件許可協(xié)議發(fā)布的大型深度學(xué)習(xí)模型。通常由研究者、開發(fā)者或社區(qū)共同開發(fā)和維護(hù),并在公開的代碼庫中提供。優(yōu)點是可以免費(fèi)獲取和使用,開放的代碼使得用戶可以自由地查看、修改和定制模型,以適應(yīng)特定的需求和任務(wù)。因此GLM大模型應(yīng)用主要有:用戶直接在網(wǎng)頁使用GLM模型產(chǎn)品化功能;用戶通過API獲取GLM模型在線服務(wù);用戶在本地部署GLM系列模型服務(wù)并進(jìn)行私有化定制模型業(yè)務(wù)。企業(yè)用戶用于搭建自己的企業(yè)大模型,如2023年4月360基于GLM-130B聯(lián)合研發(fā)千億級大模型“360GLM”。國產(chǎn)大語言模型——實際應(yīng)用接下來,將用ChatGLM的網(wǎng)頁界面來介紹幾個簡單的應(yīng)用。在之后的章節(jié)中,我們會介紹如何使用ChatGLM的API來處理金融文本。ChatGLM網(wǎng)站:如圖16.2所示,用戶可以直接通過對話框與GLM大模型對話,獲取大模型提供的信息及建議。也可以上傳文檔,并針對文檔內(nèi)容對大模型提問,大模型可以幫助讀者總結(jié)文章內(nèi)容或者翻譯文檔。圖16.2:GLM界面國產(chǎn)大語言模型——實際應(yīng)用此外,GLM大模型還可以通過編寫代碼來執(zhí)行用戶的任務(wù),在安全可靠的沙盒環(huán)境中執(zhí)行并展示運(yùn)行結(jié)果。以通過python展示2010年至2022年全球航空業(yè)收入變化的折線圖為例:如圖16.3所示,根據(jù)我們的要求,GLM大模型先給出了運(yùn)行代碼。隨后在沙盒中運(yùn)行了這些代碼,并展示出運(yùn)行結(jié)果。以上例子我們僅僅通過簡單的指令就得到了非常好的效果。例如,金融從業(yè)人員需要進(jìn)行行業(yè)研究,并且根據(jù)取得的數(shù)據(jù)創(chuàng)造圖標(biāo)。只要通過簡單的文字對話,大語言模型可以直接通過文字資料生成圖形,而省去了繁瑣的數(shù)據(jù)錄入的工作。從而提升從業(yè)人員的工作效率。除了整理數(shù)據(jù),生成相應(yīng)的代碼之外,大語言模型還可以在許多其他方面簡化我們的工作。國產(chǎn)大語言模型——實際應(yīng)用圖16.3:GLM輸出國產(chǎn)大語言模型——使用API進(jìn)行文本分析在之前章節(jié)中,我們使用簡單的詞典方法來判斷文本的情緒。該工作可以通過ChatGLM網(wǎng)頁界面進(jìn)行這一工作。但是,如果我們需要處理大批量數(shù)據(jù),使用API接口可能更為方便。導(dǎo)入庫zhipuai是智普AI庫,我們可以通過這個庫來調(diào)用ChatGLM的API接口。importzhipuai讀取文本數(shù)據(jù)以及API信息以讀取模式打開名為“zhaoshang_short.txt”的文件,讀取文件內(nèi)容并賦值給變量txtwithopen("zhaoshang_short.txt",'r')asf:txt=f.read()國產(chǎn)大語言模型——實際應(yīng)用請先前往
申請api密鑰設(shè)置zhipuai庫的api密鑰,需要替換“yourapikey”為實際的API密鑰zhipuai.api_key="yourapikey"使用zhipuai庫的model_api對象的sse_invoke方法來調(diào)用模型-指定要調(diào)用的模型為“chatglm_turbo”-傳入一個prompt,它是一個列表,包含了要輸入到模型中的數(shù)據(jù)-設(shè)置模型的溫度,影響模型的隨機(jī)性-設(shè)置模型輸出的top_p值,該值決定了輸出的取舍,較高的值傾向于選擇更有可能的輸出,較低的值則選擇更隨機(jī)的輸出-設(shè)置模型是否支持增量式輸出,如果為True,則可以在不重啟模型的情況下連續(xù)接收輸出response=zhipuai.model_api.sse_invoke(model="chatglm_turbo",prompt=[{“role”:“user”,“content”:f“請判斷以下披露文本的情緒。你的回答為正向,負(fù)向或是中性。```{txt}'''"}],temperature=0.5,top_p=0.7,incremental=True)國產(chǎn)大語言模型——實際應(yīng)用遍歷模型返回的response中的events-如果事件的event屬性為“add”,則打印該事件的數(shù)據(jù),結(jié)束打印其他內(nèi)容,直到下一個事件-如果事件的event屬性為“error”或者“interrupted”,同樣打印該事件的數(shù)據(jù),結(jié)束打印其他內(nèi)容直到下一個事件-如果事件的event屬性為“finish”,打印該事件的數(shù)據(jù)以及元數(shù)據(jù),結(jié)束處理后續(xù)事件-對于其他未知的事件類型,直接打印其數(shù)據(jù),結(jié)束打印其他內(nèi)容,直到下一個事件foreventinresponse.events():
ifevent.event=="add":print(event.data,end="")elifevent.event=="error"orevent.event=="interrupted":print(event.data,end="")elifevent.event=="finish":print(event.data)print(event.meta,end="")
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 外審員考試試題及答案
- 消防安全培訓(xùn)考試試題及答案
- 餐飲情景考試題及答案
- 大學(xué)黨訓(xùn)考試題及答案
- 材料工程試題及答案
- 財務(wù)管理考試重點考察試題及答案2025
- 高效學(xué)習(xí)資源中級會計實務(wù)考試試題及答案
- 2025年中級會計實務(wù)考試知識點講解試題及答案
- 提升兒童語言能力的活動設(shè)計計劃
- 項目財務(wù)規(guī)劃計劃
- GB/T 15768-1995電容式濕敏元件與濕度傳感器總規(guī)范
- 2023年河北省對口升學(xué)計算機(jī)專業(yè)理論試題(附答案)2
- SH3503-2017石化交工資料石化封皮(電氣安裝工程交工資料)
- 建筑電氣自動化論文(整理13篇)
- 印刷產(chǎn)品檢驗報告
- 雷霆傳奇親測-h5修改匯總
- 2023年版-腫瘤內(nèi)科臨床路徑
- (完整版)水電工安全技術(shù)交底
- 《中國傳統(tǒng)文化心理學(xué)》課件第五章 傳統(tǒng)文化與心理治療(修)
- 幼兒園各類檔案借閱登記表
- 蒸汽疏水閥性能監(jiān)測斯派莎克工程中國有限公司-Armstrong
評論
0/150
提交評論