




版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認(rèn)領(lǐng)
文檔簡介
人工智能在甲狀腺及甲狀旁腺疾病外科診療中的研究進展2025近年來人工智能技術(shù)正在賦能各個行業(yè),引領(lǐng)產(chǎn)著眼于人工智能在甲狀腺及甲狀旁腺疾病外科方面的研究和應(yīng)用進展,并探討未來的發(fā)展在賦能各個行業(yè),引領(lǐng)產(chǎn)業(yè)升級。人工智能在醫(yī)航定位等方面的進步,正在為整個醫(yī)學(xué)帶來革及甲狀旁腺疾病外科診療中的應(yīng)用,著重闡述基統(tǒng)在術(shù)前評估、術(shù)中輔助決策和術(shù)后預(yù)測預(yù)后等方面的研究和應(yīng)用進展,(一)基于超聲的甲狀腺結(jié)節(jié)術(shù)前診斷超聲檢查作為一種無創(chuàng)、方便、經(jīng)甲狀腺結(jié)節(jié)的性質(zhì)和種類進行更精準(zhǔn)的診斷。Li等[1]利用DCNN框架進行了一個回顧性多隊列診斷性研究,收集了17627例甲狀腺癌患者的131731張超聲圖像和25325例對照的180668張超聲圖像,建立DCNN模型并進行訓(xùn)練。該模型在內(nèi)部驗證集、外部驗證集1和2的工作特征曲線下面積(AUC)分別為0.947、0.912和0.908。與熟練的超甲狀腺結(jié)節(jié)檢測模型TNet,回顧性分析719張甲狀腺圖像,TNet平均準(zhǔn)確率為86.5%。Wang等[3]利用YOLOv2神經(jīng)網(wǎng)絡(luò),建立自動超聲圖像識別與診斷系統(tǒng)。收集并標(biāo)記了來自276例患者2450個良性甲狀腺結(jié)節(jié)和2557個惡性甲狀腺結(jié)節(jié)的圖像,準(zhǔn)確率為90.31%。Wang等[4]構(gòu)建了ITS100動態(tài)人工智能超聲診斷系統(tǒng),回顧性分析607例患者的1007個甲狀腺結(jié)節(jié)的超聲資料,準(zhǔn)確率為89.97%。Zhang等[5]采用隨機森林算法構(gòu)建模型,收集2064個甲狀腺結(jié)節(jié)超聲資料,發(fā)現(xiàn)其診斷效能優(yōu)于單純常規(guī)超聲(AUC:0.924比0.834)。Zhang等6]提出了一種基于半監(jiān)督圖卷積網(wǎng)絡(luò)的域適應(yīng)框架,共收集1498例患者的數(shù)據(jù),包括12108張在3種不同超聲設(shè)備下的甲狀腺聲像,在多源域適應(yīng)任務(wù)中的準(zhǔn)確率為0.8829。Chi等[7]基于GoogLeNet模型構(gòu)建甲狀腺,對于開放獲取數(shù)據(jù)庫中的圖像,其分類準(zhǔn)確率為98.29%。Song等[8]基于Inception-V3模型,利用ImageNet數(shù)據(jù)庫對模型進行預(yù)訓(xùn)練,在內(nèi)部測試集(n=55)中靈敏度為95.2%,外部測試集(n=100)中靈敏度為94.0%。除此以外,彈性成像技術(shù)(SWE)能提供甲狀腺癌結(jié)節(jié)硬度信息,加入SWE后機器學(xué)習(xí)輔助診斷模型的診斷效能優(yōu)于單獨超聲,在測試集中(AUC:0.953比0.917),將不必要細(xì)針穿刺活檢(FNA)率從37.7%下降到4.7%[9]。甲狀腺濾泡狀腺瘤和甲狀腺濾泡癌的鑒別驗。而人工智能模型雖然學(xué)習(xí)能力上和人類大腦經(jīng)驗(尤其是一些罕見情況的經(jīng)驗)上較人類大腦有顯著優(yōu)勢。尤其在常性分析607例患者共699個甲狀腺結(jié)節(jié),其中惡性結(jié)節(jié)168個。該模型準(zhǔn)確率可達(dá)到0.71,優(yōu)于經(jīng)驗豐富的超聲科醫(yī)師。目前已經(jīng)有多種商業(yè)化AmCAD-UT?Detection是首個利用超聲診斷甲狀腺結(jié)節(jié)的商業(yè)化系統(tǒng),在300個甲狀腺結(jié)節(jié)的外部驗證研究中,其顯示出與超聲科醫(yī)師相似的敏感性,但特異性(68.8%比91.2%)較低[11]。由浙江大學(xué)團隊開發(fā)的德尚韻興DEMETICS?甲狀腺結(jié)節(jié)良惡性的輔助診斷系統(tǒng)也成功進行了商業(yè)化,敏感性達(dá)到95%,特異性達(dá)到85%。還有S-Detect等模型,在此不一一贅述[12]。(二)基于FNA病理圖片的人工智能診斷模型率和準(zhǔn)確度。Hirokawa等[13]利用EfficientNetV2-L17模型對甲狀腺結(jié)節(jié)進行分類。收集了包括393例患者的148395張甲狀腺FNA圖像,除了甲狀腺低分化癌精確召回率曲線下面積(PRAUC)為0.49,甲狀腺髓樣癌PRAUC為0.91,其他腫瘤類別的PRAUC為0.95。其中濾泡性腺瘤和濾泡癌的召回率分別為86.7%和93.9%。ElliottRange等 [14]利用CNN算法設(shè)計了兩種預(yù)測甲狀腺惡性結(jié)節(jié)模型。一種用于識在測試集中該模型的靈敏度和特異度分別為92.0%和90.5%。Gopinath和Shanthi[15]綜合了4種機器學(xué)習(xí)算法,構(gòu)建了甲狀腺結(jié)節(jié)良惡性分類模型,其中2種模型的準(zhǔn)確率為90%。Radebe等[16]在67例患聲以及人口學(xué)統(tǒng)計學(xué)資料,該模型將準(zhǔn)確率提高了11.90%。Dov等[17]利用CNN模型構(gòu)建了基于FNA的甲狀腺結(jié)節(jié)良惡性篩查模型,總共納入908個FNA數(shù)據(jù),該模型的診斷結(jié)果與病理學(xué)家的診斷結(jié)果基本一致。相結(jié)合,利用機器學(xué)習(xí)算法構(gòu)建甲狀腺結(jié)節(jié)分類模型,共納入124例患者的1535個甲狀腺細(xì)胞簇,F(xiàn)NA圖像、RI圖像及兩者聯(lián)合使用的機器學(xué)習(xí)分類模型的準(zhǔn)確率分別為98.0%、98.0%和100%。而對于濾泡性腫瘤,利用ANN模型構(gòu)建基于FNA的濾泡性腫瘤早診模型,收集了訓(xùn)練集39例、驗證集和測試集各9例的FNA圖片,在測試集中,ANN模型成功區(qū)(三)基于CT的甲狀腺結(jié)節(jié)分類模型基于CT圖像的人工智能分析技術(shù)已相當(dāng)成熟。Zhang等[20]利用CNN網(wǎng)絡(luò)建立了基于CT圖像的甲狀腺疾病的多類分類模型,準(zhǔn)確率為0.909、精密度為0.944、召回率為0.896、特異度為0.994。由于CT圖像信息更容易構(gòu)建3D模型,未來人工智能或可根據(jù)CT表現(xiàn)對病變良惡性進行預(yù)測;自動識別甲狀腺腫瘤區(qū)域并分割其范圍,判斷局部組織浸潤情況;三維數(shù)字化模型,顯示腫瘤與重要血管、神經(jīng)(四)轉(zhuǎn)移情況淋巴結(jié)轉(zhuǎn)移風(fēng)險,指導(dǎo)術(shù)中淋巴結(jié)清掃策略,是甲狀腺外科面臨的難題。轉(zhuǎn)移(CLNM)的人工智能模型,納入了3359例甲狀腺乳頭狀癌(PTC)患者的超聲和臨床信息資料,此模型在訓(xùn)練組中AUC為0.812,在內(nèi)部及外部驗證組分別為0.809和0.829。Li等[22]利用多種算法建立以CT圖像為基礎(chǔ)的CLNM預(yù)測影像組學(xué)模型,收集678例PTC患者的臨床資料,從每例患者術(shù)前的平掃和增強CT圖像中提取影像組學(xué)特征,該預(yù)測模型的靈敏度和準(zhǔn)確度均優(yōu)于經(jīng)驗豐富的放射科醫(yī)師。Feng等[23]回顧性分析1236例行甲狀腺切除術(shù)的臨床資料,采用8種機器學(xué)習(xí)算法對側(cè)頸淋巴結(jié)轉(zhuǎn)移(LLNM)進行風(fēng)險預(yù)測,在8種機器學(xué)習(xí)算法中,隨機森林的AUC最高(0.975),靈敏度和特異度分別為0.903和0.959。Lai等[24]收集了1815例甲狀腺癌患者[其中1135例(62.53%)發(fā)生LLNM]的臨床資料,利用6種成熟的機器學(xué)習(xí)算法進行建模,其中最佳算法為隨機森林算法,AUC能達(dá)到0.80,準(zhǔn)確度為0.74。Liu等[25]回顧性分析了Surveillance,Epidemiology,andEndResults數(shù)據(jù)庫 (SEER)中17138例患者[166例發(fā)生骨轉(zhuǎn)移(0.97%)]的臨床病理測準(zhǔn)確度0.904。(五)甲狀旁腺腺瘤的篩查術(shù)前影像學(xué)檢查定位病變甲狀旁腺是甲狀旁腺切除術(shù)的前提。Sandqvist等[26]建立了以99mTc-Sestamibi-SPECT/CT圖像為基礎(chǔ)的模型,對病變甲狀旁腺的術(shù)前定位進行了機器學(xué)習(xí),該研究納入了349例接受甲狀旁腺切除術(shù)、病理證實為甲狀旁腺腺瘤、術(shù)后6個月血鈣恢復(fù)正常的患者,其中單腺體病變(SGD)患者占93%(324/349),多腺體病變(MGD)患者占7% (25/349),以決策樹算法為基礎(chǔ)構(gòu)建模型,在交叉驗證時,此模型的總體準(zhǔn)確度為90%,對MGD患者的真陽性預(yù)測率為72%。Apostolopoulos等[27]構(gòu)建了名為ParaNet的CNN模型,通過對MIBI不同期相信息和TcO4甲狀腺掃描圖像同時進行分析,從而對異常旁腺(aPG)和正常旁腺(nPG)進行初步鑒別,ParaNet在區(qū)分aPG和nPG掃描的準(zhǔn)確率最高達(dá)到96.56%。其敏感性和特異性分別為96.38%和97.02%。(六)見的并發(fā)癥。Seib等[28]基于SuperLearner算法構(gòu)建甲狀腺手術(shù)并發(fā)癥預(yù)測模型。收集17987例甲狀腺手術(shù)患者數(shù)據(jù),其中喉返神經(jīng)損傷、出院前或術(shù)后30d內(nèi)低鈣血癥和頸部血腫的發(fā)生率分別為6.1%、6.4%、9.0%和1.8%。對于術(shù)后低鈣血癥,該模型將接受者操作特征曲線下面積 (AUROC)從0.70提高至0.72。(一)喉返神經(jīng)識別喉返神經(jīng)是甲狀腺及甲狀旁腺手術(shù)中的重點保護結(jié)構(gòu)。Gong等[29]利用130例患者的277張圖像,通過語義分割算法開發(fā)了在開放甲狀腺手術(shù)場景下喉返神經(jīng)識別和術(shù)中導(dǎo)航的深度學(xué)件(近距離和中等光照)下獲得了較強的分割性能,平均dice相似系數(shù)為0.707,這項工作為將可移動的智能工具集成到手術(shù)中改善手術(shù)流程提供了可能。在經(jīng)胸乳腔鏡甲狀腺手術(shù)的應(yīng)用場景個視頻共153520幀圖片納入研究。以D-Linknet模型為基礎(chǔ)建立機器學(xué)習(xí)模型。在高辨識度組中,靈敏度及精確率分別為92.9%/72.8%及85.8%/67.2%,而在低辨識度組中則分別為47.6%/54.9%及37.6%/43.5%[30]。在經(jīng)腋窩腔鏡甲狀腺手術(shù)應(yīng)用場景中,筆者的研究中納入了38個視頻中累計35501幀圖像,采用PSPNet的語義分割模型進行訓(xùn)練,當(dāng)IOU閾值設(shè)為0.1時,模型在高、中、低辨識度組中的靈敏度和精確率分別達(dá)到了100.0%/92.1%、95.8%/80.2%及81.0%/80.6%;而當(dāng)IOU閾值提高到0.5時(代表有效定位喉返神經(jīng)),靈敏度和精確率則分別為92.6%/85.3%、71.7%/60.5%及(二)甲狀旁腺識別甲狀旁腺功能減退是甲狀腺全切除術(shù)后最常見的并發(fā)癥之一。Wang等[32]開發(fā)了腔鏡甲狀腺手術(shù)中甲狀旁腺實時識別模型,共納入166個腔鏡甲狀腺切除術(shù)視頻中的1700張甲狀旁腺圖像,使用多種機器學(xué)習(xí)算機器學(xué)習(xí)模型、高年資和低年資醫(yī)師的甲狀旁腺識別率分別為96.9%、87.5%和71.9%。利用人工智能模型進行近紅外圖像的甲狀旁腺自發(fā)熒光的識別也具有重大臨床意義。Avci等[33]利用來自197例甲狀腺和(或)甲狀旁腺切除術(shù)患者共466張術(shù)中近紅外圖像,基于Google'sAutoMLsystem構(gòu)建深度學(xué)習(xí)模型。最終在測試集中此模型的總體召回率和精確率分別為90.5%和95.7%。(三)術(shù)中冰凍切片預(yù)測PTC患者淋巴結(jié)轉(zhuǎn)移甲狀腺癌手術(shù)中常進行中而,冰凍切片檢查淋巴結(jié)的敏感度約為50%~60%,存在一定的假陰性率。Liu等[34]開發(fā)了一種應(yīng)用于術(shù)中冰凍切片預(yù)測PTC患者淋巴結(jié)轉(zhuǎn)移的深度學(xué)習(xí)模型(ThyNet-LNM),使用1120例患者的1987份術(shù)中冰凍切片圖像進行訓(xùn)練。在獨立的內(nèi)部測試集(來自280例患者的479個冰凍切片)和三個外部測試集(來自692例患者的1335個冰凍切片)或兩者聯(lián)合。397例臨床淋巴結(jié)陰性(cNO)患者經(jīng)ThyNet-LNM后,不必要的淋巴結(jié)清掃率由56.4%降至14.9%。來源的3060例分化型甲狀腺癌遠(yuǎn)處轉(zhuǎn)移患者的臨床特征資料,以XGB算法為基礎(chǔ),使用9個變量(診斷時的年齡、性別、種族、腫瘤大小、組織學(xué)類型、區(qū)域淋巴結(jié)轉(zhuǎn)移、原發(fā)部位手術(shù)、放療和化療)建立了機器學(xué)習(xí)預(yù)測模型,該模型在測試集中的AUC為0.864。Park和Lee[36]納的準(zhǔn)確性均≥90%。Mourad等[37]利用癌患者臨床特征,將多層感知器(MLP)神經(jīng)網(wǎng)絡(luò)和特征選擇算法相結(jié)合構(gòu)建生存期預(yù)測模型,準(zhǔn)確率可達(dá)到94.49%。(二)術(shù)后語音恢復(fù)預(yù)測甲狀腺術(shù)后患者出現(xiàn)語音不良問題的情況很常用術(shù)前和術(shù)后語音譜圖來預(yù)測患者3個月后的嗓音恢復(fù)情況,回顧性收集114例接受手術(shù)治療的甲狀腺癌患者的嗓音及GRBAS評分,該模型對于GRBAS系統(tǒng)5個評分的平均AUC值為0.822。(三)術(shù)后131I顯像檢測甲狀腺組織及淋巴結(jié)殘留切除后全身放射性核素掃描(RxWBSs)可以顯示PTC切除術(shù)后殘余攝碘轉(zhuǎn)移淋巴結(jié),并有助于準(zhǔn)確分期。然而,嚴(yán)重的噪聲偽影、解剖等[39]分析了230例行甲狀腺全切除+放射性碘治療的PTC患者的臨床資料,利用多層全連接網(wǎng)絡(luò)(MFDN)構(gòu)建轉(zhuǎn)移淋巴結(jié)和甲狀腺殘余組織的自動識別模型。該模型對轉(zhuǎn)移性淋巴結(jié)的識別準(zhǔn)確率可達(dá)到84.7%~85.3%,對甲狀腺殘余組織的識別準(zhǔn)確率可達(dá)到95.9%~96.0%。的發(fā)展。相較于工業(yè)革命(蒸汽機、內(nèi)燃機、電動機)將人類從繁重、重解放出來。在醫(yī)學(xué)領(lǐng)域的應(yīng)用逐漸受到關(guān)注,其領(lǐng)域中的應(yīng)用也取得了一些突破性進展。首先經(jīng)驗和視覺判斷,存在一定的主觀性和不確定
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 美容儀器在皮膚保養(yǎng)技術(shù)的研究進展考核試卷
- 棉花加工機械的精密加工技術(shù)考核試卷
- 蔬菜加工實驗室安全操作規(guī)程考核試卷
- 藝術(shù)品市場國際化推廣考核試卷
- 石棉制品在工業(yè)加熱設(shè)備的保溫考核試卷
- 礦山機械智能傳感器研發(fā)考核試卷
- 航運物流服務(wù)質(zhì)量評價考核試卷
- 貨代企業(yè)客戶關(guān)系深化與價值創(chuàng)造考核試卷
- 椎管內(nèi)麻醉護理要點
- 高性能工業(yè)設(shè)備定期檢查及預(yù)防性維護保養(yǎng)協(xié)議
- 教育公共基礎(chǔ)知識整理版
- Q-SY 06351-2020 輸氣管道計量導(dǎo)則
- 如何預(yù)防與處理勞動爭議培訓(xùn)課件
- JJG 1148-2022電動汽車交流充電樁(試行)
- 儲煤場安全管理規(guī)范
- 小學(xué)體育《立定跳遠(yuǎn)》教學(xué)設(shè)計
- 青島市城市規(guī)劃管理技術(shù)規(guī)定
- 上海市各類建筑工程造價參考標(biāo)準(zhǔn)
- 2022糧食知識競賽真題模擬及答案
- 初一家長會課件差班
- 民法典物權(quán)編解讀課件
評論
0/150
提交評論