简介:摘要目的探讨深度学习重建(DLR)较混合迭代重建(Hybrid IR)在改善胸部低剂量CT(LDCT)图像质量方面的效果。方法回顾性分析2020年10月至2021年3月在北京协和医院行胸部LDCT体检或因肺内结节定期复查的77例患者。对所有入组患者的影像资料进行不同算法重建,获得标准级别Hybrid IR图像、标准和强级别DLR图像。在3种图像的肺实质、主动脉、肩胛下肌及腋下脂肪内选取感兴趣区并测量其CT值和标准差,用于计算信噪比(SNR)和对比噪声比(CNR)。同时,由2名影像医师按照Likert 5分量表法对图像质量进行主观评分,且记录肺磨玻璃结节(GGN)的数量,并对其显示情况进行评分。2名医师评分不一致时由第3名医师评分决定。采用Kruskal-Wallis非参数检验对3种图像的主观和客观评分进行分析,若总体存在差异,则用Bonferroni校正检验进行组内两两比较。结果3种图像在肺实质、主动脉、肩胛下肌及腋下脂肪处的CT值差异均无统计学意义(P均>0.05),而图像噪声、SNR和图像的CNR差异均有统计学意义(P均<0.05)。其中标准级别Hybrid IR图像、标准和强级别DLR图像的CNR分别为0.71(0.49,0.88)、1.06(0.78,1.32)和1.14(0.84,1.48)。标准级别和强级别DLR图像均较标准级别Hybrid IR图像的主观和客观噪声低及SNR和CNR高,差异均有统计学意义(P均<0.05)。在对主要解剖结构(肺裂、肺血管、气管和支气管、淋巴结、胸膜和心包)和GGN的显示上,标准级别和强级别DLR图像评分明显优于Hybrid IR图像,差异均有统计学意义(P均<0.05)。结论与Hybrid IR相比,DLR可以明显降低LDCT图像的噪声,且对GGN的显示良好,有助于在较低辐射剂量水平时保证图像质量,从而改善采用CT行肺癌筛查及肺结节随访的安全性。
简介:摘要目的通过深度学习(DL)PET图像重建方法,提升不同采集时间18F-脱氧葡萄糖(FDG)PET图像质量。方法回顾性分析2020年9月至10月间山西医科大学第一医院核医学科45例恶性肿瘤患者[男20例、女25例,年龄(52.0±13.6)岁]PET图像。选择原始列表模式PET数据的短时30 s/床位PET图像作为输入,采用Unet网络,以全剂量标准采集时间(3 min)PET图像为模型判别标准,建立DL图像重建模型,以预测全剂量PET图像。分别对DL、30 s、90 s和120 s 4组图像进行图像质量评估及定量分析。采用5分法主观评估4组的图像质量。分别测量各组图像肝本底及肿瘤病灶定量参数:最大标准摄取值(SUVmax)、平均标准摄取值(SUVmean)、标准差(SD)、信噪比(SNR)、对比度噪声比(CNR)及一阶纹理特征(偏度、峰度、均匀度和熵)。采用Kappa检验、χ2检验、单因素方差分析(最小显著差异t检验)进行数据分析。结果4组图像质量评分具有高度一致性(Kappa=0.799,P<0.001),DL组评分≥3分共6例,30 s、90 s和120 s组评分≥3分别有4、7和8例(χ2=125.47,P<0.001)。DL组肝SD明显低于30 s组(0.26±0.07与0.43±0.11;F=3.58,t=-7.91,P<0.05),SNR高于30 s组(11.04±4.36与5.41±1.41;F=10.22,t=5.40,P<0.05);DL组肝SD及SNR与90 s组一致(0.39±0.16, 8.46±3.34;t值:-0.87和2.17,均P>0.05)。在18个高摄取肿瘤病灶中,DL组病灶SNR及CNR均高于30 s组(60.21±29.26与38.38±16.54,22.26±15.85与15.41±9.51;F值:13.09和7.05,t值:5.20和4.04,均P<0.001)。4组肝一阶纹理特征差异有统计学意义(F值:4.30~9.65,均P<0.05),但DL组与120 s组间差异无统计学意义(t值:-1.25~0.15,均P>0.05)。结论DL重建模型能较好地改善短帧PET图像质量,可以满足临床诊断、疗效评估和组学研究的需求。
简介:摘要目的探究深度学习算法(DLR)在胰腺低剂量CT扫描中改善图像质量的价值。方法前瞻性收集2020年8月至12月在北京协和医院进行腹部胰腺增强检查的68例患者,采用随机区组法分为正常剂量组和低剂量组,各34例,正常剂量组扫描管电压为120 kV,低剂量组管电压为100 kV。所有患者均行平扫、动脉期、实质期、延迟期扫描。低剂量组4期图像分别采用滤波反投影(FBP)、混合模型迭代算法(AIDR)和DLR 3种方法重建图像,正常剂量组4期图像均采用AIDR重建图像,分别记为LD-FBP、LD-AIDR、LD-DLR、RD-AIDR。测量胰腺的CT值、噪声值(SD),计算信噪比(SNR)、对比噪声比(CNR),不同重建方法图像间各参数的比较采用单因素方差分析,两两比较采用LSD法;对每组图像进行主观评分,多组间比较采用Kruskal-Wallis检验。结果正常剂量组和低剂量组患者胰腺平扫、动脉期、实质期、延迟期不同重建方法图像间胰腺CT值、SD、SNR、CNR差异均有统计学意义(P均<0.05)。实质期和延迟期图像LD-FBP、LD-AIDR、LD-DLR图像CT值均高于RD-AIDR图像(P均<0.05);4期图像间SD、SNR两两比较差异均有统计学意义(P均<0.05);4期LD-FBP、LD-DLR与RD-AIDR的CNR差异有统计学意义(P均<0.05),RD-AIDR的CNR优于LD-FBP,LD-DLR优于RD-AIDR。DLR算法对胰腺4期图像的SD、SNR、CNR均有改善,其中对SNR的改善增强图像更为显著,对CNR的改善平扫期和延迟期更为显著。胰腺4期不同算法重建图像主观评分差异均有统计学意义(P均<0.001)。LD-DLR与RD-AIDR评分差异无统计学意义(平扫、动脉期、实质期、延迟期Z值分别为1.00、2.24、0.45、1.34,P值分别为0.317、0.025、0.655、0.180)。结论DLR技术可以在降低胰腺CT辐射剂量的同时改善图像质量,满足诊断需求,在胰腺低剂量增强CT检查中可降低噪声,提高图像的信号SNR和CNR。
简介:摘要目的分析不同教学模式下和有不同学习动机的学生的线上学习行为与学习效果,为优化线上教学提供参考。方法选择2019和2020年参与中南大学生理学小规模限制性在线课程(small private online course,SPOC)和同年参与大规模在线开放课程(massive open online courses,MOOC)的学生,探讨不同教学模式下的线上学习行为和不同学习动机的学生的学习效果。从学习投入、互动行为和学习动机3方面分析学生的线上学习行为。采用SPSS 25.0软件,用函数计算、频率统计、回归分析、秩和检验、相关性检验、卡方检验等统计学方法进行数据分析。结果2020年SPOC学习者的学习参与度(z=14.36,P<0.001)和人机、人际互动学习水平(z=-11.70、-16.18,P均<0.001)均高于2019年。2019年、2020年的学生整体互动行为与成绩呈中等相关(r=0.42、0.52,P均<0.001),且人际互动行为相关更强(r=0.60、0.55,P均<0.001)。2019年SPOC和MOOC学习者的成绩构成不同(χ2=857.45,P<0.001)。外部动机的SPOC学习者学习效果优于内部动机的MOOC学习者(z=-28.42,P<0.001)。结论学校所采用的教学模式通过学生的在线学习投入和互动学习行为影响学习效果,学生自身的学习动机也对其在线学习效果起到关键作用。
简介:摘要目的通过基于卷积神经网络深度学习方法从增强CT合成平扫CT图像,临床主观和客观评估合成平扫CT图像(DL-SNCT)与金标准平扫CT图像的相似性,探讨其潜在临床价值。方法同时行常规平扫和增强CT扫描的患者34例,通过深度学习模型将增强CT图像合成DL-SNCT图像,以平扫CT图像为金标准,主观评价DL-SNCT的图像质量(评价指标包括解剖结构清晰度、伪影、噪声、图像结构完整性、图像变形,均采用4分制);利用配对t检验比较DL-SNCT与金标准平扫CT图像不同血供特点的解剖部位(主动脉、肾脏、肝实质、臀大肌)以及不同强化模式的肝脏病变(肝癌、肝血管瘤、肝转移瘤、肝囊肿)的CT值。结果主观评价上,DL-SNCT图像在伪影、噪声、图像结构完整性、图像变形方面评分都达到4分,与平扫CT图像评分相一致(P>0.05);在解剖结构清晰度方面评分略低于平扫CT图像[(3.59±0.70)分vs. 4分)],差异有统计学意义(Z=-2.89,P <0.05)。对于不同解剖部位而言,DL-SNCT图像主动脉、肾脏的CT值显著高于平扫CT图像(t=-12.89、-9.58,P <0.05),而肝实质、臀大肌CT值与平扫CT图像差异无统计学意义(P>0.05)。对于不同强化模式肝脏病变而言,DL-SNCT图像肝癌、肝血管瘤、肝转移瘤的CT值显著高于平扫CT图像(t=-10.84、-3.42、-3.98,P <0.05),而肝囊肿CT值与平扫CT图像差异无统计学意义(P>0.05)。结论DL-SNCT在图像质量上以及一些强化方式比较单一的解剖部位的CT值已接近金标准平扫CT,但对于强化程度变化大的解剖部位,以及有着不同强化模式的肝脏病变,DL-SNCT在临床应用前还有很大的改进空间。
简介:摘要目的构建智能消化内镜质控系统并评估其在胃肠镜检查中的质量监控作用。方法基于医学数字成像与通信协议,获取武汉大学人民医院消化内镜中心2016年12月—2018年10月胃肠镜检查患者的电子医疗记录和图像,采用深度卷积神经网络和深度强化学习方法开发智能消化内镜质控系统。该系统运用回盲部识别模型、体内外图像识别模型以及胃的26个部位识别模型,监控达盲率、肠镜退镜时间、胃镜检查时间、胃镜检查覆盖部位数等质控指标。随机选取武汉大学人民医院消化内镜中心2019年3—11月83例胃镜检查和205例肠镜检查患者的图像,测试智能消化内镜质控系统质量控制功能的准确性。结果智能消化内镜质控系统由胃镜质量分析、肠镜质量分析组成,可随时自动生成包含各质控指标的内镜医师胃肠镜检查质控报告。该系统监控的达盲率、肠镜退镜时间、胃镜检查时间和胃镜检查覆盖部位数的准确率分别为92.5%(172/186)、91.7%(188/205)、100.0%(83/83)和89.3%(1 928/2 158)。结论智能消化内镜质控系统可实现胃肠镜检查的质量监控作用,以便内镜医师了解自身的工作情况,从而提升胃肠镜检查质量。