摘要目的 基于YOLOv8神经网络开发针对结直肠息肉内镜图像的语义分割模型.方法 收集2018年6月至2024年2月期间的结直肠息肉内镜数据,包括静态图像和视频.所有样本均经过病理学验证,分为锯齿状病变和腺瘤性息肉两类.使用LabelMe工具进行了图像的多边形标注,并转换为YOLO模型兼容的格式.利用这些数据,进行了不同规模的YOLO神经网络模型的迁移学习和微调训练.模型的性能在验证集和测试集上进行了评估,包括精确率(Precision)、检测速度、准确率(ACC)、平均交并比(mIoU)等指标.结果 本研究开发了 5种不同版本大小的YOLOv8语义分割模型,包括v8n、v8s、v8m、v8l、v8x.其中YOLOv8l在速度(107.5帧/s)和精确率(94.50%)达到了最佳平衡,在内部验证集中YOLOv8l的准确率达0.924,mIoU达83.06%,Dice系数达0.941.在外部测试集中,准确率为0.902,mIoU为80.08%,Dice系数为0.923.结论 基于YOLOv8l构建的结直肠息肉语义分割模型具有良好地预测性能,能够自动对息肉进行定位和分类,并精确描述息肉的像素级轮廓.
更多相关知识
- 浏览6
- 被引0
- 下载2

相似文献
- 中文期刊
- 外文期刊
- 学位论文
- 会议论文