写在前面
安利一个神器,真神器从不bb,直接上图。
论文原文:YOLOv3: An Incremental Improvement
参考的一些大佬们的翻译,这篇论文的翻译在网上已经算很多的了,po上来纯粹是为了记录。
以下是翻译正文
我们推出了YOLO的一些更新!我们做了一篮子微小的设计上的改变来让YOLO变得更好。我们同时也把这个新网络训练得更臃肿了。它虽然比上一版本大了一点,但更加准确。别担心,它依然很快。在320x320的分辨率28.2mAP上YOLOv3跑出了22ms,跟SSD准确率一样但比它快三倍。用老旧的0.5 IOU mAP检测标准来衡量,YOLOv3很吼了。在Titan X上它达到了57.9 \(AP_{50}\) 推断时间(inference time)51ms以内,对比RetinaNet的57.5 \(AP_{50}\)推断时间198ms,性能相当但相比快了3.8倍。照旧,所有的代码都在https://pjreddie.com/yolo/。
本毕业设计拟针对自动驾驶数据集BDD100K,针对物体检测算法YOLOv3提出一种改进思路,以提高算法在此数据集上的物体检测性能。
计算机视觉中物体的检测、跟踪、识别是最基本的几个目标,而其中又以物体检测最为重要和基础。物体检测广泛应用于机器人导航、智能视频监控、工业检测、航空航天等诸多领域,通过计算机视觉减少对人力资本的消耗,具有重要的现实意义。不仅如此,物体检测同时也是泛身份识别领域的一个基础性的算法,它对后续的人脸识别、步态识别、人群计数、实例分割等任务也起着至关重要的作用。
前期知识储备:
首先深入学习并理解物体检测算法YOLOv3,掌握物体检测的任务、方法与评价指标,理解YOLOv3算法所使用的主干网(backbone network)、bounding box priors、bounding box分类与定位等技术细节。
系统功能:
针对自动驾驶数据集BDD100k,改进YOLOv3算法,提高算法在此数据集上的物体检测性能。应基于对BDD100k数据集中bounding box大小的分布,确定适合此数据集的bounding box priors;基于数据集中物体位置的分布特征,确定合适的检测策略;基于对不同类别物体的分布特征分析,逐类别提高算法的检测性能(可选);设计合适的输入预处理方法,充分利用图像的高分辨率提高算法的物体检测性能;设计对夜景图像的有效处理方法(可选)。
文档:
完成YOLOv3改进算法的设计、编码实现及调试、测试、分析工作后,应提供相应的算法设计、实现与分析文档。
说了很久要写一篇总结,拖到现在才写真是罪过啊。
说起来最近是真的有些疲惫了。
加油呐 👊
哦这篇文章仅用于给我自己总结,所以不太推荐阅读。当然如果能帮助到你的话我会很开心,但是我的确质疑这篇文章的实用性,所以看官们随意。
不接受任何人身攻击。