作为重生人士的他,终究还是高估了现有的检测技术。
第一个真正意义上将深度学习技术应用到目标检测上的,应当是这个月刚刚提出来的R-net,也就是区域检测神经网络。
在传统算法map值止步于3o-4o,不再继续提升的情况下,R-net基于神经网络,一举突破了6o的map值。
它的R指得便是区域,检测任务说白了,就是指出物体在图片中的位置区域。
而即便在14-15年,R-net系列作为领先的高性能算法,他的推理时间也是奇慢无比的。
采用14年牛津大学的Vgg网络作为结构的骨干,需要整整几十秒才能处理一张图像。也就没有了任何实时的可能,只做学术研究之用,难以投入业界。
即便是一两年后,屡次更,升级迭代的快版本FastR-net系列,也只有o。5和个位数的Fps。
而孟繁岐给出的算法:yoLo。即便在448x448大小的图像上,度也过了8oFps。
如果采用最小的模型版本进行推理,度甚至可以达到惊人的2oo帧。
多少人直到十年后,玩游戏的时候显示器都显示不了1oo帧?
原本的初版yoLo技术其实在精确程度上还有所不足,毕竟,作为专注于度的检测技术,在性能上有所牺牲也是在所难免。
但孟繁岐开始接触yoLo技术的时候,都已经出到V4了,等到2o23年的时候,甚至都已经到了V7,V8。
很多细节上的问题,孟繁岐就是想犯错都不知道该怎么犯。
最开始记得的就是优化之后的技术。
此时此刻,比较常用的检测技术是dpm,3oFps性能26。1map,1ooFps性能仅为16。omap。
而这个月刚刚出来的R-net技术,性能虽然有一个质的突破,来到了5o-6o,但Fps已经到小数点后几位去了,根本用不了。
孟繁岐交出的结果则是,69。5map,82Fps,58。3map,2ooFps。
这已经不能说是普通的越了,简直是完爆中的完爆。
不过除了在这方面有所疏忽之外,孟繁岐实际上还是在有意识地想要做高这个性能。
纵观自己掌握的所有aI技术,唯有检测是现在阶段变现最快的。
这个功能直接粗暴好理解,易于展示。
只需要接上摄像头,给观众们实时地演示,这项aI技术可以流畅丝滑地检测出屏幕中的桌椅,人物,动植物等常见物体,就能够给观众最为直接的震撼。
像图像生成,语言对话等技术,还需要一定的时间,海量的数据和计算资源来支撑,自己才能够实现这些技术。
而在实际的应用前景上,检测技术不仅是现阶段最容易落地的技术,它的未来前景也非常辽阔。
两三年后搞自动驾驶的企业那是不计其数,如过江之鲫,数不胜数。
在检测上尽力做出夸张的突破,很有助于此后自己在这个方向上的历史地位,说白了其实就是更容易忽悠到钱。
只是他第一次把握刀法,经验不足,没有切好。不慎导致比较专业的人士对此有所误会。
本章完