1 Star 0 Fork 1

钟龙申/yolo_v3_逐行注释

加入 Gitee
与超过 1200万 开发者一起发现、参与优秀开源项目,私有仓库也完全免费 :)
免费加入
文件
该仓库未声明开源许可证文件(LICENSE),使用请关注具体项目描述及其代码上游依赖。
克隆/下载
video_demo.py 4.42 KB
一键复制 编辑 原始数据 按行查看 历史
ChangFan 提交于 2020-02-19 11:38 . VERSION1
import cv2
import time
import numpy as np
import core.utils as utils
import tensorflow as tf
from PIL import Image,ImageGrab
def video_demo(return_elements,pb_file,vid,num_classes,input_size,storable):
#tf.graph(),定义计算图
# 计算图用于构建网络,本身不进行任何实际的计算
graph = tf.Graph()
# 从pb文件将计算图导入到当前默认图中
return_tensors = utils.read_pb_return_tensors(graph, pb_file, return_elements)
with tf.Session(graph=graph) as sess:
while True:
#按帧读取视频,vid.read()返回两个值,
#return_value是bool值,如果读取帧正确则返回True,如果文件读取到结尾,他的返回值就为False
#fram是三维矩阵,就是每一帧的图像
return_value, frame = vid.read()
if return_value:
#cv2.VideoCapture()读取后的图像为BGR格式
#将每一帧BGR图像转换成RGB图像,便于图像处理
frame = cv2.cvtColor(frame, cv2.COLOR_BGR2RGB)
#array转换成image
image = Image.fromarray(frame)
else:
# raise ValueError("No image!")
break
#获取图像尺寸大小
frame_size = frame.shape[:2]
#图像预处理
#将图像缩放为416*416
image_data = utils.image_preporcess(np.copy(frame), [input_size, input_size])
#增加一维,就是batch_size维,默认该维度为1
image_data = image_data[np.newaxis, ...]
#获取每一帧处理前的时间戳
prev_time = time.time()
#得到三种bounding box
pred_sbbox, pred_mbbox, pred_lbbox = sess.run(
[return_tensors[1], return_tensors[2], return_tensors[3]],
feed_dict={ return_tensors[0]: image_data})
#将预测结果组成一个矩阵
pred_bbox = np.concatenate([np.reshape(pred_sbbox, (-1, 5 + num_classes)),
np.reshape(pred_mbbox, (-1, 5 + num_classes)),
np.reshape(pred_lbbox, (-1, 5 + num_classes))], axis=0)
#TODO:
bboxes = utils.postprocess_boxes(pred_bbox, frame_size, input_size, 0.3)
#非极大值抑制,IOU的阈值设为0.45
bboxes = utils.nms(bboxes, 0.45, method='nms')
#TODO:
#得到的结果是一张张图片
image = utils.draw_bbox(frame, bboxes)
#获得每一帧处理后的时间戳
curr_time = time.time()
#计算每一帧处理时间
exec_time = curr_time - prev_time
# result = np.asarray(image)
# 输出每一帧处理时间
print("time: %.2f ms" %(1000*exec_time))
#图片的标题
cv2.namedWindow("result", cv2.WINDOW_AUTOSIZE)
#将RGB格式转化为BGR格式,便于cv2显示
result = cv2.cvtColor(image, cv2.COLOR_RGB2BGR)
#显示图像
cv2.imshow("result", result)
#保存图像
if storable:
videoWriter.write(result)
#键盘延迟1ms按'q'键退出
if cv2.waitKey(1) & 0xFF == ord('q'):
cv2.destroyAllWindows()
break
if __name__=="__main__":
return_elements = ["input/input_data:0", "pred_sbbox/concat_2:0", "pred_mbbox/concat_2:0", "pred_lbbox/concat_2:0"]
# 模型pb文件路径
pb_file = "./yolov3_coco.pb"
# 视频图像路径
# video_path= ""
# 摄像头输入端
video_path = 0
#保存视频路径
save_path="./result.avi"
#是否保存检测结果视频
storable=True
# 目标检测类别总数
num_classes = 80
# 输入图像的尺寸
input_size = 416
#从video_path中加载视频
#若video_path=0加载照相机中视频若video_path="str"加载str路径下的视频
vid = cv2.VideoCapture(video_path)
#获得fps值
fps = vid.get(cv2.CAP_PROP_FPS)
#获取vid的每一帧图像大小
size = (int(vid.get(cv2.CAP_PROP_FRAME_WIDTH)), int(vid.get(cv2.CAP_PROP_FRAME_HEIGHT)))
#声明保存视频的路径、视频编码格式、fps、图像尺寸大小
videoWriter = cv2.VideoWriter(save_path, cv2.VideoWriter_fourcc('I', '4', '2', '0'), fps, size)
video_demo(return_elements, pb_file, vid, num_classes, input_size,storable)
Loading...
马建仓 AI 助手
尝试更多
代码解读
代码找茬
代码优化
Python
1
https://gitee.com/zhonglongshen/tensorflow-yolov3-cast.git
[email protected]:zhonglongshen/tensorflow-yolov3-cast.git
zhonglongshen
tensorflow-yolov3-cast
yolo_v3_逐行注释
master

搜索帮助