paddlehub实现人物抠图换背景
文章目录
- 前言
- 简介
- paddlehub安装
- 功能实现
- 引入库
- 用到的hub库
- 每帧的图像处理
- 结果输出
- 总结
前言
看完文章您将学会:
paddlehub的使用方法
如何用cv2加载图片并保存
如何用cv2逐帧加载视频以及将图片逐帧保存成视频
如何将png格式的图片放入另一张图片
本文涉及paddlehub的人脸检测、图像分割和图像生成三个部分
详细的文档请访问: https://www.paddlepaddle.org.cn/hub
简介
本项目通过人脸检测将人脸遮挡实现打马赛的功能,同时通过风格转换和抠图将人物放置在新的背景下实现换背景的效果。
处理后的图片效果图:
paddlehub安装
pip install paddlehub --upgrade -i https://mirror.baidu.com/pypi/simple
paddlehub 中的模型对版本有要求
请安装最新版本的paddlehub
或者根据需要指定安装版本:
hub install name==version
功能实现
引入库
代码如下:
import paddle
import paddlehub as hub
import numpy as np
from PIL import Image, ImageFilter, ImageDraw
import cv2, osimport matplotlib.pyplot as plt
%matplotlib inlineprint(paddle.__version__)
用到的hub库
代码如下:
#用于人脸检测
face_detection = hub.Module(name="ultra_light_fast_generic_face_detector_1mb_640")
#用于风格转换
stylepro_artistic = hub.Module(name="stylepro_artistic")
#用于扣出人物
humanseg = hub.Module(name="deeplabv3p_xception65_humanseg")
可以查看一下数据的输出格式,本文中默认只考虑一个物体的情况:
# 查看一下使用方法及输出格式, 这里默认一张图片中只有一个目标物
face_detection_res = face_detection.face_detection(images=[cv2.imread('./work/me1.jpg')],paths=None,batch_size=1,use_gpu=False,visualization=False,output_dir=None,confs_threshold=0.5)
# [0]['data']
result = stylepro_artistic.style_transfer( images=[{'content': cv2.imread('./dog.png'),'styles': [cv2.imread('./style/style1.jpg'), cv2.imread('./style/style2.jpg'),cv2.imread('./style/style3.jpg'),cv2.imread('./style/style4.jpg'),cv2.imread('./style/style5.jpg')]}],visualization=True)
# [0]['data']
seg_res = humanseg.segment(images=[cv2.imread('./work/me1.jpg')],paths=None,batch_size=1,use_gpu=False,visualization=True,output_dir='humanseg_output')
# [0]['data']
每帧的图像处理
通过修改precess_img可以实现不同的处理效果。
def process_img(frame_bgr, index=0):'''输入一张图片shape=[H, W, C] 通道为bgr格式'''ratio = 1.4 y_offset = 30num_fps = 150t = 1h, w = frame_bgr.shape[:2]size = frame_bgr.shape[:2]face_detector = MyFaceDetector()face_detection_res = face_detector.face_detection(images=[frame_bgr], use_gpu=False, visualization=False)for box_dict in face_detection_res[0]['data']:box_xyxy = ( int(box_dict['left']), int(box_dict['top']), int(box_dict['right']), int(box_dict['bottom']) )box_xywh = int((box_xyxy[0]+box_xyxy[2])/2), int((box_xyxy[1]+box_xyxy[3])/2), box_xyxy[2]-box_xyxy[0], box_xyxy[3]-box_xyxy[1]correct_box_xywh = box_xywh[0], box_xywh[1]-y_offset, int(box_xywh[2]*ratio), int(box_xywh[3]*ratio)#真实框xyxybox = int(correct_box_xywh[0]-correct_box_xywh[2]/2) if int(correct_box_xywh[0]-correct_box_xywh[2]/2) >= 0 else 0, \int(correct_box_xywh[1]-correct_box_xywh[3]/2) if int(correct_box_xywh[1]-correct_box_xywh[3]/2) >= 0 else 0, \int(correct_box_xywh[0]+correct_box_xywh[2]/2) if int(correct_box_xywh[0]+correct_box_xywh[2]/2) <= size[1] else size[1], \int(correct_box_xywh[1]+correct_box_xywh[3]/2) if int(correct_box_xywh[1]+correct_box_xywh[3]/2) <= size[0] else size[0]dog = cv2.imread('./dog.png', -1) # -1 读取alpha通道dog = cv2.resize(dog, ( box[2]-box[0] if (box[2]-box[0])>0 else 1 , box[3]-box[1] if (box[3]-box[1])>0 else 1) )dog_alpha = dog[:,:,3] != 0dog_alpha = np.repeat(dog_alpha[:,:,np.newaxis], axis=2, repeats=3)human_alpha = humanseg.segmentation(images=[frame_bgr],paths=None,batch_size=1,use_gpu=False,visualization=False,output_dir='humanseg_output')[0]['data']human_alpha = np.repeat(human_alpha[:,:,np.newaxis], axis=2, repeats=3) != 0if index <= num_fps:bg = cv2.imread('./bg1.png')bg = cv2.resize(bg, (w, h))elif index > num_fps and index < (num_fps + t*30):beta = (index-num_fps)/30bg = beta * cv2.imread('./bg2.jpg')/255. + (1 - beta) * cv2.imread('./bg1.jpg')/255.bg = bg * 255bg = bg.astype('uint8')bg = cv2.resize(bg, (w, h))else:bg = cv2.imread('./bg2.png')bg = cv2.resize(bg, (w, h))# 加了这两项后运算时间会大大延长# frame_bgr = stylepro_artistic.style_transfer(images=[{'content': frame_bgr,# 'styles': [cv2.imread('./style/style1.jpg')]# }], use_gpu=False,# visualization=False)[0]['data']# dog = stylepro_artistic.style_transfer(images=[{'content': dog[:,:,:3],# 'styles': [cv2.imread('./style/style1.jpg')]# }], use_gpu=False,# visualization=False)[0]['data']bg[human_alpha] = frame_bgr[human_alpha] #根据alpah矩阵赋值bg[box[1]:box[1]+dog.shape[0], box[0]:box[0]+dog.shape[1], :][dog_alpha] = dog[:,:,:3][dog_alpha]# dog = cv2.imread('./dog.png', -1)# point_boxwh = (point[0], point[1] - (box[3]-box[1])//2 , box[2]-box[0], box[3]-box[1])
#
# point_box = point_boxwh[0]-point_boxwh[2]//2 if (point_boxwh[0]-point_boxwh[2]//2) >= 0 else 0, \
# point_boxwh[1]-point_boxwh[3]//2 if (point_boxwh[1]-point_boxwh[3]//2) >= 0 else 0, \
# point_boxwh[0]+point_boxwh[2]//2 if (point_boxwh[0]+point_boxwh[2]//2) <= size[1] else size[1], \
# point_boxwh[1]+point_boxwh[3]//2 if (point_boxwh[1]+point_boxwh[3]//2) <= size[0] else size[0]
# dog = cv2.resize(dog, ( point_box[2]-point_box[0] if (point_box[2]-point_box[0])>0 else 1, point_box[3]-point_box[1] if (point_box[3]-point_box[1])>0 else 1) )
# alpha_channel = dog[:,:,3] != 0
# alpha_channel = np.repeat(alpha_channel[:,:,np.newaxis], axis=2, repeats=3)
# # assert point_box[1]:point_box[1]+dog.shape[0], point_box[0]: point_box[0]+dog.shape[1]
# frame_bgr[point_box[1]:point_box[1]+dog.shape[0], point_box[0]: point_box[0]+dog.shape[1],:][alpha_channel] = dog[:,:,:3][alpha_channel]return bgdef CutVideo2Image(video_path, img_path):#将视频输出为图像#video_path为输入视频文件路径#img_path为输出图像文件夹路径cap = cv2.VideoCapture(video_path)index = 0while(True):ret,frame = cap.read() if ret:cv2.imwrite(img_path+'/%d.jpg'%index, frame)index += 1else:breakcap.release()class MyFaceDetector(object):"""自定义人脸检测器基于PaddleHub人脸检测模型ultra_light_fast_generic_face_detector_1mb_640,加强稳定人脸检测框"""def __init__(self):self.module = hub.Module(name="ultra_light_fast_generic_face_detector_1mb_640")self.alpha = 0.75self.start_flag =1def face_detection(self,images, use_gpu=False, visualization=False):# 使用GPU运行,use_gpu=True,并且在运行整个教程代码之前设置CUDA_VISIBLE_DEVICES环境变量result = self.module.face_detection(images=images, use_gpu=use_gpu, visualization=visualization)if not result[0]['data']:return resultface = result[0]['data'][0]if self.start_flag == 1:self.left_s = result[0]['data'][0]['left']self.right_s = result[0]['data'][0]['right']self.top_s = result[0]['data'][0]['top']self.bottom_s = result[0]['data'][0]['bottom']self.start_flag=0else:# 加权平均上一帧和当前帧人脸检测框位置,以稳定人脸检测框self.left_s = self.alpha * self.left_s + (1-self.alpha) * face['left'] self.right_s = self.alpha * self.right_s + (1-self.alpha) * face['right'] self.top_s = self.alpha * self.top_s + (1-self.alpha) * face['top']self.bottom_s = self.alpha * self.bottom_s + (1-self.alpha) * face['bottom'] result[0]['data'][0]['left'] = self.left_sresult[0]['data'][0]['right'] = self.right_sresult[0]['data'][0]['top'] = self.top_sresult[0]['data'][0]['bottom'] = self.bottom_sreturn result
结果输出
def generate_image():# 打开摄像头# capture = cv2.VideoCapture(0) capture = cv2.VideoCapture('./test.mp4')fps = capture.get(cv2.CAP_PROP_FPS)size = (int(capture.get(cv2.CAP_PROP_FRAME_WIDTH)),int(capture.get(cv2.CAP_PROP_FRAME_HEIGHT)))# 将预测结果写成视频video_writer = cv2.VideoWriter('result.mp4', cv2.VideoWriter_fourcc(*'mp4v'), fps, size)print(f'fps={fps}, size={size}')index = 0while True:# frame_rgb即视频的一帧数据ret, frame_bgr = capture.read() #从capture中读取帧# 按q键即可退出# cv2.imwrite('./work/me1.jpg', frame_bgr)# breakif cv2.waitKey(1) & 0xFF == ord('q'):breakif frame_bgr is None:break# cv2.imwrite('./work'+'/%d.jpg'%index, frame_bgr)index += 1#图像处理frame_bgr = process_img(frame_bgr, index)video_writer.write(frame_bgr) #写入帧# frame_rgb = cv2.cvtColor(frame_bgr, cv2.COLOR_RGB2BGR) # cv2.COLOR_RGB2BGR就是把0, 2 通道互换# yield frame_rgbcapture.release()video_writer.release()cv2.destroyAllWindows()generate_image()
总结
视频中人物的抠图效果需要提升,可以通过在cv2中进一步处理提升画面效果。
另外声音需要后期合成后单独加入,后续我会想办法把声音加上。
总的来看,paddlehub将一些主流的模型集成起来做成相应的接口,当需要时直接调用即可,使用起来也非常方便。这极大的降低了网络的使用门槛,只需要少量的代码即可实现复杂的功能。
paddlehub实现人物抠图换背景相关推荐
- 人物抠图换背景怎么做?教你几种抠图方法轻松抠出人物
怎么把图片中的人像抠出来换背景呢?在现代社会,照片已经成为人们生活的常见元素,而照片的后期处理也越来越受到人们的关注.当人们拍摄一张照片时,常常会想要将人像从背景中抠出来,以便更好地突出主题.此时,将 ...
- java抠图人物背景图片_人物抠图换背景两种实用方法!
人物抠图在平面设计中是非常常见的,那么到底要如何将图片素材中的人物抠出来,换到新的背景中呢?其中都有哪些要点?下面小编分享给大家两种实用的人物抠图方法,会使用到两种不同的图片编辑软件. 一.PS抠图 ...
- 图片如何抠图换背景?怎样将图片抠成透明底图片?
如果想让图片背景透明化,大家可以通过抠图(https://www.yasuotu.com/koutu)方法来进行操作.现在网上有很多抠图换背景的工具,操作复杂还需要下载,非常耽误大家的时间.今天可以使 ...
- PS 快速抠图换背景
ps如何快速抠图换背景. 打开图片并复制一层背景图层 点击工具栏[快速选择工具]选择人物整体轮廓 人物身上鼠标右键选择[选择并遮住]进入调整边缘界面 选择[调整边缘画笔]涂抹人物与背景相间的区域,确定 ...
- 什么软件能抠图换背景?这些软件大家都在用
现在拍照.P图已经成了许多小伙伴生活中不可或缺的一部分了,例如你想分享今天干了什么.出去吃大餐或是外出旅游,大家都会掏出手机用相机将这些记录下来,之后分享到社交平台上.但是拍照后,想将图片分享出来总需 ...
- 全自动抠图换背景软件下载_手机一键抠图换背景,用这个APP就是这么简单
用手机快速抠图换背景,并且抠的是'人像',我个人觉得相对较'快速'的抠图方法,是使用马卡龙玩图这个app,它绝对是一键抠图换背景的神器. 用这个软件抠图有几个前提条件: 1.所抠的图必须是人像: 2. ...
- 怎样用电脑抠图换背景?抠图怎么把背景变透明?
大家在平时的生活工作中经常遇到抠图(https://www.yasuotu.com/koutu)换背景的情况,虽然PS专业但绝大部分人并不能熟练使用PS,而且PS抠图比较耗时.有没有一款简单易用又无需 ...
- 如何抠图换背景?介绍两个抠图换背景的方法
如何抠图换背景?在我们的日常生活中,总是会需要使用到抠图技巧,现在已经进入冬天,有一些特殊情况以及天气寒冷,我们可能很少出门拍照.这个时候如果我们想要在朋友圈发一些新图的话,其实完全可以借助于抠图软件 ...
- 下面告诉你抠图换背景如何更真实
不知道大家有没有遇到这种情况,就是去景点拍照时,拍摄出来的照片背景都是人,根本看不出来照片的主角是谁.那我们在遇到这种情况时应该怎么办呢?其实很简单,只要使用软件将照片的人物抠下来,再换上一张好看的背 ...
最新文章
- 是男人就过8题!楼教主出题,请接招!
- scala调用java代码
- 初探语音识别ASR算法
- MyEclipse在删除文件后servers报错问题解决
- linux之ClamAV杀毒软件安装配置
- ajax 循环php数组,jQuery通过ajax请求php遍历json数组到table中的代码(推荐)
- json 数据 生成 图表_比Excel更美观!你可知PhotoShop也能画图表
- 关于String内存分配的深入探讨
- linux 开山(尚硅谷)--听课笔记-
- 概率论数理统计笔记01(对应教材——《概率论与数理统计》(同济大学出版社出版))
- Dell Optiplex 960 n series 释放SLIC
- 实现内容自动撑开盒子
- TPC-H和TPC-DS
- -2岁的产品经理学习日记2020/2/15
- Docker超详细版教程通俗易懂 -之- 进阶篇
- 模拟开关和数字开关的区别
- 脚本之win系统下批量ping通网段
- mac服务器文件同步软件,[MACOS]使用fswatch和SCP配合实现自动单向实时同步文件
- (ICASSP 19)AUTOMATIC GRAMMAR AUGMENTATION FOR ROBUST VOICE COMMAND RECOGNITION
- 二维数组实战项目--------《扫雷游戏》
热门文章
- 小学计算机老师毕业留言,计算机应用学生毕业留言
- 反身代词,物主代词,双重所有格
- 学霸双胞胎开源斯坦福CS 221人工智能备忘录,图文并茂看懂反射、状态、变量、逻辑...
- 多标签算法:MASP 的理论与Python代码分析
- 小米note2 二个微信同时工作
- android测试红米note2图片显示变小,【小米红米Note2评测】MIUI 7细节变化大于界面变化_小米 红米Note2_手机评测-中关村在线...
- 用数据分析的手段告诉你,复联4有多火爆!
- 20210122 matlab波特图从rad/s 改为HZ
- 浅谈设计模式-桥接模式
- 社群团购怎么做?这些经典案例教你如何起盘