当前位置: 首页 > news >正文

OpenCV入门11——图像的分割与修复

文章目录

  • 图像分割的基本概念
  • 实战-分水岭法(一)
  • 实战-分水岭法(二)
  • GrabCut基本原理
  • 实战-GrabCut主体程序的实现
  • 实战-GrabCut鼠标事件的处理
  • 实战-调用GrabCut实现图像分割
  • meanshift图像分割
  • 视频前后景分离
  • 其它对视频前后影分离的方法
  • 图像修复

图像分割是计算机视觉中的一个重要领域,通过它我们可以做物体的统计,背景的变换等许多操作,而图像的修复可以说是它的逆运算

图像分割的基本概念

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

实战-分水岭法(一)

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
未知区域就是背景-前景
在这里插入图片描述

# -*- coding: utf-8 -*-
import cv2
import numpy as np#获取背景 
# 1. 通过二值法得到黑白图片
# 2. 通过形态学获取背景img = cv2.imread('./water_coins.jpeg')
gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)ret, thresh = cv2.threshold(gray, 100, 255, cv2.THRESH_BINARY)cv2.imshow('thresh', thresh)
if cv2.waitKey(0) & 0xff == 27:cv2.destroyAllWindows()

在这里插入图片描述
在这里插入图片描述

# -*- coding: utf-8 -*-
import cv2
import numpy as np#获取背景 
# 1. 通过二值法得到黑白图片
# 2. 通过形态学获取背景img = cv2.imread('./water_coins.jpeg')
gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)ret, thresh = cv2.threshold(gray, 0, 255, cv2.THRESH_BINARY_INV + cv2.THRESH_OTSU)cv2.imshow('thresh', thresh)
if cv2.waitKey(0) & 0xff == 27:cv2.destroyAllWindows()

在这里插入图片描述
把硬币膨胀,背景缩小,保证缩小后的背景里没有硬币,并且开运算可以去除背景的噪声

# -*- coding: utf-8 -*-
import cv2
import numpy as np#获取背景 
# 1. 通过二值法得到黑白图片
# 2. 通过形态学获取背景img = cv2.imread('./water_coins.jpeg')
gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)# 二值化
ret, thresh = cv2.threshold(gray, 0, 255, cv2.THRESH_BINARY_INV + cv2.THRESH_OTSU)# 开运算
kernel = np.ones((3, 3), np.int8)
open1 = cv2.morphologyEx(thresh, cv2.MORPH_OPEN, kernel, iterations=2)# 膨胀
bg = cv2.dilate(open1, kernel, iterations=1)cv2.imshow('bg', bg)
cv2.imshow('thresh', thresh)
if cv2.waitKey(0) & 0xff == 27:cv2.destroyAllWindows()

在这里插入图片描述

实战-分水岭法(二)

在这里插入图片描述
在这里插入图片描述

# -*- coding: utf-8 -*-
import cv2
import numpy as np
from matplotlib import pyplot as plt#获取背景 
# 1. 通过二值法得到黑白图片
# 2. 通过形态学获取背景img = cv2.imread('./water_coins.jpeg')
gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)# 二值化
ret, thresh = cv2.threshold(gray, 0, 255, cv2.THRESH_BINARY_INV + cv2.THRESH_OTSU)# 开运算
kernel = np.ones((3, 3), np.int8)
open1 = cv2.morphologyEx(thresh, cv2.MORPH_OPEN, kernel, iterations=2)# 膨胀
bg = cv2.dilate(open1, kernel, iterations=1)# 获取前景物体
dist = cv2.distanceTransform(open1, cv2.DIST_L2, 5);
plt.imshow(dist, cmap='gray')
plt.show()
exit()cv2.imshow('bg', bg)
cv2.imshow('thresh', thresh)
if cv2.waitKey(0) & 0xff == 27:cv2.destroyAllWindows()

在这里插入图片描述

# -*- coding: utf-8 -*-
import cv2
import numpy as np
from matplotlib import pyplot as plt#获取背景 
# 1. 通过二值法得到黑白图片
# 2. 通过形态学获取背景img = cv2.imread('./water_coins.jpeg')
gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)# 二值化
ret, thresh = cv2.threshold(gray, 0, 255, cv2.THRESH_BINARY_INV + cv2.THRESH_OTSU)# 开运算
kernel = np.ones((3, 3), np.int8)
open1 = cv2.morphologyEx(thresh, cv2.MORPH_OPEN, kernel, iterations=2)# 膨胀
bg = cv2.dilate(open1, kernel, iterations=1)# 获取前景物体
dist = cv2.distanceTransform(open1, cv2.DIST_L2, 5);ret, fg = cv2.threshold(dist, 0.7 * dist.max(), 255, cv2.THRESH_BINARY)# plt.imshow(dist, cmap='gray')
# plt.show()
# exit()cv2.imshow('fg', fg)
cv2.imshow('bg', bg)
cv2.imshow('thresh', thresh)
if cv2.waitKey(0) & 0xff == 27:cv2.destroyAllWindows()

在这里插入图片描述

# -*- coding: utf-8 -*-
import cv2
import numpy as np
from matplotlib import pyplot as plt#获取背景 
# 1. 通过二值法得到黑白图片
# 2. 通过形态学获取背景img = cv2.imread('./water_coins.jpeg')
gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)# 二值化
ret, thresh = cv2.threshold(gray, 0, 255, cv2.THRESH_BINARY_INV + cv2.THRESH_OTSU)# 开运算
kernel = np.ones((3, 3), np.int8)
open1 = cv2.morphologyEx(thresh, cv2.MORPH_OPEN, kernel, iterations=2)# 膨胀
bg = cv2.dilate(open1, kernel, iterations=1)# 获取前景物体
dist = cv2.distanceTransform(open1, cv2.DIST_L2, 5);ret, fg = cv2.threshold(dist, 0.7 * dist.max(), 255, cv2.THRESH_BINARY)# plt.imshow(dist, cmap='gray')
# plt.show()
# exit()# 获取未知区域
fg = np.uint8(fg)
unknown = cv2.subtract(bg, fg)cv2.imshow('unknown', unknown)
cv2.imshow('fg', fg)
cv2.imshow('bg', bg)
cv2.imshow('thresh', thresh)
if cv2.waitKey(0) & 0xff == 27:cv2.destroyAllWindows()

在这里插入图片描述
计算前景色的连通域

# -*- coding: utf-8 -*-
import cv2
import numpy as np
from matplotlib import pyplot as plt#获取背景 
# 1. 通过二值法得到黑白图片
# 2. 通过形态学获取背景img = cv2.imread('./water_coins.jpeg')
gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)# 二值化
ret, thresh = cv2.threshold(gray, 0, 255, cv2.THRESH_BINARY_INV + cv2.THRESH_OTSU)# 开运算
kernel = np.ones((3, 3), np.int8)
open1 = cv2.morphologyEx(thresh, cv2.MORPH_OPEN, kernel, iterations=2)# 膨胀
bg = cv2.dilate(open1, kernel, iterations=1)# 获取前景物体
dist = cv2.distanceTransform(open1, cv2.DIST_L2, 5);ret, fg = cv2.threshold(dist, 0.7 * dist.max(), 255, cv2.THRESH_BINARY)# plt.imshow(dist, cmap='gray')
# plt.show()
# exit()# 获取未知区域
fg = np.uint8(fg)
unknown = cv2.subtract(bg, fg)# 创建连通域
ret, marker = cv2.connectedComponents(fg)
print(marker)
marker = marker + 1
print(marker)
marker[unknown == 255] = 0# 进行图像分割
result = cv2.watershed(img, marker)
img[result == -1] = [0, 0, 255]cv2.imshow('img', img)
cv2.imshow('unknown', unknown)
cv2.imshow('fg', fg)
cv2.imshow('bg', bg)
cv2.imshow('thresh', thresh)
if cv2.waitKey(0) & 0xff == 27:cv2.destroyAllWindows()

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
详细操作见官方文档
在这里插入图片描述
在这里插入图片描述

GrabCut基本原理

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

实战-GrabCut主体程序的实现

# -*- coding: utf-8 -*-
import cv2
import numpy as npclass App:def onmouse(self, event, x, y, flags, param):print("onmouse")def run(self):print("run...")cv2.namedWindow('input', cv2.WINDOW_NORMAL)cv2.setMouseCallback('input', self.onmouse)img = cv2.imread('./lena.png')cv2.imshow('input', img)if cv2.waitKey(0) & 0xff == 27:cv2.destroyAllWindows()App().run()

在这里插入图片描述

实战-GrabCut鼠标事件的处理

# -*- coding: utf-8 -*-
import cv2
import numpy as npclass App:def onmouse(self, event, x, y, flags, param):# print("onmouse")if event == cv2.EVENT_LBUTTONDOWN:print("LBUTTONDOWN")elif event == cv2.EVENT_LBUTTONUP:print("EVENT_LBUTTONUP")elif event == cv2.EVENT_MOUSEMOVE:print("EVENT_MOUSEMOVE")def run(self):print("run...")cv2.namedWindow('input', cv2.WINDOW_NORMAL)cv2.setMouseCallback('input', self.onmouse)img = cv2.imread('./lena.png')cv2.imshow('input', img)if cv2.waitKey(0) & 0xff == 27:cv2.destroyAllWindows()App().run()

在这里插入图片描述

# -*- coding: utf-8 -*-
import cv2
import numpy as npclass App:startX = 0startY = 0def onmouse(self, event, x, y, flags, param):# print("onmouse")if event == cv2.EVENT_LBUTTONDOWN:self.startX = xself.startY = y# print("LBUTTONDOWN")elif event == cv2.EVENT_LBUTTONUP:cv2.rectangle(self.img, (self.startX, self.startY), (x, y), (0, 255, 0), 2)# print("EVENT_LBUTTONUP")elif event == cv2.EVENT_MOUSEMOVE:print("EVENT_MOUSEMOVE")def run(self):print("run...")cv2.namedWindow('input', cv2.WINDOW_NORMAL)cv2.setMouseCallback('input', self.onmouse)# 隐式的定义成员变量self.img = cv2.imread('./lena.png')while True:cv2.imshow('input', self.img)if cv2.waitKey(100) & 0xff == 27:cv2.destroyAllWindows()breakApp().run()

在这里插入图片描述

# -*- coding: utf-8 -*-
import cv2
import numpy as npclass App:startX = 0startY = 0flag_rect = Falsedef onmouse(self, event, x, y, flags, param):# print("onmouse")if event == cv2.EVENT_LBUTTONDOWN:self.flag_rect = Trueself.startX = xself.startY = y# print("LBUTTONDOWN")elif event == cv2.EVENT_LBUTTONUP:cv2.rectangle(self.img, (self.startX, self.startY), (x, y), (0, 255, 0), 3)self.flag_rect = False# print("EVENT_LBUTTONUP")elif event == cv2.EVENT_MOUSEMOVE:if self.flag_rect == True:#鼠标每次移动的时候再拷贝一份img2到img用于显示(img会一直刷新,所以之前鼠标移动画的不会影响后面)self.img = self.img2.copy()cv2.rectangle(self.img, (self.startX, self.startY), (x, y), (255, 255, 0), 3)# print("EVENT_MOUSEMOVE")def run(self):print("run...")cv2.namedWindow('input', cv2.WINDOW_NORMAL)cv2.setMouseCallback('input', self.onmouse)# 隐式的定义成员变量self.img = cv2.imread('./lena.png')self.img2 = self.img.copy()while True:cv2.imshow('input', self.img)if cv2.waitKey(100) & 0xff == 27:cv2.destroyAllWindows()breakApp().run()

在这里插入图片描述

实战-调用GrabCut实现图像分割

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

# -*- coding: utf-8 -*-
import cv2
import numpy as npclass App:startX = 0startY = 0flag_rect = Falserect = (0, 0, 0, 0)def onmouse(self, event, x, y, flags, param):# print("onmouse")if event == cv2.EVENT_LBUTTONDOWN:self.flag_rect = Trueself.startX = xself.startY = y# print("LBUTTONDOWN")elif event == cv2.EVENT_LBUTTONUP:cv2.rectangle(self.img, (self.startX, self.startY), (x, y), (0, 255, 0), 3)self.flag_rect = Falseself.rect = (min(self.startX, x), min(self.startY, y), abs(self.startX - x), abs(self.startY - y))# print("EVENT_LBUTTONUP")elif event == cv2.EVENT_MOUSEMOVE:if self.flag_rect == True:#鼠标每次移动的时候再拷贝一份img2到img用于显示(img会一直刷新,所以之前鼠标移动画的不会影响后面)self.img = self.img2.copy()cv2.rectangle(self.img, (self.startX, self.startY), (x, y), (255, 255, 0), 3)# print("EVENT_MOUSEMOVE")def run(self):print("run...")cv2.namedWindow('input', cv2.WINDOW_NORMAL)cv2.setMouseCallback('input', self.onmouse)# 隐式的定义成员变量self.img = cv2.imread('./lena.png')self.img2 = self.img.copy()self.mask = np.zeros(self.img.shape[:2], dtype=np.uint8)self.output = np.zeros(self.img.shape, np.uint8)while True:cv2.imshow('input', self.img)cv2.imshow('output', self.output)k = cv2.waitKey(100)if k & 0xff == 27:cv2.destroyAllWindows()breakif k & 0xff == ord('g'):bgdmodel = np.zeros((1, 65), np.float64)fgdmodel = np.zeros((1, 65), np.float64)cv2.grabCut(self.img2, self.mask, self.rect, bgdmodel, fgdmodel, 1, cv2.GC_INIT_WITH_RECT)mask2 = np.where((self.mask==1) | (self.mask == 3), 255, 0).astype('uint8')self.output = cv2.bitwise_and(self.img2, self.img2, mask=mask2)App().run()

在这里插入图片描述
在这里插入图片描述

meanshift图像分割

基于色彩进行图像分割
在这里插入图片描述
在这里插入图片描述
sp越大模糊程度越大,sp越小模糊程度越小

sr越大,连成一片区域的可能性越大
在这里插入图片描述

# -*- coding: utf-8 -*-
import cv2
import numpy as npimg = cv2.imread('flower.png')
mean_img = cv2.pyrMeanShiftFiltering(img, 20, 30)cv2.imshow('img', img)
cv2.imshow('mean_img', mean_img)
if cv2.waitKey(0) & 0xff == 27:cv2.destroyAllWindows()

在这里插入图片描述

# -*- coding: utf-8 -*-
import cv2
import numpy as np# cv2.namedWindow('img', cv2.WINDOW_NORMAL)
# cv2.namedWindow('mean_img', cv2.WINDOW_NORMAL)
img = cv2.imread('flower.png')
# img = cv2.imread('E:/pic/picc/IMG_20230610_192709.jpg')
mean_img = cv2.pyrMeanShiftFiltering(img, 20, 30)imgCanny = cv2.Canny(mean_img, 150, 200)cv2.imshow('img', img)
cv2.imshow('mean_img', mean_img)
cv2.imshow('imgCanny', imgCanny)
if cv2.waitKey(0) & 0xff == 27:cv2.destroyAllWindows()

在这里插入图片描述

# -*- coding: utf-8 -*-
import cv2
import numpy as np# cv2.namedWindow('img', cv2.WINDOW_NORMAL)
# cv2.namedWindow('mean_img', cv2.WINDOW_NORMAL)
# img = cv2.imread('flower.png')
img = cv2.imread('key.png')
# img = cv2.imread('E:/pic/picc/IMG_20230610_192709.jpg')
mean_img = cv2.pyrMeanShiftFiltering(img, 20, 30)imgCanny = cv2.Canny(mean_img, 150, 200)contours, hierarchy = cv2.findContours(imgCanny, cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE)cv2.drawContours(img, contours, -1, (0, 255, 0), 2)cv2.imshow('img', img)
cv2.imshow('mean_img', mean_img)
cv2.imshow('imgCanny', imgCanny)
if cv2.waitKey(0) & 0xff == 27:cv2.destroyAllWindows()

在这里插入图片描述
在这里插入图片描述

视频前后景分离

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

# -*- coding: utf-8 -*-
import cv2
import numpy as npcap = cv2.VideoCapture('./MyVideo.wmv')
mog = cv2.bgsegm.createBackgroundSubtractorMOG()while True:ret, frame = cap.read()fgmask = mog.apply(frame)cv2.imshow('img', fgmask)k = cv2.waitKey(40)if k & 0xff == 27:break
cap.release()
cv2.destroyAllWindows()

在这里插入图片描述

其它对视频前后影分离的方法

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

# -*- coding: utf-8 -*-
import cv2
import numpy as npcap = cv2.VideoCapture('./MyVideo.wmv')
# mog = cv2.bgsegm.createBackgroundSubtractorMOG()
# 优点:可以计算出阴影部分
# 缺点:会产生很多噪点
mog = cv2.createBackgroundSubtractorMOG2()while True:ret, frame = cap.read()fgmask = mog.apply(frame)cv2.imshow('img', fgmask)k = cv2.waitKey(40)if k & 0xff == 27:break
cap.release()
cv2.destroyAllWindows()

在这里插入图片描述
在这里插入图片描述

# -*- coding: utf-8 -*-
import cv2
import numpy as npcv2.namedWindow('img', cv2.WINDOW_NORMAL)
cap = cv2.VideoCapture('./MyVideo.wmv')
# mog = cv2.bgsegm.createBackgroundSubtractorMOG()
# 优点:可以计算出阴影部分
# 缺点:会产生很多噪点
# mog = cv2.createBackgroundSubtractorMOG2()# 优点:可以算出阴影部分,同时减少了噪点
# 缺点:如果采用默认值,则在开始一段时间内没有任何信息显示
# 解决办法:调整初始参考帧数量
mog = cv2.bgsegm.createBackgroundSubtractorGMG()while True:ret, frame = cap.read()fgmask = mog.apply(frame)cv2.imshow('img', fgmask)k = cv2.waitKey(40)if k & 0xff == 27:break
cap.release()
cv2.destroyAllWindows()

在这里插入图片描述

图像修复

在这里插入图片描述
在这里插入图片描述
生成掩码

# -*- coding: utf-8 -*-
import cv2          
import numpy as npstart_point=(0,0) #鼠标开始坐标
lb_down = False #鼠标左键按下的标志,bool型def mouse_event(event,x,y,flags,param):global start_point,end_point,lb_down #如果全局变量是int或者str,那么如果想要在函数中对函数变量进行修改,则需要#先在函数内,声明其为global,再进行修改,如果是list或者dict则可以直接修改#左键按下,更新鼠标坐标,启动按下标志if event == cv2.EVENT_LBUTTONDOWN:  start_point = (x,y)lb_down = True#鼠标移动,绘制线elif event == cv2.EVENT_MOUSEMOVE and lb_down: cv2.line(img,start_point,(x,y),(0,0,255),thickness=8)cv2.line(mask,start_point,(x,y),(255,255,255),thickness=8)#只要鼠标移动,就更新鼠标的坐标  start_point = (x,y)      #左键释放elif event == cv2.EVENT_LBUTTONUP: #鼠标点击后直接释放鼠标的时候也会绘制一个点cv2.line(img,start_point,(x,y),(255,255,255),thickness=5)  cv2.line(mask,start_point,(x,y),(255,255,255),thickness=5)lb_down = Falsecv2.namedWindow('image')   #新建窗口,用来进行鼠标操作       
img = cv2.imread('./inpaint.png')       
mask = np.zeros(img.shape, np.uint8)  #创建一个黑色mask图像cv2.setMouseCallback('image',mouse_event)  #设置鼠标回调while True:cv2.imshow('image',img)cv2.imshow('mask',mask)if cv2.waitKey(1)==ord('q'): #waitKey参数不能写0,写0就需要键盘输入才会继续break
cv2.imwrite("./mask.png", mask)
cv2.destroyAllWindows()

在这里插入图片描述

# -*- coding: utf-8 -*-
import cv2
import numpy as npimg = cv2.imread('inpaint.png')
mask = cv2.imread('mask.png', 0)dst = cv2.inpaint(img, mask, 5, cv2.INPAINT_TELEA)cv2.imshow('dst', dst)
cv2.imshow('img', img)
if cv2.waitKey(0) & 0xff == 27:cv2.destroyAllWindows()

在这里插入图片描述

效果很差。。。
之后我会持续更新,如果喜欢我的文章,请记得一键三连哦,点赞关注收藏,你的每一个赞每一份关注每一次收藏都将是我前进路上的无限动力 !!!↖(▔▽▔)↗感谢支持!

相关文章:

  • H5 uniapp 接入wx sdk
  • Vue 定义只读数据 readonly
  • Java EE 进程线程
  • webpack配置完热更新之后还是会刷新整个页面
  • 制作openeuler制作livecd
  • VScode 配置
  • 计算机视觉的应用19-基于pytorch框架搭建卷积神经网络CNN的卫星地图分类问题实战应用
  • Python 使用XlsxWriter操作Excel
  • TCP知识点
  • C语言--每日选择题--Day24
  • ElasticSearch02
  • 局域网的网络ip不稳定问题
  • 【差旅游记】新疆哈密回王府印象
  • 唯创知音WT2605C-A001音频蓝牙语音芯片:小巧体积,高品质音频播放的创新
  • Grafana采用Nginx反向代理
  • [ 一起学React系列 -- 8 ] React中的文件上传
  • 【跃迁之路】【463天】刻意练习系列222(2018.05.14)
  • axios 和 cookie 的那些事
  • HashMap剖析之内部结构
  • Linux CTF 逆向入门
  • Redis学习笔记 - pipline(流水线、管道)
  • 检测对象或数组
  • 深入浅出webpack学习(1)--核心概念
  • 使用 Docker 部署 Spring Boot项目
  • 硬币翻转问题,区间操作
  • - 转 Ext2.0 form使用实例
  • # Swust 12th acm 邀请赛# [ K ] 三角形判定 [题解]
  • # 达梦数据库知识点
  • (java版)排序算法----【冒泡,选择,插入,希尔,快速排序,归并排序,基数排序】超详细~~
  • (M)unity2D敌人的创建、人物属性设置,遇敌掉血
  • (安全基本功)磁盘MBR,分区表,活动分区,引导扇区。。。详解与区别
  • (二)WCF的Binding模型
  • (强烈推荐)移动端音视频从零到上手(下)
  • (十七)devops持续集成开发——使用jenkins流水线pipeline方式发布一个微服务项目
  • (四)七种元启发算法(DBO、LO、SWO、COA、LSO、KOA、GRO)求解无人机路径规划MATLAB
  • (学习日记)2024.01.19
  • (循环依赖问题)学习spring的第九天
  • (转)Android学习系列(31)--App自动化之使用Ant编译项目多渠道打包
  • (转)c++ std::pair 与 std::make
  • ***测试-HTTP方法
  • ***汇编语言 实验16 编写包含多个功能子程序的中断例程
  • .NET Compact Framework 3.5 支持 WCF 的子集
  • .Net Framework 4.x 程序到底运行在哪个 CLR 版本之上
  • .net MySql
  • .net6使用Sejil可视化日志
  • .xml 下拉列表_RecyclerView嵌套recyclerview实现二级下拉列表,包含自定义IOS对话框...
  • @CacheInvalidate(name = “xxx“, key = “#results.![a+b]“,multi = true)是什么意思
  • @data注解_SpringBoot 使用WebSocket打造在线聊天室(基于注解)
  • @在php中起什么作用?
  • [100天算法】-每个元音包含偶数次的最长子字符串(day 53)
  • [20190113]四校联考
  • [Android] Amazon 的 android 音视频开发文档
  • [C#]C# winform实现imagecaption图像生成描述图文描述生成
  • [C#]DataTable常用操作总结【转】
  • [C#]获取指定文件夹下的所有文件名(递归)