import urllib.requestimport reimport ssl # 处理https请求import timeimport os # 创建目录用def get_html(url): page = urllib.request.urlopen(url) html = page.read() # 返回的是需要转码为字符串类型 html = html.decode('utf-8') # 返回的是 return htmlreg = 'src="(.+?\.jpg)" width' # 正则表达式reg_img = re.compile(reg) # 编译一下,运行更快ssl._create_default_https_context = ssl._create_unverified_context # 因为爬虫对象是https链接,导入一个ssl模块就可以解决问题imglist = reg_img.findall(get_html('http://tieba.baidu.com/p/1753935195')) # 进行匹配def mkdir(path): # 去除首位空格 path = path.strip() # 去除尾部 \ 符号 path = path.rstrip("\\") # 判断路径是否存在 # 存在 True # 不存在 False isExists = os.path.exists(path) # 判断结果 if not isExists: # 如果不存在则创建目录 # 创建目录操作函数 os.makedirs(path) print(path + ' 创建成功') return True else: # 如果目录存在则不创建,并提示目录已存在 print(path + ' 目录已存在') return False# 定义要创建的目录mkpath = "picture"# 调用函数picture = mkdir(mkpath)x = 0for img in imglist: urllib.request.urlretrieve(img, mkpath+'/%s.jpg' % time.time()) x += 1print("图片下载完成")