怎么用python爬虫下载图片?
我们都只能知道爬虫是可以做数据的爬取,但是有小伙伴知道可以下载图片吗,居然还存在下载功能,这也是小编听到为数不多的内容,到底可不可以实现呢?看了其他人的实现操作,小编也被震惊了,于是,自己也整理了一番,可以教大家去下载图片,一起来看下吧~
1.获取图片的url链接
l 首先,打开想要的图片首页,注意下图url中的index
l 然后,右键检查网页源代码,直接(ctrl+F)搜索 objURL
l 最后,这样,我们发现了需要图片的url了。
2.把图片链接保存到本地
现在,我们要做的就是将这些信息爬取出来。
注:网页中有objURL,hoverURL…但是我们用的是objURL。
3.核心代码:
获取图片url代码:
# 获取图片url连接 def get_parse_page(pn,name): for i in range(int(pn)): # 1.获取网页 print('正在获取第{}页'.format(i+1)) # 百度图片首页的url # name是你要搜索的关键词 # pn是你想下载的页数 url = 'https://image.baidu.com/search/flip?tn=baiduimage&ie=utf-8&word=%s&pn=%d' %(name,i*20) headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/53.0.2785.104 Safari/537.36 Core/1.53.4843.400 QQBrowser/9.7.13021.400'} # 发送请求,获取相应 response = requests.get(url, headers=headers) html = response.content.decode() # print(html) # 2.正则表达式解析网页 # "objURL":"https://www.zixueka.com/wp-content/uploads/2023/10/1696934947-0f720e37998d6fc.jpg" results = re.findall('"objURL":"(.*?)",', html) # 返回一个列表 # 根据获取到的图片链接,把图片保存到本地 save_to_txt(results, name, i)
保存图片到本地代码:
# 保存图片到本地 def save_to_txt(results, name, i): j = 0 # 在当目录下创建文件夹 if not os.path.exists('./' + name): os.makedirs('./' + name) # 下载图片 for result in results: print('正在保存第{}个'.format(j)) try: pic = requests.get(result, timeout=10) time.sleep(1) except: print('当前图片无法下载') j += 1 continue # 可忽略,这段代码有bug # file_name = result.split('/') # file_name = file_name[len(file_name) - 1] # print(file_name) # # end = re.search('(.png|.jpg|.jpeg|.gif)$', file_name) # if end == None: # file_name = file_name + '.jpg' # 把图片保存到文件夹 file_full_name = './' + name + '/' + str(i) + '-' + str(j) + '.jpg' with open(file_full_name, 'wb') as f: f.write(pic.content) j += 1
好啦,以上就是根据爬虫下载的图片哦~是不是感觉非常神奇呢,小伙伴去找下自己想要的图片,跟着小编的操作,试试看,是否可以实现吧~
来源:PY学习网:原文地址:https://www.py.cn/article.html