当前位置: 首页 > news >正文

什么是网站挂马哪里去找做的好看的网站

什么是网站挂马,哪里去找做的好看的网站,wordpress后台怎么登入,监控性能网站模板7篇Python爬虫实例,可直接运行,适合收藏 python爬虫7篇实例,分七个文章进行发布;第二篇:爬取图片信息。 爬取图片信息,并将每张图片都下载下来。 爬虫主要三部分: 1、获取数据 2、数据解析 3、…

7篇Python爬虫实例,可直接运行,适合收藏

python爬虫7篇实例,分七个文章进行发布;第二篇:爬取图片信息。

  • 爬取图片信息,并将每张图片都下载下来。

爬虫主要三部分:
1、获取数据
2、数据解析
3、调用函数

  • 先上完整代码: 代码后面进行一步步解析。
import requests
from bs4 import BeautifulSoup
import osindex = range(2,5)
urls = []
for i in index:urls.append(f'https://pic.netbian.com/4kdongman/index_{i}.html')# https://pic.netbian.com/tupian/34851.html# 传入单个网页,获取网页上所有得图片链接
def craw_single_url(url):re = requests.get(url)re.encoding = 'gbk'soup = BeautifulSoup(re.text,'html.parser')pics_links = soup.find_all('img')links = []for link in pics_links:if 'uploads' not in link['src']:continuelinks.append(f'https://pic.netbian.com{link['src']}')return links# 传入图片链接,将图片下载到文件夹中
def imgs_download(links):for link in links:re = requests.get(link)pic_name = os.path.basename(link)with open(f'图片/{pic_name}','wb') as f:   # w : 写入 b : 二进制写入f.write(re.content)# 循环爬取的网页链接,将所有网页的 links 放入元组中
links = []
for url in urls:for link in craw_single_url(url):links.append(link)# 将所有的 link 图片下载下来
imgs_download(links)

1、获取数据

  • 该函数是获取该 url 链接下所有图片的链接
  • 函数返回值是:所有图片的链接
def craw_single_url(url):re = requests.get(url)          # 请求 urlre.encoding = 'gbk'             # gbk格式soup = BeautifulSoup(re.text,'html.parser')     # 创建一个 BeautifulSoup 对象,之后对其解析pics_links = soup.find_all('img')                       # 在soup 中找到 img 的链接links = []for link in pics_links:                                 # 循环每个链接if 'uploads' not in link['src']:                    # 判断是否正确的链接continuelinks.append(f'https://pic.netbian.com{link['src']}')   # 构建真正的图片链接return links

2、数据解析

  • 对获取到的图片 urls 进行解析
  • 循环 urls 下载图片到指定文件中
def imgs_download(links):                       # 下载图片函数for link in links:                          # 对传入图片链接进行循环re = requests.get(link)                 # 请求单个链接pic_name = os.path.basename(link)       # 获得图片的名字with open(f'图片/{pic_name}','wb') as f: # 打开 图片 文件夹进行写入 w : 写入 b : 二进制写入f.write(re.content)                 # 将图片保存到 图片 文件夹

3、进行调用

# 循环爬取的网页链接,将所有网页的 links 放入元组中
links = []              
for url in urls:                        # 循环每个页面for link in craw_single_url(url):   # 将每个页面得到的图片urls,放入 links列表   links.append(link)              # 放入 links列表   # 将所有的 link 图片下载下来
imgs_download(links)                    # 再调用 imgs_download 函数,对每张图片进行下载
http://www.yayakq.cn/news/388637/

相关文章:

  • 具有营销型网站的公司系统优化工具
  • 农业畜牧网站开发原创网站开发流程
  • 中国装饰公司营销型网站建设html链接网站模板
  • 网站如何做词怎么用域名建网站
  • 做网站是干啥的wordpress主题模版
  • 厦门 外贸公司做网站网上商城建设多少钱
  • 个人域名用来做淘宝客网站如今做那些网站能致富
  • 机场建设网站做外贸网站案例
  • 家用电脑做网站后台深圳外贸网站建设哪家好
  • 网站建设一条龙吉林省交通建设质量监督站网站
  • 网站数字化建设自己买域名可以做网站吗
  • 典当网站flash网站制作工具
  • 云南建设厅网站房地产开发资质互联网推广策划
  • 织梦动漫网站模板国家查企业的网站
  • lnmp wordpress网站宁波seo推广经验
  • 织梦做的网站图片路径在哪里郑州专业网站建设价格
  • 网站不同颜色域名 网站 区别
  • 建设网站什么软件比较好当今做哪个网站致富
  • 有哪些做微场景的没费网站网站建设基于
  • 站多多 福州网站建设wordpress 问答主题
  • 毕业设计做网站用php好吗什么网站可以做产品入驻
  • 湖南优化网站建设wordpress首页太慢
  • 外贸网站建设560工商企业管理就业方向
  • 网站群方案电子商务网站开发平台图
  • 移动网站建设哪家快企业网站建设门户
  • 网站聚合页网站怎么做效果更好
  • 未来分发网下载app信息流优化师没经验可以做吗
  • 什么叫网站策划书济南制作网站的公司吗
  • 如何建设旅游网站dtcms网站开发教程
  • 百分百营销软件西安seo服务商