python数据爬虫——如何爬取二级页面(三)



前面两篇文章讲了单页面如何爬取,那么我们来试试如何爬取二级页面。

在爬取页面的时候,需要有个良好的习惯,提前对爬取的页面和爬取思路进行一个分析。

目的:爬取携程无忧数据分析师的二级页面,获取每个岗位的要求。

页面的构成:二级页面是点击一级页面跳转的。

解决思路:
1、在一级页面中获取二级页面的链接
2、在二级二面中获取想要的数据。

这里我们会用到BeautifulSoup。

思路有了,那我们开始吧!

1、获取二级页面的链接,href路径获取,浏览器点开检查。找到相对应的href位置:

import requests
from bs4 import BeautifulSoup
from lxml import etree
import time
import csv

headers={
  'user-agent':'Mozilla/5.0'
}#模拟浏览器进行爬取

url = 'https://search.51job.com/list/000000%252C00,000000,0000,00,9,99,%25E6%2595%25B0%25E6%258D%25AE%25E5%2588%2586%25E6%259E%2590%25E5%25B8%2588,2,'
#网页内容格式调整
i = 0
for n in range(1,10):
    r = url+str(n)+str('.html')
    html = requests.get(r,headers=headers)
    html.raise_for_status()
    html.encoding = html.apparent_encoding#内容获取的内容进行转码,以防出现乱码的情况。    

    soup = BeautifulSoup(html.text,'html.parser')
    liebiao = soup.find_all('p','t1')#获取第一页href相关的位置
    #print(liebiao)
    for item in liebiao:
        shuju = item.find('span')
        link = shuju.find('a')['href']提取出href.
        
        id = i+1  #写了一个自增长。方便自己查看当前数据是第几条。
        i = id         

        print(id,link)
        time.sleep(1)

好了,代码写好了,让我们来试试结果吧!
在这里插入图片描述
这里截取了部分数据,大家可以尝试一下,要是对路径获取不清楚的地方,可以去看一下我前面两篇文章。

2.获得了二级页面的连接,我们来通过这些链接抓取二级页面的数据吧!
先确认一下,我们要抓取哪些信息:
在这里插入图片描述
我们再把xpath获取内容的方法再回顾一遍,这里也可以用前面使用的新方法,全看个人喜好恩。
我们来看看获取二级页面内容的代码:

   date_html=requests.get(link,headers=headers).text
    f = etree.HTML(date_html)
    Date = f.xpath('/html/body/div[3]/div[2]/div[2]/div/div[1]/h1/@title')
    print(Date)
    name = f.xpath('/html/body/div[3]/div[2]/div[2]/div/div[1]/p[1]/a[1]/@title')
    print(name)
    money = f.xpath('/html/body/div[3]/div[2]/div[2]/div/div[1]/strong/text()')
    print(money)
    content = f.xpath('/html/body/div[3]/div[2]/div[3]/div[1]/div/p/text()')
    print(content)
    business = f.xpath('/html/body/div[3]/div[2]/div[4]/div[1]/div[2]/p[1]/@title')
    print(business)
    address = f.xpath('/html/body/div[3]/div[2]/div[2]/div/div[1]/p[2]/text()[1]')
    print(address)
    profession = f.xpath('/html/body/div[3]/div[2]/div[4]/div[1]/div[2]')
    for liebiao2 in  profession:
        profession2 = liebiao2.xpath('./p[3]/a/text()')
        print(profession2)

数据路径有相关的规律,大家可以调整一下,参考我的二篇文章。

完整代码结合起来看看:

import requests
from bs4 import BeautifulSoup
from lxml import etree
import time
import csv

fp = open('C:/Users/MIiNA/Desktop/Date.csv','wt',newline='',encoding='utf_8_sig')
#fp = open('C:/Users/JX/Desktop/Date.csv','wt',newline='',encoding='utf_8_sig')
writer = csv.writer(fp)


headers={
  'user-agent':'Mozilla/5.0'
}

url = 'https://search.51job.com/list/000000%252C00,000000,0000,00,9,99,%25E6%2595%25B0%25E6%258D%25AE%25E5%2588%2586%25E6%259E%2590%25E5%25B8%2588,2,'
#网页内容格式调整
i = 0
for n in range(1,10):
    r = url+str(n)+str('.html')
    html = requests.get(r,headers=headers)
    html.raise_for_status()
    html.encoding = html.apparent_encoding     
    
    soup = BeautifulSoup(html.text,'html.parser')
    liebiao = soup.find_all('p','t1')
    for item in liebiao:
        shuju = item.find('span')
        link = shuju.find('a')['href']
        
        id = i+1
        i = id         
#        print(id,link)
        print(id)
        time.sleep(1)
        
        date_html=requests.get(link,headers=headers).text  
        f = etree.HTML(date_html)
        Date = f.xpath('/html/body/div[3]/div[2]/div[2]/div/div[1]/h1/@title')
        print(Date)
        name = f.xpath('/html/body/div[3]/div[2]/div[2]/div/div[1]/p[1]/a[1]/@title')
        print(name)
        money = f.xpath('/html/body/div[3]/div[2]/div[2]/div/div[1]/strong/text()')
        print(money)
        content = f.xpath('/html/body/div[3]/div[2]/div[3]/div[1]/div/p/text()')
        print(content)
        business = f.xpath('/html/body/div[3]/div[2]/div[4]/div[1]/div[2]/p[1]/@title')
        print(business)
        address = f.xpath('/html/body/div[3]/div[2]/div[2]/div/div[1]/p[2]/text()[1]')
        print(address)
        profession = f.xpath('/html/body/div[3]/div[2]/div[4]/div[1]/div[2]')
        for liebiao2 in  profession:
            profession2 = liebiao2.xpath('./p[3]/a/text()')
            print(profession2)
        writer.writerow((id,Date,name,money,content,business,profession2,address))
        time.sleep(1)
fp.close()

上面代码把保存方式也加上了。看看结果如何!
在这里插入图片描述
有些数据为空没获取到,排查原因是个别二级页面网页结构不一样导致,不影响整体使用。

欢迎大家持续关注,后期为大家带来更多分享。