最新公告
  • 欢迎您光临起源地模板网,本站秉承服务宗旨 履行“站长”责任,销售只是起点 服务永无止境!立即加入钻石VIP
  • python爬虫案例之获取招聘要求

    正文概述    2020-07-22   347

    python爬虫案例之获取招聘要求

    在我们人生的路途中,找工作是每个人都会经历的阶段,小编曾经也是苦苦求职大军中的一员。怀着对以后的规划和想象,我们在找工作的时候,会看一些招聘信息,然后从中挑选合适的岗位。不过招聘的岗位每个公司都有不少的需求,我们如何从中获取数据,来进行针对岗位方面的查找呢?


    大致流程如下:

    1.从代码中取出pid

    2.根据pid拼接网址 => 得到 detail_url,使用requests.get,防止爬虫挂掉,一旦发现爬取的detail重复,就重新启动爬虫

    3.根据detail_url获取网页html信息 => requests - > html,使用BeautifulSoup

    若爬取太快,就等着解封

    if html.status_code!=200
    print('status_code if {}'.format(html.status_code))

    4.根据html得到soup => soup

    5.soup中获取特定元素内容 => 岗位信息

    6.保存数据到MongoDB中

     

    代码:

    # @author: limingxuan 
    # @contect: limx2011@hotmail.com
    # @blog: https://www.jianshu.com/p/a5907362ba72
    # @time: 2018-07-21
     
    import requests
    from bs4 import BeautifulSoup
    import time
    from pymongo import MongoClient
     
    headers = {    
        'accept': "application/json, text/javascript, */*; q=0.01",
        'accept-encoding': "gzip, deflate, br",
        'accept-language': "zh-CN,zh;q=0.9,en;q=0.8",
        'content-type': "application/x-www-form-urlencoded; charset=UTF-8",
        'cookie': "JSESSIONID=""; __c=1530137184; sid=sem_pz_bdpc_dasou_title; __g=sem_pz_bdpc_dasou_title; __l=r=https%3A%2F%2Fwww.zhipin.com%2Fgongsi%2F5189f3fadb73e42f1HN40t8~.html&l=%2Fwww.zhipin.com%2Fgongsir%2F5189f3fadb73e42f1HN40t8~.html%3Fka%3Dcompany-jobs&g=%2Fwww.zhipin.com%2F%3Fsid%3Dsem_pz_bdpc_dasou_title; Hm_lvt_194df3105ad7148dcf2b98a91b5e727a=1531150234,1531231870,1531573701,1531741316; lastCity=101010100; toUrl=https%3A%2F%2Fwww.zhipin.com%2Fjob_detail%2F%3Fquery%3Dpython%26scity%3D101010100; Hm_lpvt_194df3105ad7148dcf2b98a91b5e727a=1531743361; __a=26651524.1530136298.1530136298.1530137184.286.2.285.199",
        'origin': "https://www.zhipin.com",
        'referer': "https://www.zhipin.com/job_detail/?query=python&scity=101010100",
        'user-agent': "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_5) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.99 Safari/537.36"
        }
     
    conn = MongoClient('127.0.0.1',27017)
    db = conn.zhipin_jobs
     
    def init():
        items = db.Python_jobs.find().sort('pid')
        for item in items:
            if 'detial' in item.keys(): #当爬虫挂掉时,跳过已爬取的页
                continue
            detail_url = 'https://www.zhipin.com/job_detail/{}.html'.format(item['pid']) #单引号和双引号相同,str.format()新格式化方式
            #第一阶段顺利打印出岗位页面的url
            print(detail_url)
            #返回的html是 Response 类的结果
            html = requests.get(detail_url,headers = headers)
            if html.status_code != 200:
                print('status_code is {}'.format(html.status_code))
                break
            #返回值soup表示一个文档的全部内容(html.praser是html解析器)
            soup = BeautifulSoup(html.text,'html.parser')
            job = soup.select('.job-sec .text')
            print(job)
            #???
            if len(job)<1:
                continue
            item['detail'] = job[0].text.strip() #职位描述
            location = soup.select(".job-sec .job-location .location-address") 
            item['location'] = location[0].text.strip() #工作地点
            item['updated_at'] = time.strftime("%Y-%m-%d %H:%M:%S",time.localtime()) #实时爬取时间
            #print(item['detail'])
            #print(item['location'])
            #print(item['updated_at'])
            res = save(item) #调用保存数据结构
            print(res)
            time.sleep(40)#爬太快IP被封了24小时==
     
    #保存数据到MongoDB中
    def save(item):
        return db.Python_jobs.update_one({'_id':item['_id']},{'$set':item}) #why item ???
        
    # 保存数据到MongoDB
            
    if __name__ == '__main__':
        init()

       

    最终结果就是在MongoBooster中看到新增了detail和location的数据内容


    python爬虫案例之获取招聘要求 

     

    用以上的代码获取到的资料应该有不少,小伙伴们可以再筛选的查看一下,希望有找工作的小伙伴都能找到自己心仪的工作,小编为你们加油~!更多Python学习推荐:起源地模板网教学中心



    起源地下载网 » python爬虫案例之获取招聘要求

    常见问题FAQ

    免费下载或者VIP会员专享资源能否直接商用?
    本站所有资源版权均属于原作者所有,这里所提供资源均只能用于参考学习用,请勿直接商用。若由于商用引起版权纠纷,一切责任均由使用者承担。更多说明请参考 VIP介绍。
    提示下载完但解压或打开不了?
    最常见的情况是下载不完整: 可对比下载完压缩包的与网盘上的容量,若小于网盘提示的容量则是这个原因。这是浏览器下载的bug,建议用百度网盘软件或迅雷下载。若排除这种情况,可在对应资源底部留言,或 联络我们.。
    找不到素材资源介绍文章里的示例图片?
    对于PPT,KEY,Mockups,APP,网页模版等类型的素材,文章内用于介绍的图片通常并不包含在对应可供下载素材包内。这些相关商业图片需另外购买,且本站不负责(也没有办法)找到出处。 同样地一些字体文件也是这种情况,但部分素材会在素材包内有一份字体下载链接清单。
    模板不会安装或需要功能定制以及二次开发?
    请QQ联系我们

    发表评论

    还没有评论,快来抢沙发吧!

    如需帝国cms功能定制以及二次开发请联系我们

    联系作者

    请选择支付方式

    ×
    迅虎支付宝
    迅虎微信
    支付宝当面付
    余额支付
    ×
    微信扫码支付 0 元