摘要:实际上,前程无忧招聘网站上与数据有关的只有几百页,而我们爬取了页的所有数据,因此在后面进行数据处理时需要把无关的数据剔除掉。
目录
随着科技的不断进步与发展,数据呈现爆发式的增长,各行各业对于数据的依赖越来越强,与数据打交道在所难免,而社会对于“数据”方面的人才需求也在不断增大。因此了解当下企业究竟需要招聘什么样的人才?需要什么样的技能?不管是对于在校生,还是对于求职者来说,都显得十分必要。
对于一名小白来说,想要入门数据分析,首先要了解目前社会对于数据相关岗位的需求情况,基于这一问题,本文针对前程无忧招聘网站,利用python爬取了其全国范围内大数据、数据分析、数据挖掘、机器学习、人工智能等与数据相关的岗位招聘信息。并通过Tableau可视化工具分析比较了不同行业的岗位薪资、用人需求等情况;以及不同行业、岗位的知识、技能要求等。
可视化分析效果图示例:
一级页面如下:
二级页面如下:
import jsonimport requestsimport pandas as pdfrom selenium import webdriverfrom selenium.webdriver.common.by import Byfrom selenium.webdriver.support.ui import WebDriverWaitfrom selenium.webdriver.support import expected_conditions as ECfrom lxml import etreefrom selenium.webdriver import ChromeOptions
由于前程无忧招聘网站的反爬机制较强,采用动态渲染+限制ip访问频率等多层反爬,因此在获取二级页面链接时需借助json进行解析,本文对于二级页面岗位信息的获取采用selenium模拟浏览器爬取,同时通过代理IP的方式,每隔一段时间换一次请求IP以免触发网站反爬机制。
# 第一页URL的特征"https://search.51job.com/list/000000,000000,0000,00,9,99,数据,2,1.html?"# 第二页URL的特征"https://search.51job.com/list/000000,000000,0000,00,9,99,数据,2,2.html?"# 第三页URL的特征"https://search.51job.com/list/000000,000000,0000,00,9,99,数据,2,3.html?"
通过观察不同页面的URL可以发现,不同页面的URL链接只有“.html”前面的数字不同,该数字正好代表该页的页码 ,因此只需要构造字符串拼接,然后通过for循环语句即可构造自动翻页。
url1 = []for i in range(2000): url_pre = "https://search.51job.com/list/000000,000000,0000,00,9,99,数据,2,%s" % (1+i) #设置自动翻页 url_end = ".html?" url_all = url_pre + url_end url1.append(url_all)print("一级URL库创建完毕")
url2 = []j = 0for url in url1: j += 1 re1 = requests.get(url , headers = headers,proxies= {"http":"tps131.kdlapi.com:15818"},timeout=(5,10)) #通过proxies设置代理ip html1 = etree.HTML(re1.text) divs = html1.xpath("//script[@type = "text/javascript"]/text()")[0].replace("window.__SEARCH_RESULT__ = ","") js = json.loads(divs) for i in range(len(js["engine_jds"])): if js["engine_jds"][i]["job_href"][0:22] == "https://jobs.51job.com": url2.append(js["engine_jds"][i]["job_href"]) else: print("url异常,弃用") #剔除异常url print("已爬取"+str(j)+"页")print("成功爬取"+str(len(url2))+"条二级URL")
注意:爬取二级URL链接时发现并非爬取的所有链接都是规范的,会存在少部分异常URL,这会对后续岗位信息的爬取造成干扰,因此需要利用if条件语句对其进行剔除。
option = ChromeOptions()option.add_experimental_option("excludeSwitches", ["enable-automation"])option.add_argument("--proxy-server=http://tps131.kdlapi.com:15818") #设置代理ipdriver = webdriver.Chrome(options=option)for url in url2: co = 1 while co == 1: try: driver.get(url) wait = WebDriverWait(driver,10,0.5) wait.until(EC.presence_of_element_located((By.ID,"topIndex"))) except: driver.close() driver = webdriver.Chrome(options=option) co = 1 else: co = 0 try: 福利待遇 = driver.find_elements_by_xpath("//div[@class = "t1"]")[0].text 岗位名称 = driver.find_element_by_xpath("//div[@class = "cn"]/h1").text 薪资水平 = driver.find_element_by_xpath("//div[@class = "cn"]/strong").text 职位信息 = driver.find_elements_by_xpath("//div[@class = "bmsg job_msg inbox"]")[0].text 公司类型 = driver.find_elements_by_xpath("//div[@class = "com_tag"]/p")[0].text 公司规模 = driver.find_elements_by_xpath("//div[@class = "com_tag"]/p")[1].text 公司领域 = driver.find_elements_by_xpath("//div[@class = "com_tag"]/p")[2].text 公司名称 = driver.find_element_by_xpath("//div[@class = "com_msg"]/a/p").text 工作地点 = driver.find_elements_by_xpath("//div[@class = "cn"]//p[@class = "msg ltype"]")[0].text.split("|")[0] 工作经验 = driver.find_elements_by_xpath("//div[@class = "cn"]//p[@class = "msg ltype"]")[0].text.split("|")[1] 学历要求 = driver.find_elements_by_xpath("//div[@class = "cn"]//p[@class = "msg ltype"]")[0].text.split("|")[2] 招聘人数 = driver.find_elements_by_xpath("//div[@class = "cn"]//p[@class = "msg ltype"]")[0].text.split("|")[3] 发布时间 = driver.find_elements_by_xpath("//div[@class = "cn"]//p[@class = "msg ltype"]")[0].text.split("|")[4] except: 福利待遇 = "nan" 岗位名称 = "nan" 薪资水平 = "nan" 职位信息 = "nan" 公司类型 = "nan" 公司规模 = "nan" 公司领域 = "nan" 公司名称 = "nan" 工作地点 = "nan" 工作经验 = "nan" 学历要求 = "nan" 招聘人数 = "nan" 发布时间 = "nan" print("信息提取异常,弃用") finally: info = { "岗位名称" : 岗位名称, "公司名称" : 公司名称, "薪资水平" : 薪资水平, "工作经验" : 工作经验, "学历要求" : 学历要求, "工作地点" : 工作地点, "招聘人数" : 招聘人数, "发布时间" : 发布时间, "公司类型" : 公司类型, "公司规模" : 公司规模, "公司领域" : 公司领域, "福利待遇" : 福利待遇, "职位信息" : 职位信息 } jobs_info.append(info)df = pd.DataFrame(jobs_info)df.to_excel(r"E:/python爬虫/前程无忧招聘信息.xlsx")
在爬取并剔除异常数据之后,最终得到了90000多条完整的数据做分析,但经过观察发现,所爬取的数据并非全都与“数据”岗位相关联。实际上,前程无忧招聘网站上与“数据”有关的只有几百页,而我们爬取了2000页的所有数据,因此在后面进行数据处理时需要把无关的数据剔除掉。在爬取前根据对代码的测试发现,有些岗位字段在进行爬取时会出现错位,从而导致数据存储失败,为了不影响后面代码的执行,这里设置了“try-except”进行异常处理,同时使用while循环语句在服务器出现请求失败时关闭模拟浏览器并进行重新请求。
在获取了所需数据之后,可以看出数据较乱,并不利于我们进行分析,因此在分析前需要对数据进行预处理,得到规范格式的数据才可以用来最终做可视化数据展示。
获取的数据截图如下:
#导入相关库import pandas as pdimport numpy as npimport jieba#读取数据df = pd.read_excel(r"E:/python爬虫/前程无忧招聘信息.xlsx",index_col=0)
#去除重复数据df.drop_duplicates(subset=["公司名称","岗位名称"],inplace=True)#空值删除df[df["公司名称"].isnull()]df.dropna(how="all",inplace=True)
首先我们对“岗位名称”的格式进行调整,将其中所有大写英文字母统一转换为小写,例如将"Java"转换为"java",然后对所有岗位做一个频次统计,统计结果发现“岗位名称”字段很杂乱,且存在很多与“数据”无关的岗位,因此要对数据做一个筛选。
df["岗位名称"] = df["岗位名称"].apply(lambda x:x.lower())counts = df["岗位名称"].value_counts()
首先我们列出与“数据”岗位“有关的一系列关键词,然后通过count()与for语句对所有记录进行统计判断,如果包含任一关键词则保留该记录,如果不包含则删除该字段。
#构建目标关键词target_job = ["算法","开发","分析","工程师","数据","运营","运维","it","仓库","统计"]#筛选目标数据index = [df["岗位名称"].str.count(i) for i in target_job]index = np.array(index).sum(axis=0) > 0job_info = df[index]
基于前面对“岗位名称”字段的统计情况,我们定义了目标岗位列表job_list,用来替换统一相近的岗位名称,之后,我们将“数据专员”、“数据统计”统一归为“数据分析”。
job_list = ["数据分析","数据统计","数据专员","数据挖掘","算法","大数据","开发工程师","运营", "软件工程","前端开发","深度学习","ai","数据库","仓库管理","数据产品","客服", "java",".net","andrio","人工智能","c++","数据管理","测试","运维","数据工程师"]job_list = np.array(job_list)def Rename(x,job_list=job_list): index = [i in x for i in job_list] if sum(index) > 0: return job_list[index][0] else: return xjob_info["岗位名称"] = job_info["岗位名称"].apply(Rename)job_info["岗位名称"] = job_info["岗位名称"].apply(lambda x:x.replace("数据专员","数据分析"))job_info["岗位名称"] = job_info["岗位名称"].apply(lambda x:x.replace("数据统计","数据分析"))
统一之后的“岗位名称”如下图所示:
对于“岗位薪资”字段的处理,重点在于对其单位格式转换,在简单观察该字段后发现,其存在“万/年”、“万/月”、“千/月”等不同单位,因此需要对其做一个统一换算,将数据格式统一转换为“元/月”,并根据最高工资与最低工资求出平均值。
job_info["岗位薪资"].value_counts()#剔除异常数据index1 = job_info["岗位薪资"].str[-1].isin(["年","月"])index2 = job_info["岗位薪资"].str[-3].isin(["万","千"])job_info = job_info[index1 & index2]#计算平均工资job_info["平均薪资"] = job_info["岗位薪资"].astype(str).apply(lambda x:np.array(x[:-3].split("-"),dtype=float))job_info["平均薪资"] = job_info["平均薪资"].apply(lambda x:np.mean(x))#统一工资单位job_info["单位"] = job_info["岗位薪资"].apply(lambda x:x[-3:])def con_unit(x): if x["单位"] == "万/月": z = x["平均薪资"]*10000 elif x["单位"] == "千/月": z = x["平均薪资"]*1000 elif x["单位"] == "万/年": z = x["平均薪资"]/12*10000 return int(z)job_info["平均薪资"] = job_info.apply(con_unit,axis=1)job_info["单位"] = "元/月"
说明:首先我们对该字段进行统计预览,之后做一个数据筛选剔除异常单位与空值记录,再计算出每个字段的平均工资,接着定义一个函数,将格式换算为“元/月”,得到最终的“平均薪资”字段。
对于“公司规模”字段的处理较简单,只需要定义一个if条件语句将其格式做一个转换即可。
job_info["公司规模"].value_counts()def func(x): if x == "少于50人": return "<50" elif x == "50-150人": return "50-150" elif x == "150-500人": return "150-500" elif x == "500-1000人": return "500-1000" elif x == "1000-5000人": return "1000-5000" elif x == "5000-10000人": return "5000-10000" elif x == "10000人以上": return ">10000" else: return np.nanjob_info["公司规模"] = job_info["公司规模"].apply(func)
job_info["职位信息"] = job_info["职位信息"].apply(lambda x:x.split("职能类别")[0])with open(r"E:/python爬虫/数据处理/停用词表.txt","r",encoding = "utf8") as f: stopword = f.read()stopword = stopword.split()#对“职业信息”字段进行简单处理,去除无意义的文字,构造jieba分词job_info["职位信息"] = job_info["职位信息"].apply(lambda x:x.lower()).apply(lambda x:"".join(x)).apply(lambda x:x.strip()).apply(jieba.lcut).apply(lambda x:[i for i in x if i not in stopword])#按照行业进行分类,求出每一个行业下各关键词的词频统计,以便于后期做词云图cons = job_info["公司领域"].value_counts()industries = pd.DataFrame(cons.index,columns=["行业领域"])industry = pd.DataFrame(columns=["分词明细","行业领域"])for i in industries["行业领域"]: words = [] word = job_info["职位信息"][job_info["公司领域"] == i] word.dropna(inplace=True) [words.extend(str(z).strip("/"[]").split("/", /"")) for z in word] df1 = pd.DataFrame({"分词明细":words, "行业领域":i}) industry = industry.append(df1,ignore_index=True)industry = industry[industry["分词明细"] != "//n"]industry = industry[industry["分词明细"] != ""]#剔除词频小于300的关键词count = pd.DataFrame(industry["分词明细"].value_counts())lst = list(count[count["分词明细"] >=300].index)industry = industry[industry["分词明细"].isin(lst)]#数据存储industry.to_excel(r"E:/python爬虫/数据处理/词云.xlsx")
#工作地点字段处理job_info["工作地点"] = job_info["工作地点"].apply(lambda x:x.split("-")[0])#公司领域字段处理job_info["公司领域"] = job_info["公司领域"].apply(lambda x:x.split("/")[0])a = job_info["公司领域"].value_counts()#招聘人数字段处理job_info["招聘人数"] = job_info["招聘人数"].apply(lambda x:x.replace("若干","1").strip()[1:-1])#工作经验与学历要求字段处理job_info["工作经验"] = job_info["工作经验"].apply(lambda x:x.replace("无需","1年以下").strip()[:-2])job_info["学历需求"] = job_info["学历需求"].apply(lambda x:x.split()[0])#公司福利字段处理job_info["公司福利"] = job_info["公司福利"].apply(lambda x:str(x).split())
我们针对清洗干净后的数据另存为一个文档,对源数据不做修改。
job_info.to_excel(r"E:/python爬虫/前程无忧(已清洗).xlsx")
结论分析:从气泡图中可以看出,“数据”相关岗位数量较高的城市有:上海、深圳、广州、北京、杭州、武汉等。
结论分析:通过条形图可以看出,“数据”相关岗位用人需求达1000人以上的城市有15个,需求由高到低依次为:上海、深圳、广州、北京、武汉、杭州、成都、南京、苏州、无锡、西安、长沙、郑州、重庆。其中上海用人需求高达10000人。
结论分析:从不同行业的用人需求与薪资对比可知,用人需求排名前4的行业分别:计算机软件、互联网、电子技术、计算机服务;平均薪资排名前4的行业分别为:互联网、计算机软件、通信、专业服务。可以发现,“数据”相关岗位在计算机领域需求大,薪资高,前景好。
结论分析:在发布的众多岗位需求信息中,以民营公司为主,其岗位数量、用人需求极高,但薪资待遇一般,而上市公司的岗位数量一般,但薪资待遇好。
注:颜色深浅表示薪资高低,数字表示招聘人数
结论分析:根据突出显示表可以发现,在学历要求方面,大专与本科生需求量较大;经验要求方面,3年以下相关经验的岗位占大多数,而薪资方面,学历越高,经验越丰富则薪资越高。因此可以判断数据分析行业还是一个较新兴的行业,目前行业的基础岗位较多,且具有丰富经验的专家较少。
结论分析:上图通过列举了传统制造业、计算机相关行业以及服务业三个行业进行对比分析,三个行业对于“数据”相关岗位工作要求的共同点都是注重相关的行业经验及数据处理等能力,而计算机相关行业对于技术如开发、数据库、系统维护等编程能力要求较高,传统制造业和服务行业则更侧重于业务分析、管理、团队合作综合型能力等。
import jsonimport requestsimport pandas as pdfrom lxml import etreefrom selenium import webdriverfrom selenium.webdriver.common.by import Byfrom selenium.webdriver import ChromeOptionsfrom selenium.webdriver.support.ui import WebDriverWaitfrom selenium.webdriver.support import expected_conditions as ECurl1 = []url2 = []jobs_info = []for i in range(2000): url_pre = "https://search.51job.com/list/000000,000000,0000,00,9,99,数据,2,%s" % (1+i) #页面跳转 url_end = ".html?" url_all = url_pre + url_end url1.append(url_all)print("一级URL库创建完毕")#从json中提取数据并加载headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/93.0.4577.63 Safari/537.36", "Connection": "close", "Host": "search.51job.com"}j = 0for url in url1: j += 1 re1 = requests.get(url , headers = headers,proxies= {"http":"tps131.kdlapi.com:15818"},timeout=(5,10)) html1 = etree.HTML(re1.text) divs = html1.xpath("//script[@type = "text/javascript"]/text()")[0].replace("window.__SEARCH_RESULT__ = ","") js = json.loads(divs) for i in range(len(js["engine_jds"])): if js["engine_jds"][i]["job_href"][0:22] == "https://jobs.51job.com": url2.append(js["engine_jds"][i]["job_href"]) else: print("url异常,弃用") print("已解析"+str(j)+"页")print("成功提取"+str(len(url2))+"条二级URL")#爬取岗位数据option = ChromeOptions()option.add_experimental_option("excludeSwitches", ["enable-automation"])option.add_argument("--proxy-server=http://tps131.kdlapi.com:15818") driver = webdriver.Chrome(options=option)for url in url2: co = 1 while co == 1: try: #设置IP代理 driver.get(url) wait = WebDriverWait(driver,10,0.5) wait.until(EC.presence_of_element_located((By.ID,"topIndex"))) except: driver.close() driver = webdriver.Chrome(options=option) co = 1 else: co = 0 try: 福利待遇 = driver.find_elements_by_xpath("//div[@class = "t1"]")[0].text 岗位名称 = driver.find_element_by_xpath("//div[@class = "cn"]/h1").text 薪资水平 = driver.find_element_by_xpath("//div[@class = "cn"]/strong").text 职位信息 = driver.find_elements_by_xpath("//div[@class = "bmsg job_msg inbox"]")[0].text 公司类型 = driver.find_elements_by_xpath("//div[@class = "com_tag"]/p")[0].text 公司规模 = driver.find_elements_by_xpath("//div[@class = "com_tag"]/p")[1].text 公司领域 = driver.find_elements_by_xpath("//div[@class = "com_tag"]/p")[2].text 公司名称 = driver.find_element_by_xpath("//div[@class = "com_msg"]/a/p").text 工作地点 = driver.find_elements_by_xpath("//div[@class = "cn"]//p[@class = "msg ltype"]")[0].text.split("|")[0] 工作经验 = driver.find_elements_by_xpath("//div[@class = "cn"]//p[@class = "msg ltype"]")[0].text.split("|")[1] 学历要求 = driver.find_elements_by_xpath("//div[@class = "cn"]//p[@class = "msg ltype"]")[0].text.split("|")[2] 招聘人数 = driver.find_elements_by_xpath("//div[@class = "cn"]//p[@class = "msg ltype"]")[0].text.split("|")[3] 发布时间 = driver.find_elements_by_xpath("//div[@class = "cn"]//p[@class = "msg ltype"]")[0].text.split("|")[4] except: 福利待遇 = "nan" 岗位名称 = "nan" 薪资水平 = "nan" 职位信息 = "nan" 公司类型 = "nan" 公司规模 = "nan" 公司领域 = "nan" 公司名称 = "nan" 工作地点 = "nan" 工作经验 = "nan" 学历要求 = "nan" 招聘人数 = "nan" 发布时间 = "nan" print("信息提取异常,弃用") finally: info = { "岗位名称" : 岗位名称, "公司名称" : 公司名称, "薪资水平" : 薪资水平, "工作经验" : 工作经验, "学历要求" : 学历要求, "工作地点" : 工作地点, "招聘人数" : 招聘人数, "发布时间" : 发布时间, "公司类型" : 公司类型, "公司规模" : 公司规模, "公司领域" : 公司领域, "福利待遇" : 福利待遇, "职位信息" : 职位信息 } jobs_info.append(info)df = pd.DataFrame(jobs_info)df.to_excel(r"E:/python爬虫/前程无忧招聘信息.xlsx")
import pandas as pdimport numpy as npimport jieba#数据读取df = pd.read_excel(r"E:/python爬虫/前程无忧招聘信息.xlsx",index_col=0)#数据去重与空值处理df.drop_duplicates(subset=["公司名称","岗位名称"],inplace=True)df[df["招聘人数"].isnull()]df.dropna(how="all",inplace=True)#岗位名称字段处理df["岗位名称"] = df["岗位名称"].apply(lambda x:x.lower())counts = df["岗位名称"].value_counts() target_job = ["算法","开发","分析","工程师","数据","运营","运维","it","仓库","统计"]index = [df["岗位名称"].str.count(i) for i in target_job]index = np.array(index).sum(axis=0) > 0job_info = df[index]job_list = ["数据分析","数据统计","数据专员","数据挖掘","算法","大数据","开发工程师", "运营","软件工程","前端开发","深度学习","ai","数据库","仓库管理","数据产品", "客服","java",".net","andrio","人工智能","c++","数据管理","测试","运维","数据工程师"]job_list = np.array(job_list)def Rename(x,job_list=job_list): index = [i in x for i in job_list] if sum(index) > 0: return job_list[index][0] else: return xjob_info["岗位名称"] = job_info["岗位名称"].apply(Rename)job_info["岗位名称"] = job_info["岗位名称"].apply(lambda x:x.replace("数据专员","数据分析"))job_info["岗位名称"] = job_info["岗位名称"].apply(lambda x:x.replace("数据统计","数据分析"))#岗位薪资字段处理index1 = job_info["岗位薪资"].str[-1].isin(["年","月"])index2 = job_info["岗位薪资"].str[-3].isin(["万","千"])job_info = job_info[index1 & index2]job_info["平均薪资"] = job_info["岗位薪资"].astype(str).apply(lambda x:np.array(x[:-3].split("-"),dtype=float))job_info["平均薪资"] = job_info["平均薪资"].apply(lambda x:np.mean(x))#统一工资单位job_info["单位"] = job_info["岗位薪资"].apply(lambda x:x[-3:])job_info["公司领域"].value_counts()def con_unit(x): if x["单位"] == "万/月": z = x["平均薪资"]*10000 elif x["单位"] == "千/月": z = x["平均薪资"]*1000 elif x["单位"] == "万/年": z = x["平均薪资"]/12*10000 return int(z)job_info["平均薪资"] = job_info.apply(con_unit,axis=1)job_info["单位"] = "元/月"#工作地点字段处理job_info["工作地点"] = job_info["工作地点"].apply(lambda x:x.split("-")[0])#公司领域字段处理job_info["公司领域"] = job_info["公司领域"].apply(lambda x:x.split("/")[0])#招聘人数字段处理job_info["招聘人数"] = job_info["招聘人数"].apply(lambda x:x.replace("若干","1").strip()[1:-1])#工作经验与学历要求字段处理job_info["工作经验"] = job_info["工作经验"].apply(lambda x:x.replace("无需","1年以下").strip()[:-2])job_info["学历需求"] = job_info["学历需求"].apply(lambda x:x.split()[0])#公司规模字段处理job_info["公司规模"].value_counts()def func(x): if x == "少于50人": return "<50" elif x == "50-150人": return "50-150" elif x == "150-500人": return "150-500" elif x == "500-1000人": return "500-1000" elif x == "1000-5000人": return "1000-5000" elif x == "5000-10000人": return "5000-10000" elif x == "10000人以上": return ">10000" else: return np.nanjob_info["公司规模"] = job_info["公司规模"].apply(func)#公司福利字段处理job_info["公司福利"] = job_info["公司福利"].apply(lambda x:str(x).split())#职位信息字段处理job_info["职位信息"] = job_info["职位信息"].apply(lambda x:x.split("职能类别")[0])with open(r"E:/C++/停用词表.txt","r",encoding = "utf8") as f: stopword = f.read()stopword = stopword.split()job_info["职位信息"] = job_info["职位信息"].apply(lambda x:x.lower()).apply(lambda x:"".join(x)).apply(lambda x:x.strip()).apply(jieba.lcut).apply(lambda x:[i for i in x if i not in stopword])cons = job_info["公司领域"].value_counts()industries = pd.DataFrame(cons.index,columns=["行业领域"])industry = pd.DataFrame(columns=["分词明细","行业领域"])for i in industries["行业领域"]: words = [] word = job_info["职位信息"][job_info["公司领域"] == i] word.dropna(inplace=True) [words.extend(str(z).strip("/"[]").split("/", /"")) for z in word] df1 = pd.DataFrame({"分词明细":words, "行业领域":i}) industry = industry.append(df1,ignore_index=True)industry = industry[industry["分词明细"] != "//n"]industry = industry[industry["分词明细"] != ""]count = pd.DataFrame(industry["分词明细"].value_counts())lst = list(count[count["分词明细"] >=300].index)industry = industry[industry["分词明细"].isin(lst)]#数据存储industry.to_excel(r"E:/python爬虫/数据预处理/词云.xlsx") job_info.to_excel(r"E:/python爬虫/数据预处理/前程无忧(已清洗).xlsx")
文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。
转载请注明本文地址:https://www.ucloud.cn/yun/121420.html
摘要:直接抄其中一份的结论吧各地区招聘公司数量和平均待遇。可以看出不论是招聘公司的数据还是平均待遇水平主要都是北上广深杭州占优势。但事实证明,总是要有一些代价的。要学会看报错信息。函数定义结束后需要按两次回车重新回到提示符下。 又是写在前面的乱七八糟 持续学习的第三天了,持续学习是一个不容易培养的好习惯,但是坚持就是胜利嘛~昨天因为一点点事情,所以没能学习很长时间,今天要补回来。周末要搬家,...
摘要:成功爬取了拉钩网上多个招聘岗位的具体信息后,数据可视化并得出分析结果如下从整体看,北上广深杭这五个城市前端工程师招聘岗位,北京是遥遥领先,是深圳的两倍,是广州的三倍,其次到上海,深圳,杭州,广州居末。 前前言 本文首发于 github blog 不想看爬虫过程只想看职位钱途数据分析请看这里:前端招聘岗位分析C++招聘岗位分析JAVA招聘岗位分析PHP招聘岗位分析Python招聘岗位分析...
摘要:另外数学成为了一个关键词,编程语言主要是等,运营也出现在词云中说明数据分析师也需要有运营能力。 功能点 爬取数据 所有公司数据,名称简写,城市,行业,职位数量,人数范围,标签,介绍,融资阶段,平均工资 github2016年度最受欢迎编程语言相应年数薪水,城市,学历要求,公司融资阶段,公司行业 大数据行业五大岗位相应年数薪水,城市,学历要求,公司融资阶段,公司行业,岗位要求 编程语...
摘要:填写自己对应的网页更改相应数据的编码格式遇到请求挂起当前任务,等操作完成执行之后的代码,当协程挂起时,事件循环可以去执行其他任务。 前言 2012,一个卡牌,一个雷...
摘要:编程基础要学习如何用进行数据分析,数据分析师建议第一步是要了解一些的编程基础,知道的数据结构,什么是向量列表数组字典等等了解的各种函数及模块。数据分析师认为数据分析有的工作都在处理数据。 showImg(https://segmentfault.com/img/bVbnbZo?w=1024&h=653); 本文为CDA数据分析研究院原创作品,转载需授权 1.为什么选择Python进行数...
阅读 1296·2021-11-24 09:38
阅读 3236·2021-11-22 12:03
阅读 4070·2021-11-11 10:59
阅读 2287·2021-09-28 09:36
阅读 1007·2021-09-09 09:32
阅读 3384·2021-08-05 10:00
阅读 2504·2021-07-23 15:30
阅读 2949·2019-08-30 13:12