首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

招聘 | 深圳UniLake联池系统招聘SDWAN 售前系统工程师、SDWAN 高级工程师

UniLake联池系统招聘SDWAN 售前系统工程师、SDWAN 高级工程师,感兴趣的小伙伴直接投递简历。...6.熟悉 Linux 系统,有 Shell scripts、Python, Ansible,Chef,Puppet 等 DevOps 网络自动化经验者优先。...2 SDWAN 高级工程师 工作模式 日常需要驻场在公司的平台级大客户所在的深圳办公室,同时按需在线下及线上远程支持华南及其他市场客户/项目。...岗位职责 1.核心职责:在公司后台技术产品团队的远程支撑下,负责驻场(深圳)公司平台级的SDWAN 大客户,持续支撑不同行业的国际企业最终客户的 SDWAN 云网项目的部署运维及相关服务需求。...熟悉 Shell、Python 脚本,Ansible,Chef,Puppet 等 DevOps 自动化工具,有一定网络自动化开发经验者优先。

61620
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    基于python+django的求职招聘网站-网上招聘管理系统

    该系统是基于python+django的求职招聘网站、网上招聘管理系统、网上人才招聘系统、毕业生求职招聘系统、大学生求职招聘系统、校园招聘系统、企业招聘系统。系统适合场景:大学生、课程作业、毕业设计。...job.gitapp.cn后台地址:http://job.gitapp.cn/admin后台管理帐号:用户名:admin123密码:admin123源码地址https://github.com/geeeeeeeek/python_job...功能介绍平台采用B/S结构,后端采用主流的Python语言+django框架进行开发,前端采用主流的Vue.js进行开发。...代码结构server目录是后端代码web目录是前端代码部署运行后端运行步骤(1) 安装python 3.8(2) 安装依赖。...在server目录下执行:python manage.py runserver前端运行步骤(1) 安装node 16.14(2) 进入web目录下,安装依赖,执行:npm install (3) 运行项目

    35700

    招聘信息太多,哪家职位才是适合你的?Python采集招聘信息

    前言 在招聘信息上,会提及工作的职位,不过大多描述是笼统的,还需要我们去了解工作的具体内容和性质。要知道,在不同的公司,同样的职位做的事情也是不一样的,工作方法更是大相径庭。...拉勾招聘是专业的互联网求职招聘平台。致力于提供真实可靠的互联网招聘求职找工作信息。 今天我们一起使用 python 采集拉钩的 python 招聘信息,分析一下找到高薪工作需要掌握哪些技术。...喜欢的朋友欢迎关注小编,除了分享技术文章之外还有很多福利,私信“资料”可以领取包括不限于Python实战演练、PDF电子文档、面试集锦、学习资料等。 开发环境: 1....解释器:Python 3.6.5 | Anaconda, Inc. 2. 编辑器:pycharm 社区版 然后信心满满的 ennn 翻车了 ? 不怕,再来!!!...requests.post(url, data=data, headers=headers, cookies=get_cookie()) data = response.json() 我们的需求是获取招聘的信息

    56110

    8月份Python招聘情况怎么样?Python爬取招聘数据,并进行分析

    前言 拉勾招聘是专业的互联网求职招聘平台。致力于提供真实可靠的互联网招聘求职找工作信息。...今天我们一起使用 python 采集拉钩的 python 招聘信息,分析一下找到高薪工作需要掌握哪些技术 开发环境: 解释器:Python 3.6.5 | Anaconda, Inc....编辑器:pycharm 社区版 本文知识点: Python 爬虫基础 json 的使用 requests 的使用 PS:如有需要Python学习资料的小伙伴可以加下方的群去找免费管理员领取 (想要完整源码的话也可以找群管理员免费获取哟...需求 请求拉勾网 python 300条的招聘数据,并将信息写入到一个txt文本里面。...例如: 上海,上海沸橙信息科技有限公司,150-500人,本科,python,8k-12k,不限 Python爬虫爬取前300条数据 代码如下: ? 运行代码,效果如下: ? ?

    93910

    Python 分析招聘岗位,结果 Python 薪资竟然垫底。。。

    招聘岗位数量排行 下面再来看下全国范围内企业的招聘数量 ? 对于榜单的前两名,不多说了,知道的都懂!...接下来 Java 和产品经理的岗位数量不相上下,而最为可怜的就是 Python 岗了,虽然号称全球最火,可是真正的高薪岗位却少之又少,难道是因为其上手容易,所以比较好招人嘛?...四巨头平均薪资 同样的,我们先来看下四座城市平均招聘薪资最高的排行榜情况 平均薪资排行 北京 ? 上海 ? 深圳 ? 杭州 ?...深圳 ? 杭州 ? 可以看出,在高薪岗位中,基本是高级 Java 和高级数据分析的天下,对于产品经理和 Python 工程师来说,可能有点凄凉了。...深圳 ? 杭州 ? 一句话总结就是,北京的 Java,深圳的产品经理,杭州的数据分析,无处安放的 Python! ?

    56420

    Python3获取拉勾网招聘信息

    为了了解跟python数据分析有关行业的信息,大概地了解一下对这个行业的要求以及薪资状况,我决定从网上获取信息并进行分析。...像拉勾这种网站他们的信息一般都是通过ajax加载的,而且在输入“python数据分析”敲击回车之后跳转的页面,招聘信息不是一开始就显示出来的,通过点击页码也只是招聘信息在变化甚至连network都没多大变化...点击preview可见详细信息以json形式保存着,其中‘salary’、‘workYear’、‘education’、‘positionID’(招聘信息详情页有关的id)是我们要的。...解决这个问题的关键在于,了解拉勾的反爬机制:在进入python数据分析招聘页之前,我们要在主页,不妨叫它start_url输入关键字跳转。...三、获取招聘详情   上面说了positionID 是为了获取详情页,详情页里面有要的任职要求。

    74430

    Python告诉你深圳房租有多高

    我们也不得而知,于是乎 zone 为了一探究竟,便用 Python 爬取了房某下的深圳的租房数据,以下是本次的样本数据: 样本数据 除去【不限】的数据(因为可能会与后面重叠),总数据量为 16971...深圳房源分布:(按区划分) 其中福田与南山的房源分布是最多的。但这两块地的房租可是不菲啊。 房源分布 房租单价:(每月每平方米单价 -- 平均数) 即是 1 平方米 1 个月的价格。...租房描述 爬虫思路 先爬取房某下深圳各个板块的数据,然后存进 MongoDB 数据库,最后再进行数据分析。...self, title, attr, value): from pyecharts import Bar bar = Bar(title) bar.add("深圳...本篇文章首发于公众号「zone7」,关注公众号获取最新推文,后台回复【深圳租房】获取源码。

    55800

    如何使用爬虫分析Python岗位招聘情况

    爬取了前程无忧上 Python 关键字的招聘岗位,地区锁定在中国四个一线城市,北上深广。选取 top650 条招聘岗位带 Python 关键字的招聘信息进行数据分析。...上海 228 是最多的,北京 202 排在第二,两者都超过了 200,深圳和广州就和上海北京差得有点多了,分别只有 115 和 91,另外还有 14 个是异地招聘的。...不过总体上也差不多,后面的招聘信息都只是在岗位要求里提到 Python 而已,并没有专门招聘 Python 开发者。...大体上呈现一个先升后降的趋势,[1.1 - 1.5] 万/月是最多的一个范围,> 2.5 万/月的也还不错,有 26 个招聘职位。 看看各个城市的具体情况。 北京 ? 上海 ? 深圳 ? 广州 ?...还有一个异地招聘的 ? 薪酬和职位对应情况 再来看看高薪酬对应的是什么职位。 总体top10: ? 北京top10 ? 上海top10 ? 深圳top10 ? 广州top10 ?

    1.5K100

    Python爬虫】拉钩网招聘信息数据采集

    本文要点: 爬虫的基本流程 requests模块的使用 保存csv 可视化分析展示 环境介绍 python 3.8 pycharm 2021专业版 激活码 Jupyter Notebook pycharm...是编辑器 >> 用来写代码的 (更方便写代码, 写代码更加舒适) python 是解释器 >>> 运行解释python代码的 有疑问的同学,或者想要Python相关资料的可以加群:1039649593...needAddtionalResult=false' # headers 请求头 用来伪装python代码, 防止被识别出是爬虫程序, 然后被反爬 # user-agent: 浏览器的基本标识 headers...Gecko) Chrome/94.0.4606.81 Safari/537.36', } data = { 'first': 'false', 'pn': page, 'kd': 'python...f'------------------------正在爬取第{page}页-------------------------') time.sleep(1) 保存数据 f = open('招聘数据

    92220
    领券