職位描述
該職位還未進行加V認證,請仔細了解后再進行投遞!
崗位職責:
1、負責產品計算中心方案設計實施及hadoop/spark集群線上故障處理、性能調優;
2、負責基于hadoop/spark生態系統的產品研發;
3、負責基于搜索引擎(elasticsearch)的產品研發;
4、負責基于redis,kafka集群調優及產品研發;
5、參與海量數據處理和高性能分布式計算的架構設計,負責數據處理流程的設計和代碼開發,撰寫相關文檔;
6、研究大數據、ai領域最新進展,并應用到業務中。
職位要求:
1、大學本科或以上學歷,計算機相關專業,spark/hadoop全棧優先,精通任意一棧者也可;
2、擁有實際apache hadoop/spark相關系統的調優、運維、開發經驗;
3、使用hadoop及hadoop生態圈中的常用組件,如spark、hive、zookeeper、sqoop、flume、kafka、storm、redis、spark、yarn、impala、hbase、presto、solr 等全部或者部分組件,最好精通其中1-2個;
4、熟練掌握java 、scala或者python語言,熟悉并行計算或者分布式計算,理解mapreduce、hdfs原理、spark rdd/dataframe原理。
1、負責產品計算中心方案設計實施及hadoop/spark集群線上故障處理、性能調優;
2、負責基于hadoop/spark生態系統的產品研發;
3、負責基于搜索引擎(elasticsearch)的產品研發;
4、負責基于redis,kafka集群調優及產品研發;
5、參與海量數據處理和高性能分布式計算的架構設計,負責數據處理流程的設計和代碼開發,撰寫相關文檔;
6、研究大數據、ai領域最新進展,并應用到業務中。
職位要求:
1、大學本科或以上學歷,計算機相關專業,spark/hadoop全棧優先,精通任意一棧者也可;
2、擁有實際apache hadoop/spark相關系統的調優、運維、開發經驗;
3、使用hadoop及hadoop生態圈中的常用組件,如spark、hive、zookeeper、sqoop、flume、kafka、storm、redis、spark、yarn、impala、hbase、presto、solr 等全部或者部分組件,最好精通其中1-2個;
4、熟練掌握java 、scala或者python語言,熟悉并行計算或者分布式計算,理解mapreduce、hdfs原理、spark rdd/dataframe原理。
工作地點
地址:廣州從化區
求職提示:用人單位發布虛假招聘信息,或以任何名義向求職者收取財物(如體檢費、置裝費、押金、服裝費、培訓費、身份證、畢業證等),均涉嫌違法,請求職者務必提高警惕。
職位發布者
HR
廣東凱通科技股份有限公司
-
請選擇
-
公司規模未知
-
私營·民營企業
-
固話:020-62323168
應屆畢業生
本科
最近更新
14246人關注
注:聯系我時,請說是在蘿崗人才網上看到的。
