آگهی‌های استخدامی

استخدام ادمین داده‌های حجیم (Big Data Administrator)

دانرو | Dunro
تهران، تهران

شرح موقعیت شغلی

اگر تجربه کاری نصب، مدیریت و نگهداری بسترها و کلاستر های داده های حجیم/Big Data را دارید به دانرو بپیوندید. شما باید توانایی کار کردن با تیمهای چند کاره، تیم های تست و تیم های DevOps را داشته باشید. ادمین داده‌های حجیم به عنوان عضوی حیاتی در تیم Data دانرو، باید توانایی‌های زیر را داشته باشد؛

- داشتن کارشناسی یا کارشناسی ارشد مهندسی کامپیوتر یا رشته های مرتبط

- توانایی نصب، به روزرسانی و پیکربندی بسته های نرم افزاری

- تهیه ی نسخه ی پشتبان و عملیات بازیابی از پایگاه های داده

- آشنا به معماری سیستم های داده های حجیم Hadoop, Spark

- توانایی مانیتور کردن عمل کرد و بهینه سازی عملکرد

- مدیریت و بهینه سازی فضای دیسک برای کار با دیتا

- خودکارسازی تسک دستی و زمانبندی تسک

- مهارت با ELK stack

- مهارت با فایل سیستم ها، انباره ها و NOSQL های توزیع شده (HDFS, HBase, Hive, Cassandra, Impala)

- بسترهای آنالیز داده و محیط های محاسباتی توزیع شده ی بزرگ مقیاس (Spark, Map/Reduce, ksql)

- فن آوری های جریان داده مانند Apache Kafka, Apache Flume

- دانش حرفه ای از مباحث داده های حجیم همانند Hue, YARN, ZooKeeper, Ambari, Mesos

توانایی‌های متمایز کننده:

- دانش Java/Scala/Python به عنوان یک مزیت کاری محسوب می شود

- تجربه کار با توزیع های تجاری Hadoop مانند Cloudera, HortonWorks, MapR, DataStax

 

مهارت‌های مورد نیاز

  • Big Data
  • spark
  • Hadoop
  • ELK Stack
  • NoSQL
  • Apache Kafka
  • apache flume
  • hue
  • yarn
  • Zookeeper
  • ambari
  • mesos

حداقل سابقه کار

  • مهم نیست

جنسیت

  • مهم نیست

وضعیت نظام وظیفه

  • مهم‌ نیست

نوع همکاری:

تمام وقت

دسته‌بندی شغلی:

IT / DevOps / Server

تاریخ انتشار آگهی:

۱۳۹۷/۰۲/۰۹ (منقضی‌شده)
مشاهده آگهی‌های استخدام مشابه