اگر تجربه کاری نصب، مدیریت و نگهداری بسترها و کلاستر های داده های حجیم/Big Data را دارید به دانرو بپیوندید. شما باید توانایی کار کردن با تیمهای چند کاره، تیم های تست و تیم های DevOps را داشته باشید. ادمین دادههای حجیم به عنوان عضوی حیاتی در تیم Data دانرو، باید تواناییهای زیر را داشته باشد؛
- داشتن کارشناسی یا کارشناسی ارشد مهندسی کامپیوتر یا رشته های مرتبط
- توانایی نصب، به روزرسانی و پیکربندی بسته های نرم افزاری
- تهیه ی نسخه ی پشتبان و عملیات بازیابی از پایگاه های داده
- آشنا به معماری سیستم های داده های حجیم Hadoop, Spark
- توانایی مانیتور کردن عمل کرد و بهینه سازی عملکرد
- مدیریت و بهینه سازی فضای دیسک برای کار با دیتا
- خودکارسازی تسک دستی و زمانبندی تسک
- مهارت با ELK stack
- مهارت با فایل سیستم ها، انباره ها و NOSQL های توزیع شده (HDFS, HBase, Hive, Cassandra, Impala)
- بسترهای آنالیز داده و محیط های محاسباتی توزیع شده ی بزرگ مقیاس (Spark, Map/Reduce, ksql)
- فن آوری های جریان داده مانند Apache Kafka, Apache Flume
- دانش حرفه ای از مباحث داده های حجیم همانند Hue, YARN, ZooKeeper, Ambari, Mesos
تواناییهای متمایز کننده:
- دانش Java/Scala/Python به عنوان یک مزیت کاری محسوب می شود
- تجربه کار با توزیع های تجاری Hadoop مانند Cloudera, HortonWorks, MapR, DataStax
چه موردی را میخواهید گزارش کنید؟