این آگهی منقضی
شده است
Design and work with big data frameworks (Hadoop, Hive, PySpark, Dask, Airflow, nifi, kafka, dbt)
Design, build and maintain ETL pipelines
Writing effective and scalable Python codes
Produce clean, consistent, logical code based on designs; submit to GitLab repository
Generating infrastructure that allows big data to be accessed and analyzed.
Reformulating existing frameworks, functions and paradigms to optimize their functioning.
Ensuring data quality
Create and maintain various database systems (MySQL, Oracle, MS SQL Server)
Provide knowledge transfer to team members and support staff through application demos, walkthroughs, and documentation
At least 4 years work experiences
Experience with Big Data technologies such as Hadoop, Hive, PySpark, Dask, Airflow, nifi, kafka, dbt
Experience with ETL process and pipelines
Strong proficiency in SQL and experience with relational databases such as MySQL, MS SQL Server or Oracle and NoSQL databases like MongoDB
Confident with version control systems (GitHub, GitLab, etc.)
Experience with pandas, numpy, sklearn or other data science frameworks
Advanced knowledge of application, data, and infrastructure architecture disciplines
Knowledge of data warehousing concepts and experience with data modeling and schema design
Problem Solving and communication skills
Detail Oriented and decision making
دیجیپی یک استارتاپ جوان در حوزه پرداخت الکترونیک با مجوز پرداختیاری است که حاصل ادغام استارتاپ هُماپی در هلدینگ دیجیکالا است.
دیجیپی در سال ۱۳۹۷ عضوی از خانواده دیجیکالا شد. هدف گروه دیجیکالا از ورود به حوزه فینتک، ارائه سرویسهای پرداخت الکترونیک با پایداری بالا و بهترین تجربه برای مشتری بود. به دنبال تعریف این هدف، مسیر توسعه سرویسهای دیجیپی مشخص شد.
محصولات شرکت:
-(Smart IPG) درگاه پرداخت هوشمند اینترنتی
-(Refund) بازگشت وجه به مشتری
-(Payout) پرداخت وجه با کیف پول تجاری
-اپلیکیشن موبایل دیجیپی
-(Smart Dashboard) داشبورد هوشمند
-کیف پول خرید اقساطی