התפקיד כולל:
פיתוח data pipeline בסביבת DATA LAKE מקצה לקצה, פיתוח תהליכי שינוע נתונים בעולמות רלציונים.
פיתוח סקריפטים ב python בדגש על PySpark .
פיתוח ותחקור נתונים ב SQL וביצוע בדיקות (unit/integration).
עבודה עם CI/CD.
דרישות המשרה:
מעל שנתיים ניסיון ב-python – חובה
מעל שנתיים ניסיון ב- Big Data בדגש על SPARK ו -HIVE – חובה
יכולות קריאה וכתיבת שאילתות SQL מורכבות – חובה
לפחות שלוש שנות ניסיון בעולמות ה-Data של מיקרוסופט (SSIS,SQLServer) – חובה
הכרות עם עולם ה-DWH,DL ותהליכי ETL ,ELT – חובה
עבודה מול CTRLM – חובה
עבודה עם בסיס נתונים TERADATA- יתרון
הכרות עם – Qlik Sense , Quilliup- יתרון
הכרות עם העולם הבנקאי – יתרון
התפקיד דורש אחריות , עצמאות וכושר ארגון, "ראש גדול" , יוזמה, חריצות ואנרגיה.