Big Data (Spark)

منذ 3 أشهر

عرض العمل

الوصف

جمع البيانات (Data Ingestion):

استيراد البيانات من مصادر مختلفة مثل قواعد البيانات، ملفات CSV/JSON/Parquet، أو أنظمة تخزين سحابية (مثل AWS S3 أو Azure Blob Storage).

تنظيف وتحويل البيانات (Data Cleaning & Transformation):

التعامل مع القيم المفقودة والمكررة.

تحويل أنواع البيانات (Casting).

إنشاء أعمدة جديدة باستخدام دوال PySpark.

تطبيق عمليات التجميع (Aggregation) والتصفية (Filtering) والانضمام (Join).

تحليل البيانات (Data Analysis):

تنفيذ استعلامات مشابهة لـ SQL باستخدام واجهة pyspark.sql لتحليل البيانات على نطاق واسع.


التفاصيل

المشاهدات 0
المفضلة 0
القسم برمجة, تطوير المواقع و التطبيقات - اخري

حساب المستخدم

Developed by Samer Zaki

All rights reserved © kaf 2026