مدير تنفيذي للحوكمة
Gravity Engineering Services
عدة شواغرصاحب عمل نشط
نشرت قبل ساعة
أرسل لي وظائف مثل هذه
الجنسية
أي جنسية
جنس
غير مذكور
عدد الشواغر
2 وظيفة شاغرة
الوصف الوظيفي
الأدوار والمسؤوليات
تصميم وتنفيذ إطار حوكمة الذكاء الاصطناعي المؤسسي الذي يغطي دورة حياة الذكاء الاصطناعي بالكامل: التطوير، التحقق، النشر، المراقبة، وإلغاء التشغيل.
تحديد منهجية تصنيف مخاطر الذكاء الاصطناعي (مستويات المخاطر) وتأسيس العمليات المناسبة للرقابة والموافقة.
تطوير سياسات للذكاء الاصطناعي المسؤول: العدالة، القابلية للتفسير، الشفافية، الحفاظ على الخصوصية، والرقابة البشرية.
توحيد إطار حوكمة الذكاء الاصطناعي مع الأنظمة العالمية والإقليمية الناشئة في مجال الذكاء الاصطناعي (تشريع الذكاء الاصطناعي في الإمارات، قانون الذكاء الاصطناعي في الاتحاد الأوروبي، ISO/IEC 42001).
إنشاء سجل نماذج الذكاء الاصطناعي / سجل يتتبع جميع النماذج المنشورة، مستويات المخاطر، الملاك، وجداول المراجعة.
إنشاء عمليات مراقبة الحوادث والتحيز المتعلقة بالذكاء الاصطناعي؛ تحديد كتب الإجراءات للتصعيد والتصحيح.
التعاون مع فرق علم البيانات، والقانونية، والامتثال، وأمن تكنولوجيا المعلومات لدمج ضوابط الحوكمة في جميع مراحل MLOps.
قيادة برامج تدريب أخلاقيات الذكاء الاصطناعي والذكاء الاصطناعي المسؤول لفرق التكنولوجيا والأعمال.
إنتاج لوحات المعلومات الخاصة بحوكمة الذكاء الاصطناعي، وتقارير المخاطر، وإحاطات على مستوى مجلس الإدارة حول صحة برنامج الذكاء الاصطناعي.
المهارات والمتطلبات المطلوبة
5+ سنوات (AM) / 8+ سنوات (مديرSM) في حوكمة الذكاء الاصطناعي، الذكاء الاصطناعي المسؤول، إدارة المخاطر، أو أدوار أخلاقيات البيانات.
معرفة بإطارات حوكمة الذكاء الاصطناعي العالمية: NIST AI RMF، قانون الذكاء الاصطناعي في الاتحاد الأوروبي، الاستراتيجية الوطنية للذكاء الاصطناعي في الإمارات، ISO/IEC 42001.
فهم دورة حياة نموذج الذكاء الاصطناعي/ML: التدريب، التحقق، النشر، المراقبة، واكتشاف التحيز.
خبرة في تطوير أنظمة تصنيف مخاطر الذكاء الاصطناعي وعمليات مراجعة النماذج.
مهارات قوية في كتابة السياسات وتفسير اللوائح.
إلمام بمنصات MLOps (MLflow، Azure ML، Vertex AI، SageMaker) لدمج الحوكمة.
الشهادة في أخلاقيات الذكاء الاصطناعي، إدارة المخاطر (FRM، PRM)، أو حوكمة البيانات (CDMP) هي ميزة كبيرة.
الملف الشخصي المطلوب للمرشحين
5+ سنوات (AM) / 8+ سنوات (مديرSM) في حوكمة الذكاء الاصطناعي، الذكاء الاصطناعي المسؤول، إدارة المخاطر، أو أدوار أخلاقيات البيانات.
معرفة بإطارات حوكمة الذكاء الاصطناعي العالمية: NIST AI RMF، قانون الذكاء الاصطناعي في الاتحاد الأوروبي، الاستراتيجية الوطنية للذكاء الاصطناعي في الإمارات، ISO/IEC 42001.
فهم دورة حياة نموذج الذكاء الاصطناعي/ML: التدريب، التحقق، النشر، المراقبة، واكتشاف التحيز.
خبرة في تطوير أنظمة تصنيف مخاطر الذكاء الاصطناعي وعمليات مراجعة النماذج.
مهارات قوية في كتابة السياسات وتفسير اللوائح.
إلمام بمنصات MLOps (MLflow، Azure ML، Vertex AI، SageMaker) لدمج الحوكمة.
الشهادة في أخلاقيات الذكاء الاصطناعي، إدارة المخاطر (FRM، PRM)، أو حوكمة البيانات (CDMP) هي ميزة كبيرة.
القطاع المهني للشركة
المجال الوظيفي / القسم
الكلمات الرئيسية
- مدير تنفيذي للحوكمة
تنويه: نوكري غلف هو مجرد منصة لجمع الباحثين عن عمل وأصحاب العمل معا. وينصح المتقدمون بالبحث في حسن نية صاحب العمل المحتمل بشكل مستقل. نحن لا نؤيد أي طلبات لدفع الأموال وننصح بشدة ضد تبادل المعلومات الشخصية أو المصرفية ذات الصلة. نوصي أيضا زيارة نصائح أمنية للمزيد من المعلومات. إذا كنت تشك في أي احتيال أو سوء تصرف ، راسلنا عبر البريد الإلكتروني abuse@naukrigulf.com
Gravity Engineering Services