موظف حوكمة الذكاء الاصطناعي
Saudi Aramco (ASC)
صاحب عمل نشط
نشرت قبل 4 ساعات
أرسل لي وظائف مثل هذه
الجنسية
أي جنسية
جنس
غير مذكور
عدد الشواغر
1 عدد الشواغر
الوصف الوظيفي
الأدوار والمسؤوليات
نظرة عامة
نحن نبحث عن موظف حوكمة الذكاء الاصطناعي للانضمام إلى قسم مكتب البيانات المؤسسي (CDOD) ضمن منظمتنا للأمن السيبراني.
يركز CDOD على حوكمة الذكاء الاصطناعي، بما في ذلك تصميم وتنفيذ أطر حوكمة قوية للذكاء الاصطناعي تضمن الاستخدام الأخلاقي والشفاف والمتوافق للذكاء الاصطناعي وتقنيات التعلم الآلي.
دورك الأساسي هو لعب دور رئيسي في تشكيل ودفع حوكمة الذكاء الاصطناعي عبر المنظمة. ستنضم إلى فريق حوكمة الذكاء الاصطناعي لتنفيذ السياسات، والتعليمات العامة (GIs)، والأطر، وضوابط دورة الحياة التي تضمن الاستخدام والتنفيذ المناسبين لأنظمة الذكاء الاصطناعي. في هذا الدور، ستساعد في إدارة أنشطة نشر الذكاء الاصطناعي لضمان التوافق مع معايير الشركة والأهداف الاستراتيجية، والتعاون مع أصحاب المصلحة لضمان الامتثال للوائح وتعزيز ثقافة المساءلة والشفافية في جميع المبادرات المتعلقة بالذكاء الاصطناعي.
المسؤوليات الرئيسية
باعتبارك المرشح الناجح، سيتعين عليك أداء ما يلي:
- تنفيذ إطار حوكمة الذكاء الاصطناعي لتطوير الذكاء الاصطناعي المسؤول مع ضمان التوافق مع المعايير التنظيمية العالمية.
- تطوير وتنفيذ إرشادات الحوكمة لتطوير ونشر الذكاء الاصطناعي.
- إجراء مراجعة لحلول الذكاء الاصطناعي، من حيث الالتزام بالمبادئ والضوابط الأخلاقية والمسؤولة للذكاء الاصطناعي. يجب ألا يتم إجراء هذه المراجعة المستقلة من قبل أولئك الذين يطورون أو يدربون أو يختبرون و/أو ينشرون نماذج الذكاء الاصطناعي.
- إجراء مراجعات لتحديد المخاطر المحتملة والتأثير واقتراح الحلول قبل أن يبدأ مشروع الذكاء الاصطناعي.
- إجراء مراجعات دورية على عملية الحوكمة الخاصة بالذكاء الاصطناعي والوثائق.
- إجراء تقييم فني يغطي عملية تطوير ونشر الذكاء الاصطناعي بالإضافة إلى عملية شراء منتجات الذكاء الاصطناعي من طرف ثالث.
- ضمان تحديد وإدارة مخاطر الذكاء الاصطناعي بشكل مناسب من خلال عملية حوكمة المخاطر في المنظمة.
- دعم عملية حوكمة الذكاء الاصطناعي على جرد الذكاء الاصطناعي، وتتبع القضايا، واجتماعات الحوكمة وتقارير الإدارة.
- إجراء تحليل للمخاطر كلما خضعت تطبيق أو نظام لتغيير كبير.
- الإشراف وإجراء تقييمات دورية للتحقق من الالتزام بمعايير الحوكمة والالتزامات التنظيمية.
- تطوير طرق لمراقبة وقياس المخاطر والامتثال وجهود الضمان بشكل فعال.
- وضع استراتيجيات وبروتوكولات لتقليل المخاطر المرتبطة بالذكاء الاصطناعي، بما في ذلك تطوير أساليب اختبار قوية وأطر إدارة المخاطر.
- البقاء على اطلاع بالتنظيمات والمعايير وضمان توافق أنظمة الذكاء الاصطناعي مع هذه الإرشادات.
- تطوير وتقديم برامج توعية لتثقيف أصحاب المصلحة حول مبادئ حوكمة الذكاء الاصطناعي، والسياسات، ومتطلبات الامتثال.
الملف الشخصي المطلوب للمرشحين
يجب أن تحمل درجة بكاليوس في علوم الكمبيوتر، أو علوم البيانات، أو الهندسة، أو مجال ذي صلة. يفضل أن تكون لديك درجة ماجستير في التعلم الآلي، أو علوم البيانات، أو مجال ذي صلة.
يجب أن يكون لديك خبرة لا تقل عن 15 عامًا في تطوير التطبيقات، وإدارة الأنظمة، وإدارة البيانات، بما في ذلك 10 سنوات من الخبرة في تنفيذ الذكاء الاصطناعي، ورؤية الكمبيوتر، ومعالجة اللغة الطبيعية، وحلول نماذج اللغة الكبيرة.
كما يتطلب أيضًا 5 سنوات من الخبرة في تصميم وتنفيذ برامج حوكمة الذكاء الاصطناعي وإدارة المخاطر.
يجب أن تكون قادرًا أيضًا على إظهار معرفة قوية في الذكاء الاصطناعي المسؤول وتقييمات الذكاء الاصطناعي، واكتشاف التحيز، والتركيز على البيانات، والذكاء الاصطناعي الوكيل، وAIOps، وخصوصية البيانات من خلال التصميم، واختبار النماذج الكبيرة، ومنهجيات القابلية للتفسير والفهم وبيئات الحوسبة السحابية.
القطاع المهني للشركة
- النفط والغاز
- البترول
المجال الوظيفي / القسم
- سوفت وير تقنية المعلومات
الكلمات الرئيسية
- Job_title - موظف حوكمة الذكاء الاصطناعي
تنويه: نوكري غلف هو مجرد منصة لجمع الباحثين عن عمل وأصحاب العمل معا. وينصح المتقدمون بالبحث في حسن نية صاحب العمل المحتمل بشكل مستقل. نحن لا نؤيد أي طلبات لدفع الأموال وننصح بشدة ضد تبادل المعلومات الشخصية أو المصرفية ذات الصلة. نوصي أيضا زيارة نصائح أمنية للمزيد من المعلومات. إذا كنت تشك في أي احتيال أو سوء تصرف ، راسلنا عبر البريد الإلكتروني abuse@naukrigulf.com