تطوير إرشادات لاستخدام الذكاء الاصطناعي التوليدي

Client of United Nation careers

صاحب عمل نشط

نشرت قبل 16 ساعة

الخبرة

10 - 15 سنوات

موقع العمل

لبنان - لبنان

التعليم

بكالوريوس في العلوم(أجهزة الكمبيوتر)

الجنسية

أي جنسية

جنس

غير مذكور

عدد الشواغر

1 عدد الشواغر

الوصف الوظيفي

الأدوار والمسؤوليات

يمثل الذكاء الاصطناعي التوليدي (GenAI) قفزة تحويلية في الذكاء الاصطناعي، قادرًا على إنتاج محتوى مشابه للبشر، وأتمتة المهام الإبداعية، وتعزيز الإنتاجية عبر قطاعات متنوعة. تمتد إمكانياته من إحداث ثورة في التعليم والرعاية الصحية إلى تبسيط خدمات الحكومة ودعم المؤسسات الصغيرة والمتوسطة في إنشاء المحتوى وتصميم المنتجات. وبذلك، يمكن أن يلعب GenAI دورًا محوريًا في التنمية الاجتماعية والاقتصادية الوطنية من خلال دفع الابتكار، وتحسين تقديم الخدمات، وخلق فرص اقتصادية جديدة. ومع ذلك، يجب موازنة هذه الإمكانيات مع حوكمة استباقية للتخفيف من المخاطر مثل المعلومات المضللة، والتحيز، وسوء استخدام البيانات، وانتهاك حقوق الملكية الفكرية. من الضروري أن تقوم الحكومات بتطوير واعتماد إرشادات وطنية شاملة تحدد الحدود الأخلاقية، وتروج للاستخدام الآمن والشفاف، وتضع معايير لنشرها في القطاعين العام والخاص. يجب أن تتناول هذه الإرشادات مجالات رئيسية تشمل جودة البيانات والخصوصية، وشفافية المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي، والإشراف البشري، وآليات المساءلة، والتكامل المسؤول لـ GenAI في البنية التحتية الحيوية والخدمات العامة. توفر الإرشادات الوطنية وضوحًا للمطورين والمستخدمين والمنظمين، مما يضمن أن يتماشى ابتكار GenAI مع القيم الوطنية والأطر القانونية ورفاهية المجتمع.

لقد اتخذت عدة دول بالفعل خطوات في هذا الاتجاه. في المنطقة العربية، أصدرت الهيئة السعودية للبيانات والذكاء الاصطناعي (SDAIA) إرشادات لأخلاقيات GenAI تركز على العدالة والسلامة والمساءلة. الإمارات العربية المتحدة، من خلال مكتب الذكاء الاصطناعي، تتقدم أيضًا في جهود تطوير أطر السياسات التي تشمل الذكاء الاصطناعي التوليدي ضمن استراتيجيات أخلاقية وإدارية أوسع. على الصعيد الدولي، أصدرت الولايات المتحدة تعديلًا للأمر التنفيذي بشأن تطوير واستخدام الذكاء الاصطناعي بشكل آمن ومأمون وموثوق، والذي يتضمن تفويضات لإدارة مخاطر GenAI في مجالات مثل التزييف العميق والأمن السيبراني. في هذه الأثناء، دمجت الاتحاد الأوروبي أحكام GenAI في قانون الذكاء الاصطناعي الرائد، مما يحدد متطلبات الشفافية ووضع العلامات للمحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي. إن إنشاء إرشادات وطنية لـ GenAI ليس مجرد ممارسة تنظيمية؛ بل هو تمكين استراتيجي للابتكار والثقة العامة والتنافسية العالمية. مع الحوكمة الصحيحة، يمكن للدول فتح القيمة الكاملة لـ GenAI مع ضمان أن تظل تطويره واستخدامه أخلاقياً وشاملاً ومتوافقاً مع المصالح الوطنية على المدى الطويل.

تشارك الأمم المتحدة (UN) في تعزيز استخدام التقنيات الناشئة من أجل التنمية المستدامة. في سبتمبر 2024، خلال قمة المستقبل، اعتمد زعماء العالم ميثاق المستقبل وملاحقه: الاتفاق الرقمي العالمي (GDC) وإعلان حول الأجيال المستقبلية. من بين أهدافه، يهدف GDC إلى تعزيز الحوكمة الدولية للذكاء الاصطناعي لصالح الإنسانية. تلتزم الإسكوا، من خلال برنامج التعاون الفني، بتقديم المساعدة التقنية للدول الأعضاء لتعزيز الجهود الوطنية نحو تحقيق أجندة التنمية المستدامة لعام 2030. مؤخرًا، طلبت وزارة الاقتصاد الرقمي وريادة الأعمال (MoDEE) في الأردن مساعدات من الإسكوا في تطوير إرشادات لاستخدام الذكاء الاصطناعي التوليدي (GenAI). إن تقديم هذه الخدمة الاستشارية هو موضوع هذه الشروط المرجعية. III. الواجبات والمسؤوليات يجب على المستشار اقتراح نسخة مفصلة من إرشادات GenAI الوطنية في الأردن للنقطة المعينة في الإسكوا. سيكون الخبير مسؤولاً عن المهام التالية، المنظمة في أربع مراحل:

المرحلة 1: مراجعة وتشخيص

  • مراجعة أفضل الممارسات الإقليمية والدولية المتعلقة بسياسات وإرشادات GenAI (على الأقل حالتين إقليميتين وحالتين دوليتين مختارتين)؛
  • تحديد المخاطر المرتبطة بتطبيق Gen AI في الأردن عبر قطاعات مختلفة.
  • تحديد أصحاب المصلحة الوطنيين الرئيسيين، وعقد، بالتنسيق مع MoDEE، مقابلات واجتماعات مع أصحاب المصلحة الوطنيين الرئيسيين ومع اللجنة الوطنية (المكلفة بهذا الموضوع) وتقديم ملخص لكل اجتماع/مقابلة للنقاط التي تم مناقشتها، وملاحظاتهم، وملاحظاتهم، واقتراحاتهم؛
  • المساهمة في ورش العمل القطاعية لمناقشة الاحتياجات والأولويات، إذا لزم الأمر؛

المرحلة 2: تطوير وصياغة

  • إعداد إرشادات GenAI المطلوبة استنادًا إلى أفضل الممارسات الدولية والإقليمية، وتحليل الفجوات والاحتياجات الوطنية (تحليل SWOT). يجب أن تشمل هذه الإرشادات: - حالات الاستخدام المقبولة لـ GenAI في القطاع العام على وجه التحديد؛ - نوع البيانات التي يمكن استخدامها بواسطة GenAI؛ - متطلبات الشفافية والكشف (مثل وضع علامات على المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي)؛ - الإشراف البشري والمساءلة؛ - اعتبارات خصوصية البيانات وأمانها؛ - الملكية الفكرية وملكية المحتوى؛ - التخفيف من مخاطر التحيز، والمعلومات المضللة، والتلاعب.
  • ضمان التوافق مع استراتيجية الذكاء الاصطناعي في الأردن وأجندة إصلاح الإدارة العامة.

المرحلة 3: التشاور والانتهاء

  • المساهمة في ورشة العمل الوطنية (جسديًا أو عن بُعد) والتقاط التعليقات الرئيسية والنقاشات.
  • تحديث مسودة الاقتراح وفقًا لجميع التعليقات والملاحظات الواردة خلال عملية المراجعة من قبل فرق الإسكوا وMoDEE.
  • إعداد عرض تقديمي قصير ومذكرة إحاطة تلخص العناصر الرئيسية.

المرحلة 4: تقديم المشورة بشأن التنفيذ

  • تقديم توصيات حول النشر، وزيادة الوعي، والتنفيذ.

تروج الإسكوا للمساواة بين الجنسين ودمج الشباب من خلال منشوراتها، لذلك يجب على المستشار الانتباه، بمساعدة موظفي الإسكوا، إلى الاعتبارات الجنسانية وأبعاد الشباب طوال العمل البحثي لضمان أن التقرير يعطي اهتمامًا متساويًا لاحتياجات كل من الرجال والنساء، وكذلك الفتيات والفتيان. يجب أن تستخدم الكتابة لغة حساسة للجنس.

الملف الشخصي المطلوب للمرشحين

درجة جامعية متقدمة في الذكاء الاصطناعي أو تكنولوجيا المعلومات والاتصالات أو التكنولوجيا أو الهندسة أو علوم الحاسوب أو مجال ذي صلة مطلوبة. درجة الدكتوراه مرغوبة. يجب على جميع المرشحين تقديم نسخة من الدرجة التعليمية المطلوبة. لن يتم مراجعة الطلبات غير المكتملة. مطلوب حد أدنى من 10 سنوات من الخبرة المهنية في مجال التكنولوجيا بما في ذلك 5 سنوات في مجال التقنيات الرقمية. مطلوب خبرة سابقة في تطوير السياسات والاستراتيجيات الوطنية. خبرة سابقة في تقديم أوراق بحثية مرغوبة. خبرة سابقة في الذكاء الاصطناعي التوليدي مرغوبة.

القطاع المهني للشركة

المجال الوظيفي / القسم

الكلمات الرئيسية

  • تطوير إرشادات لاستخدام الذكاء الاصطناعي التوليدي

تنويه: نوكري غلف هو مجرد منصة لجمع الباحثين عن عمل وأصحاب العمل معا. وينصح المتقدمون بالبحث في حسن نية صاحب العمل المحتمل بشكل مستقل. نحن لا نؤيد أي طلبات لدفع الأموال وننصح بشدة ضد تبادل المعلومات الشخصية أو المصرفية ذات الصلة. نوصي أيضا زيارة نصائح أمنية للمزيد من المعلومات. إذا كنت تشك في أي احتيال أو سوء تصرف ، راسلنا عبر البريد الإلكتروني abuse@naukrigulf.com