الدخول من خلال النفاذ الوطني الموحد
مقدمة
نظراً إلى النمو المتسارع الذي تشهده الممارسات والتقنيات المتعلقة بالذكاء الاصطناعي، فقد تنوعت استخدامات الذكاء الاصطناعي لتشمل العديد من القطاعات مثل الصحة والتعليم والترفيه وغيرها، مما أدى إلى تسريع وتيرة عمليات صنع القرار وجعلها أكثر كفاءة ودقة بفضل ما يتيحه من قدرات للتنبؤ بالأنماط المستقبلية، بالإضافة إلى ذلك، يمكن استخدام تقنيات الذكاء الاصطناعي لتحليل البيانات، بما في ذلك البيانات الضخمة من خلال إنشاء وتشغيل أنظمة ذات نماذج وخوارزميات أكثر تطوراً تساعد على تحسين جودة العمليات، وفي ضوء الاهتمام المتزايد بهذه التقنيات، قامت العديد من الجهات في القطاعين العام والخاص، بالإضافة إلى الجهات غير الربحية، بتطوير وتبني حلول رقمية قائمة على الذكاء الاصطناعي تستخدم أساليب مبتكرة لمساعدتها في مواجهة تحدياتها الراهنة، وهو الأمر الذي عَظّم من دور الذكاء الاصطناعي في تعزيز القدرات التنافسية لهذه الجهات.
انطلاقاً من التزام المملكة العربية السعودية بحقوق الإنسان وقيمها الثقافية، وتماشياً مع المعايير والتوصيات الدولية بشأن أخلاقيات الذكاء الاصطناعي، وبالإشارة إلى قرار مجلس الوزراء رقم (292) بتاريخ 27-04-1441هـ، القاضي في الفقرة (1) من المادة "العاشرة“ بــأن يتولــى المكتــب وضــع السياســات وآليــات الحوكمــة والمعاييــر والضوابــط الخاصــة بالبيانـات والـذكاء الاصطناعـي ومتابعـة الالتـزام بهـا بعـد إقرارهـا، عليـه فقـد قـام مكتـب إدارة البيانـات الوطنيــة بالاســتفادة مــن الممارســات والمعاييــر العالميــة عنــد وضع إطار أخلاقيات الذكاء الاصطناعي والذي يهــدف إلــى:
- دعم وتعزيز جهود المملكة في تحقيق رؤيتها واستراتيجياتها الوطنية المتعلقة باعتماد تقنيات الذكاء الاصطناعي وتشجيع البحث والابتكار وتعزيز النمو الاقتصادي لتحقيق الازدهار والتنمية المنشودة.
- وضع السياسات والمبادئ التوجيهية واللوائح والأطر المتعلقة بأخلاقيات الذكاء الاصطناعي.
- تمكين الجهات التنظيمية من وضع سياساتها الخاصة أو قواعد سلوكها وتنفيذ خططها واستخدام تقنية الذكاء الاصطناعي للتنبؤ بالمستقبل واتخاذ القرارات بما يتماشى مع الرؤية والاستراتيجيات الوطنية.
- حوكمة نماذج البيانات والذكاء الاصطناعي للحد من الآثار السلبية لأنظمة الذكاء الاصطناعي (اقتصادياً ونفسياً واجتماعياً وما إلى ذلك) والتهديدات المحتملة (الأمنية والسياسية وغيرها).
- مساعدة الجهات في اعتماد المعايير والأخلاقيات عند بناء وتطوير الحلول القائمة على الذكاء الاصطناعي لضمان الاستخدام المسؤول لها.
- حماية خصوصية أصحاب البيانات وحقوقهم فيما يتعلق بمعالجة بياناتهم الشخصية.
- التنسيق والعمل مع المنظمات الإقليمية والدولية لمواءمة واعتماد أفضل الممارسات المتبعة لتطبيق وحوكمة الذكاء الاصطناعي.
نطاق التطبيق
دورة حياة نظام الذكاء الاصطناعي هي المنهجية التي يتم اتباعها عند تنفيذ مشاريع الحلول التقنية المعتمدة على تقنيات الذكاء الاصطناعي، والتي بموجبها يتم تحديد كل خطوة يتوقع من الجهة اتباعها للاستفادة من هذه التقنية لتحقيق قيمة عملية، وهي طريقة موحدة لتمثيل المهام استناداً إلى أفضل الممارسات في تنفيذ وإدارة نماذج الذكاء الاصطناعي، مما يجعلها أنسب الخيارات لتضمين أخلاقيات الذكاء الاصطناعي.
تنقسم دورة حياة نظام الذكاء الاصطناعي إلى أربع مراحل رئيسية، لها نفس المستوى من الأهمية، وتتضمن كل مرحلة من المراحل عدد من الأنشطة الرئيسية، على النحو التالي:
التخطيط والتصميم:
- تطوير مؤشرات الأداء المناسبة.
تهيئة البيانات:
- تحويل البيانات إلى صيغة تناسب مدخلات نموذج الذكاء الاصطناعي.
البناء وقياس الأداء:
- التحقق من أداء النموذج.
التطبيق والمتابعة:
- تقييم مدى الحاجة إلى تغيير التصميم وفقاً لنتائج المراجعات الدورية.
تتأثر ممارسات أخلاقيات الذكاء الاصطناعي ببعضها البعض عبر دورة حياة نظام الذكاء الاصطناعي، لذلك من المهم التأكد من تضمين المبادئ الأخلاقية والضوابط المتعلقة بها لكل مرحلة من مراحل دورة حياة نظام الذكاء الاصطناعي المذكورة، ونتيجة لذلك تم وضع مبادئ أخلاقيات الذكاء الاصطناعي، المدعومة بالضوابط وتم تصنيفها أيضاً وفق مراحل دورة حياة نظام الذكاء الاصطناعي لعرضها من خلال نهج منظم وشامل.
تم تحديد مبادئ أخلاقيات الذكاء الاصطناعي في المملكة بما يتماشى مع المعايير العالمية والقيم الثقافية للمملكة. كما أن المبادئ الموضحة أدناه مدعومة بضوابط توجيهية عبر دورة حياة نظام الذكاء الاصطناعي. استندت الضوابط الواردة في هذه المبادئ، والتي بدورها يجب أن توجه أي تطور مستقبلي لبرنامج أعمال أخلاقيات الذكاء الاصطناعي في المملكة.
يتطلب مبدأ النزاهة والإنصاف عند تصميم أو جمع أو تطوير أو نشر أو استخدام أنظمة الذكاء الاصطناعي، اتخاذ الإجراءات اللازمة للقضاء على التحيز أو التمييز أو الوصم الذي يتعرض له الأفراد أو الجماعات أو الفئات، وقد يحدث التحيز بسبب البيانات أو التمثيل أو الخوارزميات ويمكن أن يؤدي إلى تمييز فئة ضد أخرى.
عند تصميم واختيار وتطوير أنظمة الذكاء الاصطناعي، من الضروري ضمان معايير عادلة ومنصفة وغير متحيزة وموضوعية وشاملة ومتنوعة وممثلة لجميع شرائح المجتمع أو الشرائح المستهدفة منها، ويجب ألا تقتصر وظيفة نظام الذكاء الاصطناعي على مجموعة محددة على أساس الجنس أو العرق أو الدين أو العمر أو غير ذلك. بالإضافة إلى ذلك، يجب أن تكون المخاطر المحتملة، والفوائد العامة، والغرض من استخدام البيانات الشخصية مبررة ومحددة بشكل واضح ودقيق من قبل الجهة المسؤولة عن نظام الذكاء الاصطناعي.
لضمان تطابق أنظمة الذكاء الاصطناعي القائمة على الإنصاف والشمولية، يجب تدريب أنظمة الذكاء الاصطناعي على البيانات التي يتم تنظيفها من التحيز، كما يجب أن تمثل مجموعات الأقليات المتأثرة، وبناء وتطوير الخوارزميات بطريقة تجعل تكوينها خالياً من التحيز والمغالطات.
في المراحل الأولى من تحديد الغرض من نظام الذكاء الاصطناعي، يتعاون فريق التصميم لتحديد الأهداف وكيفية تحقيقها بطريقة فعالة ومحسنة، ويعد تخطيط وتصميم نظام الذكاء الاصطناعي مرحلة أساسية لترجمة الأهداف والنتائج المرجوة من النظام، ومن المهم خلال هذه المرحلة الخروج بتصميم يتسم بالنزاهة والإنصاف ويأخذ الاحتياطات المناسبة عبر نظام الذكاء الاصطناعي وعملياته وآلياته لمنع التحيزات وللحيلولة دون أن يكون لها تأثير تمييزي أو تؤدي إلى نتائج غير مرغوب فيها.
يبدأ التصميم المراعي للنزاهة والإنصاف من بداية دورة حياة نظام الذكاء الاصطناعي من خلال جهود تعاونية بين الأعضاء الفنيين وغير الفنيين وذلك لتحديد الأضرار والفوائد المحتملة والأفراد المتضررين والفئات غير الممثلة في النظام وتقييم مدى تأثرهم بالنتائج وما إذا كان التأثير مبرراً في ظل الهدف العام من نظام الذكاء الاصطناعي.
يعد تقييم نزاهة نظام الذكاء الاصطناعي أمراً بالغ الأهمية، لذا يجب اختيار المقاييس في هذه المرحلة من دورة حياة نظام الذكاء الاصطناعي، واختيار المقاييس بناء على نوع النظام (قائمة على القاعدة، التصنيف، الانحدار، إلخ)، تأثير القرار (عقابي، انتقائي، إلخ)، والضرر أو الفائدة التي ستعود على العينات المتوقعة بشكل صحيح أو غير صحيح.
يتم في هذه المرحلة تحديد وتعريف سمات البيانات الشخصية المتعلقة بالأشخاص أو الفئات وبصورة منهجية، ويتم تحديد الحد الذي يكون عنده التقييم عادلاً أو غير عادل، كما يجب تحديد مقاييس تقييم النزاهة التي سيتم تطبيقها على البيانات الحساسة خلال الخطوات المستقبلية.
يُعد اتباع أفضل الممارسات في الحصول على البيانات والتعامل معها وتصنيفها وإدارتها من الأولويات لضمان توافق النتائج مع الأهداف والغايات المحددة لنظام الذكاء الاصطناعي، وتتحقق فعالية وسلامة جودة البيانات من خلال ضمان سلامة مصدر البيانات ودقتها في تمثيل جميع الملاحظات لتجنب أي حرمان منظّم للفئات غير الممثلة تمثيلاً كافياً أو الأقل حظاً، ويجب أن تكون كمية ونوعية مجموعات البيانات كافية ودقيقة لخدمة الغرض من النظام. يؤثر حجم عينة البيانات التي تم جمعها أو الحصول عليها تأثيراً كبيراً على دقة وعدالة مخرجات النموذج تحت التطوير.
ويجب اعتماد دقة البيانات عند إدارة البيانات وتصنيفها (التوسيم والتعليق والتنظيم) لتجنب إدخال التقديرات البشرية ولمنع التحيز وضمان نزاهة البيانات.
كما يجب ألا تدرج خصائص البيانات الشخصية المحددة في مرحلة التخطيط والتصميم في بيانات النموذج، كي لا تزيد التحيز الموجود ضدها. لذا يجب تحليل خصائص البيانات الحساسة وعدم إدراجها في بيانات المدخلات، ولكن في بعض الحالات قد لا يكون ذلك ممكناً بسبب دقة أو هدف نظام الذكاء الاصطناعي، وفي هذه الحالة يجب تقديم مبررات لاستخدام خصائص البيانات الشخصية وتحديد بديل عنها.
في مرحلة البناء وقياس الأداء من دورة حياة نظام الذكاء الاصطناعي، من الضروري مراعاة النزاهة في التنفيذ باعتبارها عاملاً مهماً عند بناء نظام الذكاء الاصطناعي واختباره وتنفيذه، ويتطلب بناء النموذج واختيار الميزات من المهندسين والمصممين أن يكونوا على دراية بأن الخيارات المتخذة بشأن تجميع أو فصل، أو استبعاد الميزات، بالإضافة إلى أن الأحكام العامة المتخذة بشأن موثوقية وأمن المجموعة الإجمالية من الميزات، قد يكون لها عواقب وخيمة على الفئات الضعيفة أو غير الممثلة في البيانات. لذا، عند اختيار النموذج يجب النظر في تقييم مقاييس النزاهة والإنصاف، إذ يجب أن تكون مقاييس النزاهة والإنصاف في النموذج ضمن الحد المحدد للخصائص الحساسة، كما يجب تحديد نهج التقييم الخاص بالنزاهة والإنصاف ومقاييس الأداء بوضوح خلال هذه المرحلة، ويجب أن يكون تقييم النزاهة مبرراً إذا لم يجتاز النموذج الرائد التقييم.
من الضروري التأكد من اختيار الخصائص السببية، كما يجب التحقق من الخصائص المختارة مع ممثلي بيانات الأعمال والفرق غير الفنية.
تتضمن التقنيات المؤتمتة لدعم القرار العديد من المخاطر الكبيرة المتمثلة في التحيز والتطبيق غير المرغوب فيه في مرحلة التشغيل الفعلي، لذلك من المهم وضع آليات لمنع النتائج الضارة والتمييزية في هذه المرحلة.
يجب وضع آليات وبروتوكولات واضحة عند التطبيق الفعلي لنظام الذكاء الاصطناعي وذلك لقياس نزاهة النتائج وأدائها وكيفية تأثيرها على مختلف الأفراد والجماعات. عند تحليل نتائج النموذج التنبؤي، يجب تقييم ما إذا كانت المجموعات الممثلة في عينة البيانات تتلقى مزايا بشكل متساوٍ أو مماثل، أو إذا كان نظام الذكاء الاصطناعي يضر بفئة محددة على نحو غير متناسب دون مراعاة الفروق الديموغرافية وذلك لضمان تحقيق العدالة في النتائج.
كما يجب مراقبة مقاييس النزاهة والإنصاف المحددة مسبقاً، وإذا كان هناك أي انحراف عن الحد المسموح بها، فيجب التحقق فيما إذا كانت هناك حاجة لتجديد النموذج.
يجب تحديد حجم الضرر العام والمنفعة المتحققة من النظام وتوزيعه على فئات معينة من المستخدمين.
يمثل مبدأ الخصوصية والأمن القيم والمبادئ الشاملة التي يُطلَب بموجبها من أنظمة الذكاء الاصطناعي، طوال دورتها أن تكون مبنية بطريقة آمنة وتراعي خصوصية أصحاب البيانات الشخصية التي يتم جمعها بحيث تكون على أعلى مستويات الأمن في جميع العمليات والإجراءات المتعلقة بالبيانات وسريتها، الأمر الذي يفضي بدوره إلى منع اختراق البيانات والنظام بما قد يؤدي إلى الإضرار بالسمعة أو الأضرار النفسية أو المالية أو المهنية أو غيرها، ويجب تصميم أنظمة الذكاء الاصطناعي باستخدام آليات وضوابط توفر إمكانية إدارة ومراقبة نتائجها والتقدم المحرز طوال دورتها لضمان امتثالها دائماً بقواعد وبرتوكولات الخصوصية والأمن.
يتم إعداد وتصميم نظام الذكاء الاصطناعي والخوارزمية المرتبطة به بطريقة من خلالها يمكن مراعاة حماية خصوصية الأفراد، وعدم إساءة استخدام البيانات الشخصية واستغلالها، وضمان عدم استناد معايير اتخاذ القرارات في التقنية الآلية إلى خصائص أو معلومات تحدد الهوية الشخصية، ويقتصر استخدام البيانات الشخصية على ما هو ضروري لتشغيل النظام بشكل سليم. يتم تصميم أنظمة الذكاء الاصطناعي التي تؤدي إلى تحديد سمات الأفراد أو الجماعات فقط في حالة الموافقة على ذلك من قبل مسؤول الالتزام والأخلاقيات أو إذا تم ذلك وفقاً لمدونة قواعد السلوك المهني التي تطورها الجهة التنظيمية لقطاع معين. تتم مواءمة مخطط الأمن والحماية لنظام الذكاء الاصطناعي، والبيانات التي تتم معالجتها والخوارزمية التي يتم استخدامها، مع أفضل الممارسات حتى تكون هذه الأنظمة قادرة على تحمل الهجمات السيبرانية ومحاولات اختراق البيانات.
يجب اتباع الأطر والمعايير القانونية للخصوصية والأمن وتهيئتها بما يتناسب مع حالة الاستخدام أو الجهة المعنية. من الجوانب المهمة في الخصوصية والأمن هي بنية البيانات، وبالتالي يجب التخطيط لتصنيف البيانات وتحديد خصائصها من أجل تحديد مستويات الحماية واستخدام البيانات الشخصية. يجب التخطيط لآليات أمنية لإلغاء التعريف بالبيانات الحساسة أو الشخصية في النظام، كما يجب اعتماد إجراءات القراءة/ الكتابة/ التحديث للمجموعات ذات الصلة.
عند الحصول أو إدارة أو تنظيم البيانات يجب الالتزام بالأطر والمعايير القانونية لخصوصية البيانات؛ لحماية خصوصية الأفراد وأمن البيانات المعلومات من مجموعة واسعة من التهديدات.
تضمن سرية البيانات اقتصار الوصول إلى المعلومات على الأشخاص المصرح لهم بالوصول إلى المعلومات ووجود ضوابط محددة لإدارة تفويض صلاحيات الوصول إلى المعلومات والبيانات. يجب أن يتمتع مصمم ومهندس نظام الذكاء الاصطناعي بالمستويات المناسبة من النزاهة لحماية دقة واكتمال المعلومات وطرق المعالجة وذلك لضمان اتباع الأطر والمعايير القانونية للخصوصية والأمن، كما يجب التأكد من حماية إتاحة وتخزين البيانات من خلال توفير أنظمة قواعد بيانات آمنة. يتم تصنيف جميع البيانات المعالجة لضمان حصولها على المستوى المناسب من الحماية وفقاً لحساسيتها أو تصنيفها الأمني، ويجب أن يكون مطورو نظام الذكاء الاصطناعي ومالكوه على دراية بتصنيف أو حساسية المعلومات التي يتعاملون معها والمتطلبات المرتبطة بها للحفاظ على أمنها، وتُصنف جميع البيانات من حيث متطلبات الأعمال وأهميتها وحساسيتها لمنع الإفصاح غير المصرح به عنها أو تعديلها، وتُصنف البيانات بطريقة سياقية لا تؤدي إلى استخلاص المعلومات الشخصية، بالإضافة إلى ذلك يجب استخدام آليات إلغاء التحديد بناءً على تصنيف البيانات ووفقاً للمتطلبات المتعلقة بأنظمة وقوانين حماية البيانات.
يتم اتخاذ إجراءات النسخ الاحتياطي للبيانات وأرشفتها في هذه المرحلة للتوافق مع سياسات استمرارية الأعمال والتعافي من الكوارث وتخفيف المخاطر.
يُطبق مبدأ الخصوصية والأمن خلال عملية تصميم وبناء نظام الذكاء الاصطناعي، وتتضمن آليات الأمن حماية الأبعاد التصميمية المختلفة لنموذج الذكاء الاصطناعي من الهجمات التخريبية، وتتم حماية هيكل ووحدات نظام الذكاء الاصطناعي من التلف أو التعديل غير المصرح به لأي من مكوناته، ويجب تأمين نظام الذكاء الاصطناعي للحفاظ على سلامة المعلومات التي يعالجها، ويجب كذلك أن يكون نظام الذكاء الاصطناعي آمناً بحيث يظل فعالاً وجاهزاً للاستخدام من قبل المستخدمين المصرح لهم ومحافظاً على أمن المعلومات السرية والخاصة حتى في الظروف العدائية أو التخريبية، بالإضافة إلى ذلك يجب وضع ضوابط حماية مناسبة لضمان تقيد أنظمة اتخاذ القرار بالذكاء الاصطناعي بمتطلبات خصوصية وأمن البيانات ذات الصلة، وينبغي اختبار نظام الذكاء الاصطناعي للتأكد من أن البيانات المتاحة لا تكشف عن البيانات الحساسة أو تنتهك قواعد إخفاء الهوية.
بعد تشغيل نظام الذكاء الاصطناعي، وبعد تحقيق النتائج المرجوة، يجب أن تكون هناك متابعة مستمرة لضمان الحفاظ على الخصوصية في نظام الذكاء الاصطناعي وضمان سلامته وأمنه، وتتم إعادة النظر في تقييم أثر الخصوصية وتقييم إدارة المخاطر باستمرار لضمان التقييم المنتظم للاعتبارات الاجتماعية والأخلاقية. يجب أن يكون مسؤولو نظام الذكاء الاصطناعي مسؤولين عن تصميم وتنفيذ أنظمة الذكاء الاصطناعي بما يضمن حماية المعلومات الشخصية طوال دورة نظام الذكاء الاصطناعي، ويتم تحديث مكونات نظام الذكاء الاصطناعي بناءً على تقارير المتابعة المستمرة، كما يجب تقييم أثر الخصوصية.
يسلط مبدأ الإنسانية الضوء على ضرورة بناء أنظمة الذكاء الاصطناعي باستخدام منهجية عادلة مسموح بها أخلاقياً تستند إلى حقوق الإنسان والقيم الثقافية الأساسية وذلك لإحداث أثر مفيد على الأطراف المعنية والمجتمعات المحلية والمساهمة في تحقيق الأهداف والغايات طويلة وقصيرة الأجل من أجل صالح البشرية، ومن الضروري أن يتم تصميم النماذج التنبؤية بحيث لا تخدع، أو تتلاعب، أو تضع سلوكاً لا يقصد به تمكين، أو تعزيز، أو زيادة المهارات البشرية، بل ينبغي لها أن تتبنى نهجاً تصميمياً أكثر تركيزاً على الإنسان يتيح له الاختيار واتخاذ القرار.
من الضروري تصميم وبناء نموذج قائم على حقوق الإنسان الأساسية والقيم والمبادئ الثقافية وتطبيقه على قرارات وعمليات ووظائف نظام الذكاء الاصطناعي. يتعين على مصممي نموذج الذكاء الاصطناعي تحديد الكيفية التي سيتوافق بها نظام الذكاء الاصطناعي مع حقوق الإنسان الأساسية والقيم الثقافية للمملكة العربية السعودية، فضلاً عن تحديد التقنيات اللازمة واختبارها، مع تحديد الآلية التي سيسعى من خلالها نظام الذكاء الاصطناعي ونتائجه إلى تعزيز المهارات والقدرات البشرية.
لضمان تجسيد نماذج الذكاء الاصطناعي لهيكل وتصميم يركزان على الإنسان، يجب الالتزام بممارسات إدارة البيانات المسؤولة والأخلاقية التي يجب اتباعها وفقاً لأفضل الممارسات وكذلك المعايير والضوابط الخاصة بإدارة البيانات في المملكة، ويتم الحصول على البيانات وتصنيفها ومعالجتها وإتاحتها بشكل صحيح لضمان احترام حقوق الإنسان والقيم الثقافية للمملكة العربية السعودية.
عند إنشاء أنظمة الذكاء الاصطناعي، يجب على المصممين والمهندسين إعطاء الأولوية لبناء أنظمة وخوارزميات الذكاء الاصطناعي التي تسمح وتسهل عملية صنع القرار والتي تراعي التوافق مع حقوق الإنسان والقيم الثقافية للمملكة. يجب ألا تعمل القرارات المؤتمتة الناتجة عن أنظمة الذكاء الاصطناعي بطريقة جزئية ومستقلة دون مراعاة حقوق الإنسان والقيم الثقافية الأوسع نطاقاً في نتائجها النهائية، ولتحقيق ذلك يجب على المصممين تمكين أنظمة الذكاء الاصطناعي باستخدام المعايير المناسبة وتدريب الخوارزميات لتحقيق النتائج التي تنهض بالإنسانية.
يتم إجراء تقييمات دورية لنظام الذكاء الاصطناعي المستخدم لضمان مواءمة نتائجه مع حقوق الإنسان والقيم الثقافية، ولضمان دقة مؤشرات الأداء الرئيسية، ولرصد تأثيره على الأفراد أو الجماعات وذلك لضمان التحسين المستمر للتقنية.
ينبغي على مصممي نماذج الذكاء الاصطناعي أن يضعوا آليات لتقييم أنظمة الذكاء الاصطناعي من حيث القيم الثقافية وحقوق الإنسان الأساسية للحد من أي نتائج سلبية وضارة ناتجة عن استخدام نظام الذكاء الاصطناعي. في حال العثور على أي نتائج سلبية وضارة، يجب على مسؤول نظام الذكاء الاصطناعي تحديد المجالات التي تحتاج إلى معالجة وتطبيق تدابير تصحيحية لتحسين أداء نظام الذكاء الاصطناعي ونتائجه بشكل متكرر.
يعزز مبدأ المنافع الاجتماعية والبيئية الأثر الإيجابي والمفيد للأولويات الاجتماعية والبيئية التي يجب أن تفيد الأفراد والمجتمع ككل والتي تركز على الأهداف والغايات المستدامة. لا ينبغي لأنظمة الذكاء الاصطناعي أن تسبب أو تسرع الضرر أو تؤثر سلباً على البشر، بل يجب أن تسهم في تمكين واستكمال التقدم الاجتماعي والبيئي مع معالجة التحديات الاجتماعية والبيئية المرتبطة بها، وهذا يستلزم حماية المنفعة الاجتماعية والاستدامة البيئية.
تؤثر أنظمة الذكاء الاصطناعي تأثيراً كبيراً على المجتمعات والمنظومات المتواجدة بها، وبالتالي يجب أن يكون لدى مسؤولي أنظمة الذكاء الاصطناعي شعور عالٍ بالوعي بأن هذه التقنيات قد يكون لها آثار ضارّة أو تحولية على المجتمع والبيئة، كما يجب التعامل مع تصميم أنظمة الذكاء الاصطناعي بطريقة أخلاقية وحساسة بما يتماشى مع قيم منع الضرر لكل من البشر والبيئة. عند تخطيط وتصميم أنظمة الذكاء الاصطناعي، يجب الاهتمام بمنع المشاكل الاجتماعية والبيئية والمساعدة في معالجتها بطريقة تكفل المسؤولية الاجتماعية والبيئية المستدامة.
يتم اتباع العمليات والسياسات التي تحكم إدارة البيانات عند إعداد تصنيف وهيكلة البيانات التي ستغذي نظام الذكاء الاصطناعي، وينبغي أن تكون البيانات المتعلقة بالمواضيع الاجتماعية والبيئية متاحة للهياكل الأساسية للبيانات العامة ويجب أن تبين بوضوح المنفعة الاجتماعية للبيانات المعروضة.
تكون للنماذج والخوارزميات هدف نهائي ونتيجة اجتماعية أو بيئية، مع القدرة على إظهار ارتباط النتائج المتوقعة بذلك الغرض الاجتماعي أو البيئي من خلال فوائد تحويلية ومؤثرة، على سبيل المثال تحقيق مستويات مقبولة من استهلاك الموارد واستهلاك الطاقة والمحافظة عليها كما يمكن تحديد الأسلوب الذي ستسعى من خلاله أنظمة الذكاء الاصطناعي على معالجة المخاوف العالمية المتعلقة بالقضايا الاجتماعية والبيئية، وممارسة مسؤوليات مستدامة وبيئية.
بعد تشغيل نظام الذكاء الاصطناعي، يجب على الجهة المسؤولة عن نظام الذكاء الاصطناعي أن تضمن إجراء تقييم مستمر للأثر البشري والاجتماعي والثقافي والاقتصادي والبيئي لتقنيات الذكاء الاصطناعي. مع الإدراك الكامل لآثار نظام الذكاء الاصطناعي على الاستدامة كهدف يجب متابعته و تطويره باستمرار عبر مجموعة من الأهداف ذات الأولوية التي تم وضعها في مرحلة التخطيط والتصميم. مع الحرص على تعزيز وتشجيع قدرة حلول الذكاء الاصطناعي في معالجة المجالات ذات الاهتمام العالمي التي تتماشى مع أهداف التنمية المستدامة.
يضمن مبدأ الموثوقية والسلامة التزام نظام الذكاء الاصطناعي بالمواصفات المحددة وأن نظام الذكاء الاصطناعي يعمل بشكل كامل وفق الآلية التي كان يقصدها ويتوقعها مصمموه. تمثل الموثوقية مقياساً للثبات وتبعث الثقة بمدى قوة النظام كما تمثل مقياساً للاعتمادية التي يتوافق بها النظام من الناحية التشغيلية مع وظائفه المرجوة والنتائج التي يحققها، من ناحية أخرى تمثل السلامة مقياساً للكيفية التي لا يشكل بها نظام الذكاء الاصطناعي خطراً على المجتمع والأفراد. على سبيل التوضيح، يمكن لأنظمة الذكاء الاصطناعي مثل المركبات ذاتية القيادة أن تشكل خطراً على حياة الناس في حال عدم التعرف عليهم ككائنات حية أو في حالة عدم تدريب هذه المركبات على بعض السيناريوهات أو تعطل النظام. يجب أن يكون نظام العمل الموثوق آمناً من خلال عدم تعريض المجتمع للخطر ويجب أن تكون لديه آليات مدمجة لمنع الضرر.
لذا يرتبط إطار الحد من المخاطر ارتباطاً وثيقاً بهذا المبدأ، وينبغي تقليل المخاطر المحتملة والأضرار غير المقصودة إلى أدنى حد.
وتتم مراقبة النموذج التنبؤي ومراقبته بطريقة دورية ومستمرة للتحقق مما إذا كانت عملياته ووظائفه متوافقة مع الهيكل والأطر المصممة، كما يجب أن يكون نظام الذكاء الاصطناعي سليماً وقوياً ومتطوراً من الناحية الفنية لمنع الاستخدام التخريبي لاستغلال بياناته ونتائجه لإلحاق الضرر بالجهات أو الأفراد أو الجماعات، ومن الضروري اتباع نهج مستمر للتنفيذ والتطوير لضمان الموثوقية.
هناك حاجة كبيرة لتصميم وتطوير نظام ذكاء اصطناعي يمكنه تحمل عدم دقّة وعدم الاستقرار والتقلب التي قد يواجهها، ويعد وضع نظام ذكاء اصطناعي قوي وموثوق يعمل مع مجموعات مختلفة من المدخلات والمواقف أمراً ضرورياً لمنع الضرر غير المقصود والحد من المخاطر التي قد تعطل النظام عند مواجهة أحداث غير معروفة وغير متوقعة، كما أنه من الضروري وضع مجموعة من المعايير والبروتوكولات التي تقيم موثوقية نظام الذكاء الاصطناعي لضمان سلامة خوارزمية النظام ومخرجات البيانات. من الضروري الحفاظ على النفقات الفنية المستدامة ونتائج النظام للحفاظ على ثقة الجمهور بنظام الذكاء الاصطناعي. تعد معايير التوثيق ضرورية لتتبع تطور النظام وتوقع المخاطر المحتملة ومعالجة الثغرات. يجب أن تخضع جميع نقاط القرار المهمة في تصميم النظام لموافقة الجهات المعنية للحد من المخاطر وتحميل الجهات المعنية مسؤولية القرارات.
يتم اتخاذ الخطوات والإجراءات المناسبة لقياس جودة ودقة وملاءمة وموثوقية عينة البيانات عند التعامل مع مجموعات البيانات الخاصة بنموذج الذكاء الاصطناعي، ويعد ذلك ضرورياً لضمان دقة تفسير البيانات من قبل نظام الذكاء الاصطناعي واتساقها، وتجنب القياسات المضللة، فضلاً عن ضمان صلة نتائج نظام الذكاء الاصطناعي بالغرض من النموذج.
ومن الضروري وضع خطوة للتحقق من كيفية عمل النظام في ظل الأحداث الطارئة والسيناريوهات غير الطبيعية، وفي هذه الخطوة يجب إعداد بيانات اختبارات التحمل في السيناريوهات غير الطبيعية.
لتطوير نظام ذكاء اصطناعي سليم وظيفياً وآمن وموثوق في نفس الوقت، يجب أن يكون الهيكل الفني لنظام الذكاء الاصطناعي مصحوباً بمنهجية شاملة لاختبار جودة الأنظمة والنماذج التنبؤية القائمة على البيانات وفقاً لسياسات وبروتوكولات موحدة.
لضمان القوة الفنية لنظام الذكاء الاصطناعي، يجب اختباره والتحقق منه وإعادة تقييمه بشكل دقيق، بالإضافة إلى دمج آليات الإشراف والضوابط المناسبة في تطويره، وتلزم الموافقة على اختبار تكامل النظام من قبل الجهات المعنية ذات الصلة للحد من المخاطر والمسؤولية.
ويجب أن تعود أنظمة الذكاء الاصطناعي الآلية التي تتضمن سيناريوهات يفهم فيها أن القرارات لها تأثير لا رجعة فيه أو قد تنطوي على قرارات تتعلق بالحياة والموت، إلى العنصر البشري لاتخاذ هذه القرارات، علاوة على ذلك لا ينبغي استخدام أنظمة الذكاء الاصطناعي لأغراض التقييم الاجتماعي أو المراقبة الجماعية.
تتم مراقبة قوة نظام الذكاء الاصطناعي بطريقة دورية ومستمرة لقياس وتقييم أي مخاطر تتعلق بالجوانب الفنية لنظام الذكاء الاصطناعي (من منظور داخلي)، بالإضافة إلى قياس حجم المخاطر التي يشكلها النظام وقدراته (من منظور خارجي).
يعد مبدأ الشفافية والقابلية للتفسير عاملاً مهماً لبناء الثقة في أنظمة وتقنيات الذكاء الاصطناعي والحفاظ عليها، لذا يجب بناء أنظمة الذكاء الاصطناعي بدرجة عالية من الوضوح والقابلية للتفسير، مع وجود ميزات لتتبع مراحل اتخاذ القرارات المؤتمتة، ولا سيما تلك التي قد تؤدي إلى آثار ضارة تجاه أصحاب البيانات، وهذا يعني أن البيانات والخوارزميات والقدرات والعمليات والغرض من نظام الذكاء الاصطناعي تحتاج إلى أن تكون شفافة ومعممة وقابلة للتفسير للمتأثرين بشكل مباشر وغير مباشر، وتعتمد الدرجة التي يكون فيها النظام قابلاً للتتبع والتدقيق والشفافية والقابلية للتفسير على سياق نظام الذكاء الاصطناعي والغرض منه والنتائج التي قد تنتج عن هذه التقنية، ويجب أن تكون أنظمة الذكاء الاصطناعي ومصمموها قادرين على تبرير أسس تصميمها وممارساتها وعملياتها وخوارزمياتها وقراراتها أو سلوكياتها المسموح بها أخلاقياً وغير ضار للعامة.
عند تصميم نظام ذكاء اصطناعي شفاف وموثوق، من المهم التأكد من أن الجهات المعنية المتأثرة بأنظمة الذكاء الاصطناعي يجب أن تكون على دراية تامة بكيفية معالجة النتائج وتقديم التقرير بشأنها، كما يجب منحهم إمكانية الوصول إلى الأساس المنطقي للقرارات التي تتخذها تقنية الذكاء الاصطناعي لشرحه بطريقة مفهومة وسياقية، ويجب أن تكون القرارات قابلة للتتبع بشكل واضح. ينبغي على الجهات المسؤولة عن أنظمة الذكاء الاصطناعي تحديد مستوى الشفافية لمختلف الجهات المعنية بالتقنية استناداً إلى خصوصية البيانات وتصاريح الجهات المعنية، ويلزم تصميم نظام الذكاء الاصطناعي بحيث يتضمن قسماً للمعلومات في المنصة يتيح إلقاء نظرة عامة على قرارات نموذج الذكاء الاصطناعي كجزء من تطبيق الشفافية الشاملة للتقنية، ويجب الالتزام بمشاركة المعلومات كمبدأ فرعي مع المستخدمين النهائيين والجهات المعنية في نظام الذكاء الاصطناعي عند الطلب أو فتحها للجمهور، وذلك اعتماداً على طبيعة نظام الذكاء الاصطناعي والسوق المستهدف، ويجب أن يحدد النموذج آلية عمل لتسجيل ومعالجة المشاكل والشكاوى التي تنشأ لتتمكن من حلها بطريقة شفافة وقابلة للتفسير.
يتم توثيق مجموعات البيانات والعمليات التي تسفر عن قرار نظام الذكاء الاصطناعي وفقاً لأفضل المعايير الممكنة للسماح بإمكانية التتبع وزيادة مستوى الشفافية، ويجب تقييم مجموعات البيانات من حيث دقتها وملاءمتها وصحتها ومصدرها، وهذا له تأثير مباشر على تدريب وبناء هذه الأنظمة نظراً لأن طريقة تنظيم البيانات، والهيكلة يجب أن تكون شفافة وقابلة للتفسير عند الاستحواذ على البيانات وجمعها وأن تكون في امتثال تام لأنظمة خصوصية البيانات ومعايير وضوابط الملكية الفكرية.
يتم التفكير في الشفافية في الذكاء الاصطناعي من منظورين، الأول هو العملية الكامنة وراءها (ممارسات التصميم البناء التي تؤدي إلى نتيجة مدعومة خوارزمياً) والثاني من حيث منتجها (محتوى وتبرير النتيجة)، ويتم تطوير الخوارزميات بطريقة شفافة لضمان وضوح شفافية المدخلات وشرحها للمستخدمين النهائيين لنظام الذكاء الاصطناعي ليتمكنوا من تقديم الأدلة والمعلومات حول البيانات المستخدمة في معالجة القرارات التي تمت معالجتها. تضمن الخوارزميات التي تتسم بالشفافية والقابلية للتفسير أن الجهات المعنية المتأثرة بأنظمة الذكاء الاصطناعي، سواء الأفراد أو المجتمعات، على اطلاع تام عندما تتم معالجة النتيجة من قبل نظام الذكاء الاصطناعي من خلال إتاحة الفرصة لطلب معلومات توضيحية من مسؤول نظام الذكاء الاصطناعي. ويتيح ذلك تحديد قرار الذكاء الاصطناعي وتحليله، الأمر الذي يسهل إمكانية مراجعته بالإضافة إلى إمكانية تفسيره، وإذا تم بناء نظام الذكاء الاصطناعي من قبل طرف خارجي، فيجب على الجهات المسؤولة عن نظام الذكاء الاصطناعي التأكد من الاهتمام بتطبيق أخلاقيات الذكاء الاصطناعي وإمكانية الوصول إلى جميع الوثائق وتتبعها قبل الشراء أو الاعتماد.
عند تطبيق نظام الذكاء الاصطناعي، يجب توثيق مقاييس الأداء المتعلقة بمخرجات نظام الذكاء الاصطناعي ودقتها وتوافقها مع الأولويات والأهداف، فضلاً عن قياس أثرها على الأفراد والمجتمعات، وإتاحتها للجهات المعنية بتقنية الذكاء الاصطناعي. ينبغي تسجيل معلومات عن أي أعطال في النظام أو خرق للبيانات أو غير ذلك، وإبلاغ الجهات المعنية بها، مع الحفاظ على شفافية أداء نظام الذكاء الاصطناعي، ويلزم إجراء اختبار دوري لواجهة المستخدم وتجربة المستخدم لتجنب خطر التحيز أو صعوبة التعامل مع نظام الذكاء الاصطناعي.
يُحمّل مبدأ المساءلة والمسؤولية المصممين والموردين والقائمين على المشتريات والمطورين ومسؤولي ومقيمي أنظمة الذكاء الاصطناعي والتقنية نفسها المسؤولية الأخلاقية والمسؤولية عن القرارات والإجراءات التي قد تؤدي إلى مخاطر محتملة وآثار سلبية على الأفراد والمجتمعات، ويجب تطبيق الإشراف البشري والحوكمة والإدارة المناسبة عبر دورة حياة نظام الذكاء الاصطناعي بأكملها لضمان وجود آليات مناسبة لتجنب الضرر وإساءة استخدام هذه التقنية، وينبغي ألا تؤدي أنظمة الذكاء الاصطناعي إلى خداع الناس أو الإضرار بحرية اختيارهم دون مبرر، ويكون المصممون والمطورون والأشخاص الذين ينفذون نظام الذكاء الاصطناعي قابلين للتعرف عليهم وأن يتحملوا المسؤولية عن أي أضرار محتملة للتقنية على الأفراد أو المجتمعات، حتى لو كان التأثير السلبي غير مقصود. على الأطراف المسؤولة اتخاذ الإجراءات الوقائية اللازمة بالإضافة إلى وضع استراتيجية تقييم المخاطر والتخفيف منها للحد من الضرر الناجم عن نظام الذكاء الاصطناعي، ويرتبط مبدأ المساءلة والمسؤولية ارتباطاً وثيقاً بمبدأ العدالة، ويجب على الأطراف المسؤولة عن نظام الذكاء الاصطناعي ضمان الحفاظ على عدالة النظام واستدامتها من خلال آليات الرقابة، وعلى جميع الأطراف المشاركة في دورة حياة نظام الذكاء الاصطناعي مراعاة هذه القيم عند اتخاذهم للقرارات.
تعد هذه الخطوة بالغة الأهمية لتصميم أو شراء نظام ذكاء اصطناعي بطريقة مسؤولة وخاضعة للمساءلة، وينبغي إسناد المسؤولية والمسؤولية الأخلاقية عن نتائج نظام الذكاء الاصطناعي إلى الجهات المعنية المسؤولة عن إجراءات معينة في دورة حياة نظام الذكاء الاصطناعي، ومن الضروري وضع هيكل حوكمة قوي يحدد مجالات التفويض والمسؤولية لدى الجهات المعنية الداخلية والخارجية دون ترك أي ثغرات من عدم اليقين تحول دون تحقيق هذا المبدأ، ويجب أن يراعي النهج المتبع في تصميم نظام الذكاء الاصطناعي حقوق الإنسان والحريات الأساسية، بالإضافة إلى الأنظمة والقوانين الوطنية والقيم الثقافية للمملكة. من المهم أيضاً للجهات وضع أدوات إضافية مثل تقييمات الأثر، وأطر التخفيف من المخاطر، وآليات التدقيق والتقييم الشامل، والتصحيح، وخطط التعافي من الكوارث، ومن الضروري بناء وتصميم نظام ذكاء اصطناعي تتم فيه مراقبة القرارات المتعلقة بعمليات ووظائف التقنية وتنفيذها، وتكون خاضعة للتدخل من قبل المستخدمين المصرح لهم، وتحدد الحوكمة والإشراف البشري الرقابة اللازمة ومستويات الاستقلالية من خلال وضع آليات محددة.
جودة البيانات من الجوانب المهمة في مبدأ المساءلة والمسؤولية لأنها تؤثر على نتائج نموذج الذكاء الاصطناعي والقرارات ذات الصلة، لذلك من المهم إجراء اختبارات جودة البيانات وفرز البيانات وضمان سلامة البيانات للحصول على نتائج دقيقة للوصول إلى السلوك المقصود في النماذج الخاضعة للإشراف والنماذج غير الخاضعة للإشراف، وتلزم الموافقة على مجموعات البيانات واعتمادها قبل البدء في تطوير نموذج الذكاء الاصطناعي، بالإضافة إلى ذلك يجب تنظيف البيانات من التحيزات، كما يجب عدم إدراج السمات الحساسة في بيانات النموذج كما ذكر في مبدأ العدالة، وفي حال الحاجة إلى إدراج سمات حساسة، يجب توضيح الأساس المنطقي أو أهداف من قرار الإدراج بوضوح، ويتم توثيق عملية إعداد البيانات والتحقق من جودتها والتحقق من صحتها من قبل الأطراف المسؤولة، إذ يعد توثيق العملية ضرورياً للتدقيق والحد من المخاطر، ويجب الحصول على البيانات وتصنيفها ومعالجتها وإتاحتها بسهولة لتسهيل التدخل والسيطرة البشرية في مراحل لاحقة عند الحاجة.
يتكون تطوير نموذج نظام الذكاء الاصطناعي والخوارزمية من اختيار الخصائص وتهيئة مدخلات ضبط النموذج واختياره. ولتحقيق ذلك، يجب أن تكون الجهات المعنية الفنية التي تقوم ببناء النماذج والتحقق منها مسؤولة عن هذه القرارات. إن تحديد المسؤوليات المناسبة فيما يتعلق بالملكية والتواصل من شأنه أن يحدد وتيرة المساءلة التي من شأنها أن تساعد في توجيه تطوير نظام الذكاء الاصطناعي من حيث الأسباب والتداخل القوي والسماح بتدخل الاجتهادات الإنسانية، ويجب دعم القرارات بمؤشرات كمية (مقاييس الأداء على مجموعات بيانات التدريب / الاختبار، واتساق الأداء على المجموعات الحساسة المختلفة، ومقارنة الأداء لكل مجموعة مدخلات الضبط، وما إلى ذلك) ونوعية (القرارات اللازمة للتخفيف من المخاطر غير المقصودة الناتجة عن التنبؤات غير الدقيقة وتصحيحها)، وعلى الجهات المعنية والجهات المسؤولة عن تقنية الذكاء الاصطناعي مراجعة النموذج واعتماده بعد الاختبارات الناجحة وبعد جولات التحقق من قبول المستخدم قبل إمكانية إنتاج نماذج الذكاء الاصطناعي.
يتم تحديد المسؤولية والالتزامات المرتبطة بها في خطوة التطبيق والمتابعة بوضوح، ويجب مراقبة النتائج والقرارات المحددة في خطوة البناء والتحقق من صحتها بشكل مستمر، وينبغي أن تؤدي إلى إعداد تقارير أداء دورية، ويتم تحديد المحفزات والتنبيهات المحددة مسبقاً لهذه الخطوة على البيانات ومقاييس الأداء. يعد تحديد هذه المحفزات عملية صارمة ويجب إسناد كل محفز للجهة المعنية المناسبة. يمكن تحديد هذه المحفزات/ التنبيهات كجزء من إجراءات تخفيف المخاطر أو التعافي من الكوارث وقد تحتاج إلى إشراف بشري.
يحدد إطار أخلاقيات الذكاء الاصطناعي الأدوار والمسؤوليات التالية على المستوى الوطني ومستوى الجهات.
وللمكتب في تنفيذ اختصاصاته، القيام بالمهام التالية:
تتحمل جميع الجهات المشمولة بنطاق التطبيق المسؤولية الأساسية عن ضمان نشر وثائق أخلاقيات الذكاء الاصطناعي الخاصة بها وفقاً لمبادئ أخلاقيات الذكاء الاصطناعي هذه وبالتالي يجب على الجهات تعيين أشخاص يتولون مسؤولية تنفيذ الأنشطة المتعلقة بأخلاقيات الذكاء الاصطناعي على النحو المنصوص عليه أدناه.
1. رئيس الجهة / مسؤول إدارة البيانات: يكون رئيس الجهة أو من يعينهم مسؤولين عن ممارسات أخلاقيات الذكاء الاصطناعي داخل الجهة، في حين يكون مسؤول إدارة البيانات مسؤولاً عن ممارسات أخلاقيات الذكاء الاصطناعي داخل جهة عامة، وتشمل المسؤوليات ما يلي:
2. مسؤول الامتثال / الالتزام: يكون مسؤول الامتثال أو الالتزام هو القائد الاستراتيجي لممارسات أخلاقيات الذكاء الاصطناعي. وفي الجهات العامة، يقع مسؤول الالتزام تحت إشراف مسؤول إدارة البيانات ويتبعه بشكل مباشر. يتولى مسؤول الالتزام المسؤوليات بالتشاور مع المسؤولين المعنيين بإدارة البيانات وحوكمة البيانات وخصوصية البيانات والبيانات المفتوحة ووظائف التحليلات. تشمل مسؤوليات مسؤول الالتزام ما يلي:
3. مسؤول الذكاء الاصطناعي: هو القائد التشغيلي المسؤول عن الذكاء الاصطناعي في الجهة. يتم توزيع هذا الدور من قبل مسؤول إدارة البيانات في الجهات العامة. يجب أن يعمل موظف الذكاء الاصطناعي المسؤول بشكل تعاوني مع الموظفين الآخرين العاملين في إدارة البيانات، وحوكمة البيانات، وحماية البيانات الشخصية، والبيانات المفتوحة، والتحليلات. وتشمل المسؤوليات ما يلي:
4. مطور نظم الذكاء الاصطناعي - يتولى المسؤوليات التالية:
مهام الجهة المسؤولة عن نظام الذكاء الاصطناعي – تقوم بالمسؤوليات التالية:
الجهة المقيمة لنظام الذكاء الاصطناعي - تقوم بالمسؤوليات التالية:
- إصدار تقارير المراجعة والتدقيق بشأن تقييم أخلاقيات الذكاء الاصطناعي في الهيئة، والتي تشمل عملية تطوير الذكاء الاصطناعي وتنفيذه، وكذلك عمليات شراء منتجات الذكاء الاصطناعي الخاصة بالجهات الخارجية
لتشجيع العمل بمبادئ اخلاقيات الذكاء الاصطناعي سيعلن مكتب إدارة البيانات الوطنية عن تقديم وسوم تقديرية في أخلاقيات الذكاء الاصطناعي. تعطى الوسوم للتطبيقات ذات المخاطر البسيطة والمطورة داخل أو خارج المملكة. ستعلن الوسوم وتسلم إلكترونياً عن طريق موقع مكتب إدارة البيانات الوطنية حيث يمكن لمطوري التطبيقات التسجيل الاختياري للحصول على الوسوم حسب مستوى الالتزام. تعتمد الوسوم على مستوى الالتزام في القائمة المرجعية المذكورة في مرفقات هذه المبادئ.
هناك أربعة مستويات من وسوم أخلاقيات الذكاء الاصطناعي (برونزي، فضي، ذهبي، بلاتيني). على الجهة التي ترغب في الحصول على الوسوم لمنتجاتها التسجيل أو تحديث التسجيل في الموقع أو البيئة التجريبية وعرض قدرات المنتج أو التطبيق العملية وتزويد المكتب بالمستندات التي تظهر مستوى الالتزام بمبادئ أخلاقيات الذكاء الاصطناعي حسب القائمة المرجعية. يحصل التطبيق أو المنتج على الوسم البرونزي في حال تسجيل المنتج أو التطبيق في الموقع وتزويد مكتب إدارة البيانات الوطنية بمعلومات المنتج الأساسية في القائمة المرجعية. يحصل المنتج على الوسم الفضي أو الذهبي أو البلاتيني وفقاً لمستوى الالتزام التي سيعلن عنها في الموقع.
ندعو الجهات العامة والخاصة على الاطلاع على القائمة المرجعية المذكورة في المبادئ والتسجيل في موقع مكتب إدارة البيانات الوطنية والبيئة التجريبية لدعمهم في تقييم الالتزام بتطبيق أخلاقيات الذكاء الاصطناعي الخاصة بهم وتقديم التقارير الاختيارية والحصول على الوسوم المميزة التي تثبت اهتمام المنتج بتطبيق معايير أخلاقيات الذكاء الاصطناعي. تحتوي التقارير المقترحة في القائمة المرجعية على:
يمكن لمكتب إدارة البيانات الوطنية مساعدة الجهات في مراجعة التقارير السنوية ورفع التوصيات إلى مجلس إدارة الهيئة السعودية للبيانات والذكاء الاصطناعي بشأن الامتثال العام بأخلاقيات الذكاء الاصطناعي، كما يمكن للمكتب بناء على طلب الجهة المساعدة تسوية النزاعات المتعلقة بنشر تقرير أخلاقيات الذكاء الاصطناعي.
الأدوات غير التقنيةإدارة المخاطر: تعني إدارة مخاطر الذكاء الاصطناعي تقدير ومعالجة المخاطر الناتجة عن تطوير أو استخدام أنظمة الذكاء الاصطناعي، ويحدد التقييم المستويات القصوى للتعرض للمخاطر ويطلق عمليات وإجراءات التخفيف للحد من المخاطر الناشئة، ويمكن لإطار المخاطر المؤلف من أربعة مستويات التعرف على تباين مستويات المخاطر الناجمة عن أنظمة الذكاء الاصطناعي على صحة الفرد وسلامته و/أو حقوقه الأساسية، كما أنه يحدد المتطلبات والالتزامات المتناسبة مع كل مستوى من مستويات المخاطر الماثلة، وبالإضافة إلى ذلك تستخدم إدارة المخاطر لتصنيف فئات ومستويات المخاطر المرتبطة بتطوير و/أو استخدام تقنيات الذكاء الاصطناعي، وتصنف مستويات المخاطر هذه الى مخاطر بسيطة أو بلا مخاطر، ومخاطر محدودة، ومخاطر عالية، ومخاطر غير مقبولة، ولن يكون هناك أي قيود على أنظمة الذكاء الاصطناعي التي تشكل "مخاطر بسيطة أو لا تنطوي على أي مخاطر" -مثل مرشحات البريد العشوائي غير المرغوب فيها- ولكن سيتم تشجيع مزودي أنظمة الذكاء الاصطناعي على الالتزام بقواعد السلوك الطوعية. كما أنه سيسمح لأنظمة الذكاء الاصطناعي التي تشكل "مخاطر بسيطة أو لا تنطوي على أي مخاطر" -مثل مرشحات البريد العشوائي غير المرغوب فيها- بدون وضع أي قيود، ولكن سيتم تشجيع موردي أنظمة الذكاء الاصطناعي على الالتزام بالأخلاقيات. يجب أن تخضع أنظمة الذكاء الاصطناعي التي تشكل "مخاطر محدودة" -مثل روبوتات الدردشة- لالتزامات الشفافية (مثل: الوثائق التقنية المتعلقة بالوظيفة والتطوير والأداء) ويمكن أن تختار بالمثل الالتزام بالأخلاقيات. وتخدم التزامات الشفافية -من بين العديد من العوامل الأخرى- في السماح للجهات المسؤولة عن أنظمة الذكاء الاصطناعي باتخاذ قرارات حول سبل دمج برمجيات الذكاء الاصطناعي في منتجاتهم و/أو خدماتهم، ويتعين على أنظمة الذكاء الاصطناعي التي تشكل "مخاطر عالية" على الحقوق الأساسية الخضوع لإجراء تقييمات ما قبل المطابقة وبعدها، ولا يُسمح بأنظمة الذكاء الاصطناعي التي تشكل "خطراً غير مقبول" على سلامة الناس وسبل عيشهم وحقوقهم كتلك المتعلقة بالتسجيل الاجتماعي أو استغلال الأطفال أو تشويه السلوك البشري الذي يحتمل أن تحدث فيه أضرار جسدية أو نفسية. هذا، وينبغي أن تكون إدارة المخاطر مرتبطة ارتباطاً مباشراً بمبادرات الذكاء الاصطناعي، بحيث تكون الرقابة متزامنة مع عمليات التطوير الداخلي لتقنيات الذكاء الاصطناعي، وتؤثر إدارة مخاطر أنظمة الذكاء الاصطناعي على مجموعة واسعة من أنواع المخاطر بما في ذلك البيانات والخوارزمية والالتزام والمخاطر التشغيلية والقانونية وتلك المتعلقة بالسمعة والمخاطر التنظيمية، ويتم بناء المكونات الفرعية لإدارة المخاطر، مثل قابلية النموذج للتفسير، والكشف عن التحيز، ومراقبة الأداء، بحيث تكون المراقبة ثابتة ومتسقة مع أنشطة تطوير الذكاء الاصطناعي. يتم تضمين المعايير والاختبارات والضوابط في هذا النهج في مراحل مختلفة من مراحل عمل نظام الذكاء الاصطناعي، بدءاً من مرحلة التصميم وصولاً إلى التطوير وبعد النشر والتنفيذ الفعلي.تقرير عدالة الذكاء الاصطناعي: يسمح تقرير العدالة والإنصاف للجهة المسؤولة عن تقنية الذكاء الاصطناعي بتحديد معايير العدالة المستخدمة في نظام الذكاء الاصطناعي بشكل واضح وكذلك توضيح الأساس المنطقي والمبرر وراء ذلك بلغة مباشرة وسهلة الفهم وغير تقنية، ولتنفيذ نظام ذكاء اصطناعي يتسم بالنزاهة والإنصاف على نحو مستدام، فإن اختيار أهداف النزاهة المواتية يعد أمراً أساسياً لتحديد أسلوب نموذج الذكاء الاصطناعي من حيث معاييره الأخلاقية ومتطلباته التنظيمية، ويتم ذلك من خلال مشاركة الأسباب والقيم الأساسية للإنصاف الواردة في النموذج بالإضافة إلى عملية صنع القرار في نموذج الذكاء الاصطناعي للتواصل مع الجمهور الأوسع نطاقاً والوصول إليه، ويكون هذا التقرير متاحاً ويمكن الوصول إليه من قبل كل من الجمهور والأفراد والأوساط المتأثرة على حد سواء. تقييم الأثر الأخلاقي: سرّعت أنظمة الذكاء الاصطناعي الابتكار في سبل إجراء الأعمال وتنفيذها من قبل الممارسين، وبالتالي فإنه أصبح من الضروري تطوير تقييمات الأثر الأخلاقي لنظام الذكاء الاصطناعي لتحديد المجالات التي تحتاج إلى تعديل وإعادة المعايرة لتصميم نموذج الذكاء الاصطناعي في تقنية مقبولة أخلاقياً لتعظيم تأثيرها الإيجابي على تعزيز القدرات والمهارات البشرية، ويكمن الهدف من تقييمات الأثر في تقييم وتحليل مستوى التأثير الأخلاقي لتقنية الذكاء الاصطناعي على كل من الأفراد أو المجتمعات في السلوكيات المباشرة وغير المباشرة على حد سواء، مما يساهم بدوره في تمكين الجهة المالكة لنظام الذكاء الاصطناعي من القدرة على معالجة المشكلات المحددة وتعزيز المجالات التي تستلزم إدخال تحسينات وتعديلات، كما أنه من الضروري أيضاً القدرة على تقييم المخاطر الأخلاقية التي يتعرض لها نظام الذكاء الاصطناعي، وتحليل أثر الضرر التمييزي، والتمثيل الدقيق للأثر الأخلاقي للنظام من خلال تحليل متنوع للمتأثرين بالنظام، فضلاً عن العمل لتحديد ما إذا كان النموذج يجب أن ينتقل إلى الإنتاج أو النشر والتنفيذ الفعلي، ويتمثل أحد أهداف تقييم الأثر الأخلاقي في المساعدة على بناء ثقة الجمهور في نظام الذكاء الاصطناعي وإظهار الاهتمام والاجتهاد تجاه الجمهور العام. معايير الخصوصية والأمان: يساعد معيار الخصوصية والأمان الشركات على تحسين استراتيجيتها لأمن المعلومات من خلال توفير التوجيهات وأفضل الممارسات بناءً على مجال الشركة ونوعية البيانات التي تحتفظ بها، يتضمن الجدول التالي بعض الأمثلة لمعايير الأمان والخصوصية:
المرحلة الأولى لدورة عمل نظام الذكاء الاصطناعي: التخطيط والتصميم
المرحلة الثانية لدورة عمل نظام الذكاء الاصطناعي: تهيئة البيانات
المرحلة الثالثة لدورة عمل نظام الذكاء الاصطناعي: البناء وقياس الأداء
المرحلة الرابعة لدورة عمل نظام الذكاء الاصطناعي: التطبيق والمتابعة
آخر تحديث : 15 أغسطس 2022
يمكنك تصفح البوابة عن طريق إعطاء أوامر صوتية بإستخدام المايكروفون
تحدث الان...
برجاء اعطاء الاوامر الصوتية من الخيارات التالية:
إخلاء المسؤولية : الترجمة إلى لغات أخرى يعتمد على ترجمة جوجل (Google)، وبالتالي فإن المركز الوطني للتنافسية غير مسؤول عن دقة المعلومات في اللغة الجديدة.