اخر الاخبار

حوكمة الذكاء.. خيرٌ لا بدّ منه – أخبار السعودية


لم يعد الذكاء الصناعي شأناً تقنياً بحتاً، ولا حتى مجرّد تطوّر في أدوات العمل والإدارة. بل تحوّل تدريجياً إلى فاعل مؤثر في صناعة القرار العام، ومكوّن خفي في بنية السياسات والاقتصاد والتواصل.

ومع تزايد اعتماده في قطاعات حيوية، من المنظومة العدلية إلى التعليم، ومن الأمن إلى الإعلام، ظهرت الحاجة المُلحّة لإعادة ضبط العلاقة بين الإنسان والخوارزمية، ليس من زاوية الكفاءة فحسب، بل من باب السيادة والمساءلة والعدالة. وهنا تبرز ضرورة حوكمة الذكاء الصناعي لا كخيار تنظيمي، بل كأولوية وطنية وإستراتيجية.

ومن اللافت أن المملكة وهي في طليعة الدول المتبنية لرؤية مستقبلية طموحة بدأت تُظهر مؤخراً تحفّظاً إستراتيجياً متنامياً تجاه بعض الاستخدامات السلبية للذكاء الصناعي، خاصة تلك التي قد تُوظف في تضليل الرأي العام أو في التأثير غير المشروع على السلوك الجمعي. وقد برز هذا التيقّظ في عدد من التصريحات الرسمية، والمواقف الإجرائية، وتعليق بعض أشكال التعاون التقني مع أنظمة لم تخضع بعد لضوابط الحوكمة القانونية أو الأخلاقية.

وإذا كنا نعيش في عالم باتت فيه التقنية أسرع من التنظيم، فإن السكوت عن هذه الأدوات الذكية دون حوكمة صارمة، هو في حد ذاته مخاطرة تتجاوز الأفراد لتصل إلى بنية القرار العام. فالسؤال لم يعد: هل يجب أن نُنظّم الذكاء الصناعي؟ بل: هل يمكننا تحمّل تبعات تركه دون تنظيم؟

اقراء ايضا  ‏الأسهم الأمريكية تغلق عند مستوى قياسي وتحقق مكاسب للأسبوع السادس

إن أكبر ما يثير القلق اليوم، ليس تفوق الآلة على الإنسان في أداء المهام، بل تسللها إلى فضاءات اتخاذ القرار دون شفافية، وغياب المساءلة عند الخطأ. من يُحاسب حين ترفض خوارزمية توظيف مواطن مؤهل؟ أو عندما يتعرّض محتوى إعلامي للتضليل عبر توليد صور مزيّفة؟ ومن يتحمّل المسؤولية إن تسبّب النظام الذكي في انحياز مالي أو ضرر يصعب إصلاحه؟

المسألة هنا ليست تقنية، بل قانونية في جوهرها. ولهذا بات من الضروري أن نُعيد تعريف علاقتنا بهذه الأنظمة لا باعتبارها «أدوات دعم»، بل ككيانات مؤثرة يجب أن تُحاط بإطار مؤسسي واضح.

وهنا تبرز حوكمة الذكاء الصناعي باعتبارها المفهوم الأهم والأكثر حساسية في هذه المرحلة.

ويمكن تعريف حوكمة الذكاء الصناعي بأنها: «مجموعة من السياسات، والضوابط، والمعايير القانونية والأخلاقية، التي تُنظّم كيفية تطوير أنظمة الذكاء الصناعي وتشغيلها ومراقبتها، بما يضمن خضوعها للمساءلة، وشفافية عملها، وعدالة نتائجها، وقابليتها للتفسير والتعديل، وذلك ضمن بيئة تنظيمية تحفظ حقوق الأفراد، وتحمي المصلحة العامة، وتُرسّخ سيادة الدولة على القرار التقني».

وبهذا المعنى، فإن الحوكمة لا تُعارض الابتكار، بل تُوفّر له البوصلة التي تمنعه من الانزلاق خارج نطاق الصالح العام.

وفي هذا السياق، يصبح من الضروري أن تُبادر الدولة بإطلاق إطار وطني متكامل لحوكمة الذكاء الصناعي، لا باعتباره تنظيماً إدارياً، بل كخط دفاع قانوني وأخلاقي يحمي القرار، والمجتمع، والسيادة. ويشمل هذا الإطار أدوات واضحة لتقييم الأثر، وآليات لمراقبة الانحراف، وصلاحيات للتعليق الفوري أو الإيقاف المؤقت لأي نظام ثبت تحيّزه أو خطورته.

كما ينبغي ربط أي مشروع يعتمد الذكاء الصناعي بمسؤولية تعاقدية دقيقة في عقوده. فلا يُسمح باستخدام هذه الأنظمة في القطاعين العام والخاص، دون تضمين بنود تلزم بالشفافية، وتُقر بإمكانية الخطأ، وتُحدد من يتحمل تبعاته.

اقراء ايضا  إيقاف مواطن استولى على عقارات و 69 مليونا

إن المملكة بما تمتلكه من مؤسسات قوية، ورؤية تنظيمية ناضجة قادرة على أن تقود هذا المجال لا أن تُركن لمتابعته. وما نحتاجه ليس فقط معرفة الخطر، بل ترجمته إلى تعليمات تنفيذية، وتشريعات ملزمة، وثقافة إدارية تعي الفرق بين التبني والتفريط.

وفي هذا الإطار، يمكن طرح مجموعة من التوصيات العملية القابلة للتنفيذ:

• أولاً: إنشاء وحدة مستقلة لحوكمة الذكاء الصناعي ضمن الأجهزة الرقابية في الدولة، تكون وظيفتها مراجعة واعتماد أي نظام ذكاء صناعي قبل إطلاقه داخل الجهات الحكومية أو شبه الحكومية.

• ثانياً: إلزام الشركات والمطورين برفع تقارير تقييم الأثر (AI Impact Reports) قبل تسويق أي نموذج ذكي، على أن تكون هذه التقارير جزءاً من وثائق الترخيص النظامي.

• ثالثاً: إصدار لائحة تنفيذية تُنظّم العلاقة التعاقدية بين المستخدم ومقدّم خدمة الذكاء الصناعي، وتُفصّل فيها المسؤولية، والتعويض، وحالات الخطأ غير البشري.

• رابعاً: دعم تأسيس مركز وطني للأخلاقيات التقنية، يُسهم في صياغة المبادئ المُلزِمة ويُصدر قوائم اعتماد للأنظمة التي تفي بالمعايير القانونية والأخلاقية.

إن بناء منظومة وطنية لحوكمة الذكاء الصناعي، لا يقف عند حدود التنظيم الداخلي، بل يمتد ليُسهم في صياغة ثقافة عربية أصيلة في التعامل مع التقنية.

ويمكن للجهات السعودية الرائدة -كالهيئة السعودية للبيانات والذكاء الاصطناعي (سدايا)، والهيئة الوطنية للأمن السيبراني، والجهات الأكاديمية مثل كاوست ومعهد الملك عبدالله للذكاء الاصطناعي- أن تتكامل فيما بينها لإنتاج إطار سعودي يُحتذى به في المنطقة، ويُسهم في نقل الخبرة، وضبط الاستخدامات، وتدريب النشء على الذكاء المؤطَّر بالقانون والأخلاق.

فالمملكة، بما تمتلكه من بُنية تشريعية ناهضة، ورؤية رقمية واعية، مؤهّلة ليس فقط لمواكبة التحول، بل لقيادة تشكيله في البيئات التي تشترك معنا في اللغة والواقع والمستقبل.

اقراء ايضا  وزير الخارجية يبحث تطورات الأوضاع في سوريا مع نظيره التركي

فالحضارة لا تُقاس بمن يمتلك أسرع خوارزمية.. بل بمن يُحسن توجيهها.

والمجتمعات التي تتبنّى الذكاء الصناعي دون حوكمة دقيقة، تُخاطر بأن تضع أدوات القرار في يد التقنية قبل أن تُحكمها بالسياسة والقانون.

أخبار ذات صلة

 




حوكمة الذكاء.. خيرٌ لا بدّ منه – أخبار السعودية المصدر:

زر الذهاب إلى الأعلى
إنضم لقناتنا على تيليجرام