مع تزايد انتشار الذكاء الاصطناعي (AI) عالميًا، بدأت الدول تتبنى تنظيمات لتقييد استخدام هذه التقنية الجديدة، كما هو الحال مع قانون الذكاء الاصطناعي في الاتحاد الأوروبي. في المقابل، اتخذت حكومات الخليج نهجًا أكثر ودية للأعمال التجارية فيما يتعلق بتنظيم الذكاء الاصطناعي، مما يثير القلق بشأن الانتهاكات المحتملة لحقوق الخصوصية لمواطنيها. والجدير ذكره أن المملكة العربية السعودية سعت إلى إنشاء بيئة جذابة لشركات البيانات والذكاء الاصطناعي وتجنبت حتى الآن تنفيذ قواعد تنظيمية ملزمة.
استثمرت السعودية بكثافة في الذكاء الاصطناعي كجزء من مبادرة رؤية 2030، كما تخطط لدمج تقنيات الذكاء الاصطناعي المختلفة في مشروع بناء المدينة المستقبلية “نيوم”. تثير هذه النوايا مخاوف كبيرة بشأن انتهاكات حقوق الإنسان المحتملة من قبل الحكومة السعودية باستخدام الذكاء الاصطناعي مثل ChatGPT، وهو نموذج لغة الذكاء الاصطناعي الذي يتصدر عناوين الصحف الدولية. ولا تقتصر هذه المخاوف على الذكاء الاصطناعي ولكنها تمتد إلى استخدام مجموعة أوسع من التقنيات الرقمية. وتشمل الحالات الأخيرة التي تورطت فيها المملكة استخدام التكنولوجيا الرقمية للتجسس على المعارضين وأسرهم في الخارج، بالإضافة إلى محاولات اختراق تويتر لتحديد معارضي الحكومة باستخدام حسابات مجهولة. وبالتالي فإن الذكاء الاصطناعي يمثل فرصة إضافية للحكومة السعودية لانتهاك أبسط حقوق الأفراد الخصوصية والأساسية من خلال المراقبة والتلاعب، مما يزيد من تفاقم الظلم القائم.
تكون المخاوف أقل حدة إذا قامت الحكومة السعودية بفرض قواعد صارمة لتنظيم الذكاء الاصطناعي. ومع ذلك، أصدرت المملكة إرشادات لاستخدام الذكاء الاصطناعي من دون فرض أي لوائح ملزمة قانونيًا. ويعني هذا الغياب للتنظيم الصارم أن الحكومة السعودية قد تنتهك قوانين ومعايير حقوق الإنسان الدولية المتعلقة بالخصوصية دون خرق قوانينها الخاصة. ونظرًا لميول السعودية بتجاهل الحق الدولي في الخصوصية باستخدام التكنولوجيا الرقمية الحالية، فإن هذه الحالة تشكل مخاطر كبيرة على مستقبل سكان المملكة وأي شخص يزور المدينة المستقبلية “نيوم”.
ولمعالجة هذه المخاوف، من الضروري أن يتخذ المجتمع الدولي إجراءات فعالة. ينبغي على الحكومات والمنظمات الدولية ممارسة الضغط على السعودية لتنفيذ لوائح شاملة وملزمة للذكاء الاصطناعي. وينبغي أن تكفل هذه اللوائح حماية حقوق الإنسان والخصوصية والالتزام بالمعايير الدولية. بالإضافة إلى ذلك، ينبغي أن تتعاون الدول على إنشاء إطار عالمي لحوكمة الذكاء الاصطناعي الذي يعزز الاستخدام الأخلاقي ويمنع الانتهاكات.
علاوة على ذلك، ينبغي تشجيع الشركات متعددة الجنسيات ومطوري الذكاء الاصطناعي على تبني المبادئ الأخلاقية ورفض المشاركة في المشاريع التي قد تؤدي إلى انتهاكات حقوق الإنسان. من خلال تعزيز ثقافة المساءلة والمسؤولية الأخلاقية، يمكن للمجتمع الدولي التخفيف من المخاطر المرتبطة بسوء استخدام تقنيات الذكاء الاصطناعي.