اعتمد مجلس الوزراء الإماراتي، منتصف نيسان/أبريل الجاري، قراراً بإطلاق أول منظومة تشريعيّةٍ ذكيّة متكاملة لتطوير التشريعات والقوانين في حكومة الإمارات قائمة على فكر وحلول الذكاء الاصطناعي. تبدو الفكرة مبهرة للوهلة الأولى، ولكنّها تنذر بمشكلة تتعدّى مجرّد حلول الآلة مكان الإنسان في التشريع.
بحسب نائب رئيس الدولة رئيس مجلس الوزراء، حاكم دبي، محمد بن راشد آل مكتوم، أقرّ مجلس الوزراء قرار إنشاء “مكتب للذكاء التشريعي” ضمن مجلس الوزراء، وظيفته تطوير خارطة تشريعية متكاملة لكافة التشريعات الاتحادية والمحلية في الدولة، وربطها عبر الذكاء الاصطناعي بكافة الأحكام القضائية والإجراءات التنفيذية والخدمات المقدمة للجمهور.
“وستتيح المنظومة الجديدة رصد أثر التشريعات الجديدة على الجمهور وعلى الاقتصاد بشكل يومي عبر التكامل مع البيانات الضخمة، واقتراح التعديلات التشريعية بشكل مستمر، وستكون المنظومة الجديدة مرتبطة بمراكز أبحاث وتطوير عالمية لمتابعة أفضل السياسات والتشريعات العالمية وكيف يمكن الاستفادة منها في دولة الإمارات”، بحسب البيان.
غياب الأهلية وتحيّزات قد تنعكس في القوانين
لا شكّ في أنّ الذكاء الاصطناعي التوليدي أثبت قدرة على إنتاج المحتوى، إلا أنّه ما زال غير قادرٍ على محاكاة المنتج الإنساني، خاصة في حقول حساسّة مثل القانون والتشريع.
تهدف القوانين بشكلٍ عام إلى تنظيم الحياة المدنيّة والسياسيّة والاقتصاديّة للأفراد والكيانات، كمان أنّها تحدّد الواجبات والحقوق وتحميها. ولحماية حقوق الإنسان، لا بدّ من السير بنهجٍ يفهم القيم الإنسانيّة ويضمن تماهي التشريعات معها، وليس العكس، وهو أمرٌ قد يعجز الذكاء الاصطناعي عن القيام به. لماذا؟
يعتمد الذكاء الاصطناعي على قاعدة بيانات ضخمة جُمعت على مدى عشرات السنوات لتمثّل وقوده وتمكّنه من الاستمرارية والتطوّر. فلا يبدو منطقياً أصلاً تسليم مهمّة وضع القوانين، التي يجب أن تكون انعكاساً لإرادة الشعوب والإنسانيّة المرنة، لكيانٍ لا يملك وعياً أخلاقياً أو إدراكاً حقيقياً لمعانٍ معيّنة مثل الرحمة والعدالة الاجتماعية.
من جهة أخرى، سبق وأُثبت بما فيه الكفاية انطواء الذكاء الاصطناعي على تحيّزاتٍ كثيرة، لا سيما ضدّ الفئات الأكثر حاجة لحماية قانونيّة مثل اللاجئين/ات، والنساء، والمهاجرين/ات. فكيف يؤتمن على وضع المنظومة التشريعيّة الكاملة لدولة؟ قد يُطرح سؤالٌ هنا يشكّك بخطورة تبنّي تشريعاتٍ أنشئت بواسطة تقنيات الذكاء الاصطناعي كونها ستخضع بالتأكيد لمراجعة مختصّين بالقانون قبل بدء العمل بها. يقابله سؤالٌ آخر يطرح نفسه، لا جواب: لماذا محاولة تجريد القانون من أصالته التي يستمدّها من اجتهاد المتخصّصين/ات وعلمهم/ن ومنحها لآلة طالما لا غنى عن المساهمة البشريّة؟ هذا إن سلّمنا جدلاً أن المساهمة البشرية ستكون عادلة لا خاضعة لتوجّه السلطات ذات التاريخ الحافل بانتهاكات حقوق الإنسان.
تقول الباحثة والأكاديمية في أخلاقيات الذكاء الاصطناعي، نور نعيم، إنّ “إطلاق المنظومة التشريعية الذكية في الإمارات يشكّل منعطفاً مقلقاً يتجاوز مجرد تحديثٍ وتفرّد تقني ليصل إلى قلب الممارسة التشريعية ذاتها. فبينما تدعي أنظمة الذكاء الاصطناعي الحياد والكفاءة، فإنها في الواقع تنطوي على مخاطر جسيمة تتمثل في تكريس تحيزات خفية وتعميق أشكال التمييز القائمة”.
“تكمن المشكلة الجوهرية في أن هذه الأنظمة التعلّمية تتغذى على بيانات تاريخية مشبعة بالتحيزات المجتمعيّة، لتعيد إنتاجها وتضخيمها في حلقة مفرغة. فكل قرار تتّخذه، بدءاً من منح التأشيرات إلى الفصل في القضايا، يصبح جزءاً من قاعدة البيانات التي تتعلّم منها الآلة، مما يؤدّي إلى تفاقم التحيزات بشكل تراكمي يصعب كشفه أو إصلاحه”، تضيف نعيم.
من ضمن المهام التي ستوكل إلى “الذكاء التشريعي الجديد قياس أثر التشريعات “آنياً”، أي أنّ الاعتماد عليه يتعدّى مرحلة وضع القوانين نفسها، وسيعمل على تقييمها وأثرها أيضاً، وهنا تُطرح الإشكاليّة نفسها مجدداً: هل ستتمكّن آلة لا تؤمن بأيّ قيمٍ، ولا تلتزم ببوصلة أخلاقيّة، ولا نوايا، ولا حساسية تجاه خصوصيّات محدّدة، من تقييم الأثر والعمل على معالجة الثغرات؟
تعلّق نعيم على ذلك قائلة إنّ “الأمر الأكثر إثارة للقلق هو غياب الضمانات التشريعية الكافية لمراقبة أنظمة الذكاء الاصطناعي المدمجة. فبدون إطار قانوني صارم يفرض الشفافية في آلية اتخاذ القرارات، ويؤسس لرقابة مستقلة، ويضمن حق الاستئناف البشري، تتحول هذه التقنيات من أدوات مساعدة إلى أنظمة طغيان خوارزمي قادرة على إنتاج تمييز منهجي ضد غير المواطنين والفئات المهمشة”.
لا يكمن التحدّي الحقيقي في تبنّي التكنولوجيا فحسب، بل في القدرة على وضع ضوابط أخلاقية وقانونية تسبق تطبيقها أو حتى نصها. فالتشريعات الحالية غير كافية لمواكبة السرعة الأساسية لتطور هذه الأنظمة معمقاً للفجوة بين التشريعات والتطبيق، مما يستدعي إطاراً تشريعياً ديناميكياً قابلاً للتحديث المستمر، يحمي الحقوق الأساسية في عصر تحكمه الخوارزميات. غياب مثل هذا الإطار الرقابي اليوم سينتج غداً نظاماً طبقياً جديداً قائماً على تمييز آلي قد يصعب تفكيكه بشكل جدي، وفقاً لنعيم.
تبعيّة تكنولوجيّة وتهديد لسيادة البلاد
عندما تعتمد دولة على أنظمة ذكاء اصطناعي ليست مطوّرة محلياً بل من قبل شركات تكنولوجية عابرة للحدود، لوضع قوانينها، وقد يكون هذا حال الإمارات التي لم تكشف بوضوحٍ وشفافية عن تفاصيل الخطوة، فإنّها تتخلّى عن جزءٍ من سيادتها التشريعيّة لصالح كيانات أو شركات أجنبيّة لا تخضع لرقابة الدولة نفسها. وقد تكون هذه الأنظمة مغلقة المصدر ولا يمكن للدول المضيفة التدقيق في آليات عملها وتعديلها، ويعني ذلك أن الدولة تعتمد أداةً تمسّ جميع جوانب الحياة العامة ولكنّها لا تستطيع التحكّم بها.
“سوف نشهد تزاوجاً بين شركات تكنولوجيا ونظامٍ قمعيّ على خلفيّة هذا القرار، ستتسبّب نتائجه بإضعاف وجودنا وجعلنا أكثر خضوعاً لهذه الأنظمة”، وفقاً للمدير التنفيذي لمنظمة “سمكس”، محمد نجم.
ويضيف نجم أنّ “الدول الثرية في منطقتنا تستثمر بشكلٍ هائل في الذكاء الاصطناعي، في محاولة للسيطرة على هذا الفضاء الذي لن يؤثّر على بالإنترنت فحسب، بل على كافة جوانب حياتنا مثل الصحة وسب إنتاج المعرفة وتخزينها وغير ذلك. ولن يكون دور الذكاء الاصطناعي محصوراً بالإنتاج، بل سيؤثّر على الماضي وإعادة كتابة التاريخ بما يتماشى مع توجّهات وأهواء هذه الأنظمة”.
ينتج عن ذلك نوعٌ من التبعيّة التكنولوجيّة المغلّفة بقشرة الحداثة والتقدّم، وذلك بسبب العلاقة غير المتكافئة بين الدولة والكيان الغريب (دولة أو شركة) المالك أو المطوّر لتقنيات الذكاء الاصطناعي قيد الاستعمال، لتقف أمام شكلٍ جديد من الاستعمار الرقمي الذي يُقفد الدولة سيطرتها على واحدٍ من أهمّ أعمدتها، ألا وهو التشريع.
بالإضافة إلى ذلك، ولكي يعمل الذكاء الاصطناعي على صياغة قوانين، يجب تغذيته بكميات ضخمة من البيانات القانونية، والاجتماعية، والاقتصادية، والسكانية، والأمنيّة. ومن ضمن هذه المعلومات إحصاءات السكان والديموغرافيا، ومعلومات اقتصادية واجتماعية مفصّلة، وتفاصيل متعلّقة بالفئات المهمّشة مثل اللاجئين والمهاجرين وغيرهم/ن، بالإضافة إلى بياناتٍ قضائيّة وأمنية منها ما هو سرّيّ ولا يجب أن يخرج إلى العلن. فإن استخدمت الدولة نماذج ذكاء اصطناعيّ أجنبيّة، سوف تخزّن الشركات الأجنبية كلّ هذه البيانات في خوادمها، وستتمكّن من الاطلاع عليها متى شاءت، واستخدامها بالشكل الذي يخدم مصالحها. وقد تُستخدم هذه البيانات لممارسة ضغوطاتٍ سياسية على الدولة، أو لإجبارها على الاستمرار في استخدام خدمات الشركة بكلّ بساطة.
من جهة أخرى، قد تُستغلّ هذه البيانات، وهي شديدة الحساسيّة، إن كان عن طريق بيعها لدول أخرى، أو لشركاتٍ ضخمة تبغي الربح، وغيرها من الأهداف الاقتصاديّة التي ستنتهك خصوصيّة وسلامة بيانات شعبٍ ودولة بكاملها.
وأخيراً، قد يتسبّب هذا النهج بزيادة الهجمات السيبرانيّة الخطرة على أنواعها، فمن المعلوم أنّ وجود البيانات في قواعد وخوادم غريبة وغير محلّية يعرّضها إلى خطر الاختراق، وقد تكون عرضة للاستهداف من قبل دول أو مجموعات قرصنة منظّمة. وهذا إن سلّمنا جدلاً أنّ أنظمة الذكاء الاصطناعي نفسها آمنة ولا تعاني من شوائب في خوارزميّات المعالجة، أو ضعفاً في بروتوكولات التشفير، أو ثغراتٍ في واجهات البرمجة (API)، وهي مجموعة من القواعد أو البروتوكولات التي تمكّن تطبيقات البرامج من التواصل مع بعضها البعض لتبادل البيانات والميزات والوظائف.
كلّ هذه التحفّظات والمخاطر المحتملة تهدّد الأمن القومي للبلاد وتضعف من ثقة المواطنين بقدرة بلادهم/ن على ممارسة مهامها التشريعيّة بالطرق السليمة، وعلى حماية بياناتهم/ن في حال حدوث أيّ من السيناريوهات المحتملة التي ذكرناها.
لا يمكن إنكار ضرورة تبنّي الرقمنة كوسيلة هامّة لإعادة تشكيل الحوكمة وزيادة كفاءة المؤسسات وتسريع عمليّة صنع القرار، ولكن ينبغي ألا ننسى أنّ فاعليتها تُقاس بسياق استخدامها. فحين يُستخدم الذكاء الاصطناعي في ظلّ أنظمة ديمقراطية تخضع للمساءلة وتضع أمن الواقعين/ات تحت حكمها أولويّة، تكون المخاوف أقلّ وقابلة للاحتواء. أمّا في الدول القمعية التي تفتقر للشفافية كمعيار أساسي في الحكم، وسبق أن أقدمت بالفعل على ارتكاب انتهاكاتٍ عديدة، فقد يتحوّل الذكاء الاصطناعي إلى أداة رقابيّة وقمعيّة، وفي حالة التشريع تحديداً، قد يصبح آلة تنتج تشريعاتٍ فوقيّة لا تعكس إرادة الناس ولا تعبّر عن حاجاتهم أو تحميهم.
الصورة الرئيسية من AFP.