تدعو الحكومات والقطاعات الخاصة في منطقة غرب آسيا وشمال أفريقيا إلى اعتماد الذكاء الاصطناعي لتعزيز اقتصاداتها وتسهيل الخدمات، فيما تختلف أُطر استخدامه في كلّ بلد، لكن بالإجمال، إمّا تغيب التشريعات الناظمة أو تقتصر على بعض المبادئ غير الصارمة وغير المُلزِمة.
أنشأت معظم البلدان في منطقة غرب آسيا وشمال أفريقيا استراتيجيات للذكاء الاصطناعي إنّما من دون الاهتمام بصياغة تشريعات تُنظِّم هذه الاستراتيجيات. في المقابل، تركّز معظم الاستراتيجيات على إشكاليةٍ مفادُها أنَّ التشريعات قد تُشكِّل عائقاً أمام الابتكار. وقد شاعَ هذا التبرير في التشريعات المُنظِّمة للذكاء الاصطناعي حول العالم وأدّى إلى استخدامات خطيرة للبيانات وإلحاق الأضرار بالأفراد.
بشكل عام، ما زالت معظم البلدان في المنطقة في مرحلتها الابتدائية من استخدام الذكاء الاصطناعي، وهي تأمل اعتماده بهدف تحفيز الاقتصاد بالدرجة الأولى. ينصبّ الاهتمام بشكل كبير في هذا الاتّجاه في منطقة الخليج، خصوصاً في قطاع الأعمال بدلاً من القطاع العام، لكنَّ استراتيجيات الذكاء الاصطناعي تهدف إلى نشره في كلّ قطاع تقريباً. ويعود الدافع الأساسي للاستثمار في الذكاء الاصطناعي إلى تنويع الاقتصادات خارج نطاق الاعتماد على النفط. في الواقع، تأتي الإمارات العربية المتحدة في الطليعة لناحية تطبيق تقنيات الذكاء الاصطناعي، مع استخدامه أيضاً في القطاع العام. ومع ذلك، فإنَّ استخدام الذكاء الاصطناعي في القطاع العام يُعتبَر الأمر الأكثر إثارةً للقلق إذ قد يُستعان به غالباً لدى التعامل مع المجموعات المستضعفة ويتمّ ربطه بالخدمات الأساسية.
على غرار المشاكل التي تترافق مع التكنولوجيات الأخرى، تبرز مشكلةٌ رئيسية ألا وهي استخدام البيانات وغياب الوسائل الفعّالة لحماية الخصوصية. تشكّل البيانات جوهرَ الذكاء الاصطناعي، ولا يسهُل تقييم وسائل حماية الخصوصية لهذه البرامج نظراً إلى صعوبة تحديد كيفية استخدام البيانات، كما من الصعب أيضاً تحميل المسؤولية لجهة معيّنة لدى استخدام الذكاء الاصطناعي. بالتالي، يجب تحديد المسؤوليات بوضوح في الأُطر التنظيمية، لكن بشكل عام لا يتمّ ذِكر هذا الأمر.
من ناحية المشاركة والتبنّي، قد يكون التركيز على البيانات أسهل طريقة لخوض هذه المحادثات، لكنّ غياب القواعد المحدَّدة والواضحة لتنظيم الذكاء الاصطناعي هو أمرٌ مُقلق، لأنَّه يمنح الشركات والحكومات مطلق الصلاحية لتطبيق هذه الأدوات بأيّ طريقة تختارها. أخيراً، هناك نقطة أساسية يجب مراقبتها في هذه المنطقة عموماً، وهي كيفية تعزيز الذكاء الاصطناعي لنفوذ الدولة بشكل عام وتحديداً عملية حفظ الأمن والرقابة.
ما الذي نعنيه بمصطلح “الذكاء الاصطناعي”؟
يشمل مصطلح الذكاء الاصطناعي الكثير من أنواع العمليات المختلفة، وهو يعني بشكل عام استخدامَ أجهزة الكمبيوتر لمحاكاة الذكاء البشري أو الطريقة البشرية في اتّخاذ القرارات.
يُستخدَم الذكاء الاصطناعي لتبسيط العمليات من أجل التقليل من الحاجة إلى القدرة البشرية، ويمكن تحقيق ذلك ببساطة من خلال استخدام نموذج خوارزميّ معيّن لمعالجة البيانات والتوصُّل إلى نواتج، أو قد يكون الأمر أكثر تعقيداً في حالة التعلُّم الآلي مثلاً حيث لا يحتاج النظام إلى تعليمات صريحة لإنشاء الخلاصات. في ما يلي عرضٌ موجزٌ لبعض المصطلحات المرتبطة بالذكاء الاصطناعي عموماً.
التعلُّم الآلي، هو عبارة عن عملية تهدف إلى استخدام البيانات لمحاكاة التعلُّم البشري، وتُدرِّب الخوارزمية على تصنيف المعطيات وتوقُّعها، لكن غالباً ما يُشرف الإنسان على هذه العملية. وهناك نوع ثانوي من التعلُّم الآلي الذي يستخدم التعلُّم العميق ويستدعي الحدّ الأدنى من التدخُّل البشري.
التنقيب في البيانات، وهي عملية تتمثّل في فرز مجموعات كبيرة من البيانات لتحديد الأنماط والعلاقات المخفيّة. وهي تستخدم عادةً البيانات الأولية وخوارزمية التعلُّم الآلي للتوصُّل إلى استنتاجاتها.
تحليل الإحصاءات/البيانات، المتمثّل بدراسة مجموعات من البيانات للعثور على اتّجاهات معينة، بالإضافة إلى استخدامها من أجل فهم البيانات. عادةً ما يستند هذا التحليل إلى مقدار أقلّ من البيانات مقارنةً بعملية التنقيب في البيانات. ويُستخدَم غالباً للمساعدة في تحديد معدّلات الخطر في إطار تقنية التوقُّع المُستعمَلة غالباً لضبط الأمن.
تقنية التعرّف إلى الأشخاص من سِمات الوجه هي شكلٌ متقدّم من أشكال التحقُّق البيومتري. تستعين هذه التقنية عادةً بخوارزميات الذكاء الاصطناعي والتعلُّم الآلي لرصد الأوجه البشرية. ومتى التُقِط وجه الشخص المعني، تُستخدَم مجموعات البيانات للتأكيد على هوية الشخص.
اتّخاذ القرارات بالأسلوب الآلي، يُقصَد به اتّخاذ القرارات بدون تدخُّلٍ بشري. يمكن تنفيذ هذه العملية إمّا عن طريق خوارزمية معروفة أو عبر التعلُّم الآلي. وهي تستند إلى البيانات من أجل اتّخاذ القرار. ويمكن الاستعانة بهذه التقنية لتحديد ما إذا كان يجب منح شخص معيّن قرضاً أو تقديم مساعدة نقدية مثلاً، لكن يمكن أيضاً استعمالها في أيّ مجال.
الخليج
كما ذُكِر سابقاً، تأتي بلدان الخليج في طليعة المستثمرين في الذكاء الاصطناعي والساعين إلى اعتماده، وذلك بهدف تنويع الاقتصادات خارج نطاق الاعتماد على النفط.
البحرين والكويت
أعلنت البحرين أنها تُدرِك “أهمية الذكاء الاصطناعي في تبسيط العمليات وتزويد صناع القرار في الشركات في جميع القطاعات بالمعلومات، وقد اتخذت بالفعل خطوات نحو دراسة الذكاء الاصطناعي وتطبيقه في مختلف المجالات”. بالتالي، ذكرت المملكة ضرورةَ الاستثمار في التكنولوجيا العصرية في رؤيتها للعام 2030 وأعربت عن اهتمامها في تقنيات المدن الذكية. وتدعو البحرين أيضاً إلى استخدام الذكاء الاصطناعي في الجهاز القضائي.
كذلك، دعت الكويت إلى الابتكار في الذكاء الاصطناعي، وهي تستعين حتى الآن بالذكاء الاصطناعي في الرعاية الصحية لمساعدة الأطبّاء على رصد العلامات المبكرة للأمراض. لا يتوفر في البلدَيْن أيّ تشريع محدَّد حول الذكاء الاصطناعي. وعلى الأرجح، يخضع الذكاء الاصطناعي لقوانين أخرى مثل قوانين حماية البيانات.
الإمارات العربية المتحدة
أطلقت الإمارات العربية المتحدة لأول مرّة استراتيجيتها في العام 2017، عبر إنشاء وزارة الذكاء الاصطناعي لوضع استراتيجية طويلة الأمد. وقد أسّست مجلس الإمارات للذكاء الاصطناعي الذي يركّز على اعتماد الذكاء الاصطناعي في التعليم والرعاية الصحية والوقاية من جائحة كوفيد-19 والطيران والترويج للمشاريع الناشئة والمواهب في ميدان الذكاء الاصطناعي. وتعتزم الإمارات جدّياً أن تُرسِّخ مكانتها كوجهةٍ للذكاء الاصطناعي وكمنصة للابتكار في هذا المجال، تبعاً لما تنصّ عليه الاستراتيجية الوطنية للذكاء الاصطناعي للعام 2031.
علاوة على ذلك، أعلنت الإمارات عزمها توفير “البيئة القانونية اللازمة لدعم اعتماد الذكاء الاصطناعي”، وصرّحت بأنها تعمل مع شركاء عالميين لضمان اعتماد الذكاء الاصطناعي بطريقة أخلاقية، وأنّ مجلس الإمارات للذكاء الاصطناعي والتعاملات الرقمية سيعمل على “توسيع نطاق اختصاصه ليشمل إجراء مراجعة للمنهجيات الوطنية المتعلقة بمسائل مثل إدارة البيانات، والأخلاقيات، والأمن الإلكتروني. كما سيعمل المجلس على استعراض أفضل الممارسات وأحدثها في مجال التشريع والمخاطر العالمية الناجمة عن الذكاء الاصطناعي. وسيتابع المجلس في نهاية المطاف تنفيذ استراتيجية الذكاء الاصطناعي في البلاد.
لا يتوفر في الإمارات العربية المتحدة أيّ تشريع محدَّد مرتبط بالذكاء الاصطناعي، لكنّ الدولة تعتمد مبادئ توجيهية غير ملزِمة مثل “مبادئ وأخلاقيات الذكاء الاصطناعي” الخاصة بإمارة دبي. لدى الإمارات تشريعٌ يتناول المسائل المرتبطة بالخصوصية ويخضع له الذكاء الاصطناعي، ويشمل هذا التشريع قانون حماية البيانات الشخصية، وقانون مركز دبي المالي العالمي لحماية البيانات، وقانون استخدام تقنية المعلومات والاتصالات في المجالات الصحية، وقانون العقوبات، وقانون حماية المستهلك، وقانون المعاملات المدنية للإمارات العربية المتحدة. يتحمّل عادةً المبتكِر مسؤولية وجود أيّ خلل في المنتَج، إلّا أنّه من الصعب إثبات هذا الرابط عند استخدام الذكاء الاصطناعي. وبموجب المادة 316 من قانون المعاملات المدنية، تقع المسؤولية على أيّ شخص يتحكّم بالمنتَج. إذا أخذنا مثال السيارة الذاتية القيادة، قد يكون النظام والسائق مسؤولَين وبالتالي يمكن تحميل المسؤولية لكليهما.
علاوةً على ذلك، من الصعب معرفة مصدر الخلل في المنتج العامِل بالذكاء الاصطناعي في غياب التشريعات التنظيمية، إلّا إذا كانت الحالة واضحة نسبياً مثل المركبات الذاتية القيادة. لكنَّ الأمر قد يكون مربِكاً حتى في هذه الحالة، فإذا انحرف مثلاً شخصٌ عن الطريق لتفادي دهس شخص معيّن، ودَهَسَ شخصاً آخر، من الصعب تحديد المسؤول في هذه الحالة. بالتالي، إنَّ غياب الإطار الواضح هو ثغرةٌ تنظيمية يجب إصلاحها قبل اعتماد هذه التكنولوجيا.
في مجال الطيران، تم إنشاء روبوتات آلية لرصد أوجه المجرمين في المطارات. وقد استُخدم مفهوم “الروبوت الشرطي” لمساعدة الشرطة أيضاً. تتعاون الإمارات العربية المتحدة مع شركة “اس إي اس” (SAS) في مجال البرامج التوقُّعية لحفظ الأمن التي ستستخدم تحاليل البيانات وتتمتّع بـ “قدرات الذكاء الاصطناعي”. ولدى إمارة أبو ظبي شبكة واسعة من الكاميرات التي تحفظ الأمن عبر الاستعانة بالبرنامج التوقُّعي المستنِد إلى الموقع الجغرافي. وهي تستخدم التعلُّم الآلي والبيانات السابقة لتحديد الأماكن التي من المرجّح أن تقع فيها الجرائم.
غير أنّ هذا البرنامج التوقُّعي المستنِد إلى البيانات السابقة لحفظ الأمن يطرح مشكلةً نظراً إلى أنه غالباً ما يستهدف المناطق ذات الدخل المتدني أو المناطق التي يسكنها المهاجرون/ات. وقد يؤدّي هذا الأمر إلى زيادة حضور الشرطة في حياة الفئات المهمَّشة أصلاً. وعند استخدام هذه الأنواع من الأدوات، يجب وضع إطار مساءلة واضح. فإذا كانت الشرطة تتبع توصيات الذكاء الاصطناعي، على مَنْ تقع المسؤولية إذا أدّت العملية إلى احتجازٍ تعسّفي؟ هل يعزز هذا الإجراء قوةَ الدولة ويسمح لها بانتهاك خصوصية الناس؟ ويُطرَحُ سؤالٌ بديهي عن مدى تحكُّم مُزوِّد الخدمة بالبيانات التي يعالجها البرنامج الإلكتروني. ما زال نوع التوقُّعات التي سيعطيها البرنامج قيد الدرس، وهو موضوعٌ له تداعيات مهمّة. فإذا كانت التوقُّعات تقدّم تقييماً للخطر بالنسبة إلى أفراد معيّنين، يجب طرح السؤال عن كيفية تقييم هذا الخطر. وينطبق الأمر نفسه على التوقُّعات المستنِدة إلى الموقع الجغرافي.
خلال فترات الإغلاق الشامل أثناء انتشار جائحة “كورونا”، استُخدِم البرنامج “عيون” الذي يراقب الأذونات الممنوحة للمقيمين/ات بمغادرة منازلهم من خلال التعرّف إلى الصوت أو الوجه أو لوحة تسجيل السيارة. وفي مجال التعليم، تُستخدَم خوارزميات التعلُّم الآلي لتوقُّع احتمال تسرُّب الطلّاب من التعليم وقابلية حصول الخرّيجين على الوظائف. يستخدم النموذج متغيّرات مثل “الخلفية الاجتماعية والاقتصادية، والمشاكل السلوكية، والعلامات، والحضور، بالإضافة إلى نقاط بيانات أخرى للتوصُّل إلى التوقُّعات”. ويمكن أن يضرّ هذا النوع من التوقُّع بالأشخاص القادمين من خلفيات يُنظَر إليها عادةً بأنَّها “ضعيفة الأداء” وقد يتسبب هذا الأمر بإطلاق أحكام مسبقة غير مُبرَّرة. تعتمد المصارف أيضاً على الذكاء الاصطناعي في خدمة العملاء وكشف الاحتيال.
في السياق نفسه، أبرمت الإمارات أيضاً شراكة استراتيجية مع الصين تشمل الذكاء الاصطناعي. وقد أسّست الشركة الصينية المثيرة للجدل “سنس تايم” (SenseTime) مركزاً للأبحاث والتطوير في أبو ظبي، وابتكرت أداةً للتعرّف إلى الأشخاص من سِمات الوجه تُستخدَم في الصين لتحديد مجموعة “أويغور” الإثنية حتى عندما يرتدي أفرادُها النظّارات أو يعتمرون القبّعات.
قطر
تركّز استراتيجية قطر للذكاء الاصطناعي على أهمية الوصول إلى البيانات. تسعى قطر إلى وضع نظام لإدارة البيانات وصياغة مبادئ توجيهية تُسهّل “الوصول على نطاق واسع إلى البيانات وتقاسمها بما يتوافق مع القوانين القطرية المتعلقة بخصوصية البيانات، التي تم إصدارها حديثاً”. من الناحية الأخلاقية، تقرّ قطر بالتحيُّزات في الخوارزميات وتوصي بوضع “مبادئ توجيهية بشأن المقدار الذي يلزم شرحه في مختلف أنواع القرارات المستعان في اتخاذها بخوارزميات الذكاء الاصطناعي”. تستند الاستراتيجية على ستّ ركائز: التعليم، والوصول إلى البيانات، والعمالة، ومجال الأعمال، والأبحاث، والأخلاقيات. وقد اعتُمد الذكاء الاصطناعي في قطر خلال بطولة كأس العالم لكرة القدم في العام 2022 لاختبار هذه الأنواع من تكنولوجيا المراقبة.
المملكة العربية السعودية
في العام 2019، أسّست حكومة المملكة العربية السعودية الهيئةَ السعودية للبيانات والذكاء الاصطناعي المسؤولة عن وضع التشريعات، وقرّرت تأجيل التنفيذ الكامل لنظام حماية البيانات الشخصية السعودي حتى 17 آذار/مارس 2023.
يشكّل التركيز على الذكاء الاصطناعي جزءاً من استراتيجية تنويع الاقتصاد وإتاحة النمو الاقتصادي. وعلى غرار بلدان الخليج الأخرى، تخطّط السعودية لاستخدام الذكاء الاصطناعي في القطاع العام، وتحديداً في مجال المدن الذكية، والرعاية الصحية، والطاقة، والتعليم، والشؤون المالية، وأُعدّ بالفعل برنامج تطوير القدرات الوطنية في مجال الذكاء الاصطناعي بالتعاون مع شركة “هواوي” (Huawei). وكما باتَ معلوماً، تعمل المملكة العربية السعودية على إنشاء مدينة نيوم الذكية التي ستتضمن الكثير من الخدمات العاملة بالذكاء الاصطناعي.
عُمان
لا تعتمد سلطنة عُمان تشريعات صارمة لكنها أصدرت مبادئ توجيهية متعلقة بسياسة استخدام ابتكارات الذكاء الاصطناعي في القطاع العام. وتتضمن السياسة ستة مبادئ رئيسية، هي: الشمولية، والمراعاة، والمساءلة، والإنصاف، والشفافية، والأمن. وتُطوِّر عُمان حالياً مدينتها الذكية الأولى، مدينة العرفان التي تَعِد بتحسين حياة مواطنيها. غير أنَّ المدن الذكية، خصوصاً تلك القائمة في مناطق لا يتوفر فيها إطارٌ فعّال للتنظيم وحماية البيانات، تسمح للبلدان بتشديد مراقبتها على المواطنين/ات. وقد أعلنت عُمان عن نيّتها باستخدام تكنولوجيا التحقق الأمني البيومتري. وذكرت أيضاً عزمها على تحويل منطقة الدقم ومنطقة رأس الحمراء في مسقط إلى مدينة ذكية.
منطقة المشرق
باستثناء “إسرائيل”، بالكاد تستعين هذه المنطقة بالذكاء الاصطناعي. لكن على غرار بلدان الخليج، تأمل الأردن الذهاب في هذا الاتجاه.
“إسرائيل”/فلسطين
يشكّل اعتماد الذكاء الاصطناعي في استراتيجية “إسرائيل” للأمن الوطني خطراً كبيراً على الفلسطينيين/ات، وتأمل الحكومة اعتماد الذكاء الاصطناعي في القطاع العام، لكن لا يزال أثر هذا الاستخدام على الفلسطينيين مجهولاً. تسعى إسرائيل إلى وضع إطار للذكاء الاصطناعي، لكنّها أنظمة غير مشدّدة ومبادئ أخلاقية غير مُلزِمة.
أعلنت الحكومة عن استراتيجيتها للقوى المسلّحة في العام 2022 في مركز أبحاث “بلافاتنيك” المتعدد التخصصات في المجال السيبراني ومركز تل أبيب للذكاء الاصطناعي وعِلم البيانات في جامعة تل أبيب. ويُزعَم أنّ الذكاء الاصطناعي قد أدّى دوراً رئيسياً في نزاع أيار/مايو 2021، إذ يعتمد الجيش الإسرائيلي المزيد من أدوات الذكاء الاصطناعي، مثل متفجرات SPICE (متفجرات ذكية ودقيقة التأثير وفعالة من حيث الكلفة)، مع تقنية التعرف التلقائي إلى الهدف.
وتشمل الأمثلة الأخرى الأسلحة العاملة بالذكاء الاصطناعي التي لا تتطلب من الجندي سوى الضغط على الزرّ. ويبرّر مبتكِر التكنولوجيا قائلاً إنّ هذه التقنية تفيد في حماية الجنود والمدنيين/ات باعتبار أنها أكثر دقّة ولا تصيب إلّا “الإرهابيين”. وحالياً، لا تُطلِق هذه الأدوات إلّا الغازات المسيِّلة للدموع والقنابل الصوتية والرصاص ذا الرؤوس الإسفنجية. يسمح استخدام هذه التكنولوجيا بالتهرّب من المسؤولية واللوم لأنَّ الجنود يعتمدون على التكنولوجيا، ما يؤدّي إلى تعزيز هيمنة “إسرائيل” وسلطتها القمعية.
وسبق أن بدأت “إسرائيل” باستخدام هذه الأدوات لتحسين آليات المراقبة لديها. فقد وضعت في الضفة الغربية كاميرات للتعرّف إلى الأشخاص من سِمات الوجه وأجهزة الاستشعار والأدوات من أجل مراقبة الفلسطينيين/ات. تُتيح هذه الكاميرات تحديد هوية الشخص حتى إن لم يكن يحمل بطاقة هويته. ويعمل أيضاً تطبيق Blue Wolf على التقاط صور الفلسطينيين ومطابقتها مع الصور الواردة في قاعدة البيانات المشار إليها بالتسمية “فيسبوك (كتاب أوجه) الفلسطينيين”. ويومض التطبيق بإضاءة صفراء أو حمراء أو خضراء حتّى يعرف العنصر الأمني ما إذا كان عليه احتجاز الشخص المعني أو اعتقاله أو إخلاء سبيله. وقد تَبيّن أيضاً أنّ الحكومة الاسرائيلية تستخدم تقنيات التوقُّع لحفظ الأمن مثل تحاليل البيانات لمراقبة حسابات الفلسطينيين على “فيسبوك”. فيبحث النظام عن صور الفلسطينيين المقتولين أو المسجونين من قِبل القوات الإسرائيلية لتحديد هوية الأشخاص المشكوك بأمرهم.
الأردن
نشر الأردن سياسةً معنية بالذكاء الاصطناعي في العام 2020، غير أنّ المستنَد يهدف بالدرجة الأولى إلى التشجيع على تطوير هذه التكنولوجيات واستخدامها. في ما يتعلق بالحوكمة، أنشأ الأردن لجنةً وزارية وطنية للذكاء الاصطناعي من أجل تطبيق السياسة. وتهتمّ اللجنة بتحديد أخلاقيات الذكاء الاصطناعي، لكنّ السياسة تركّز أيضاً على الخوف من قمع الابتكار عن طريق التشريعات. وقد أعلن الأردن مؤخراً عن خارطة الطريق للذكاء الاصطناعي بين العامين 2023 و2027، وذلك استكمالاً للسياسة التي صدرت في العام 2020.
شمال أفريقيا
ما زالت بلدان شمال أفريقيا في المراحل الأولى من اعتماد الذكاء الاصطناعي، وهي ترغب في الاستفادة من هذا المجال وتشجيع المزيد من الاستثمار والنمو في القطاع. وقد يكون رصد هذه التكنولوجيا وتسخيرها مفيدَيْن في هذه المرحلة من الناحية العملية. لكنَّ المشكلة تتمثل في غياب الأُطر التنظيمية والإجراءات الجدّية في الوقت الذي يجب أن تكون فيه هذه التكنولوجيات ديمقراطية ومسؤولة وشفافة. وعلى غرار ما نراه في التكنولوجيات الأخرى، المقلق هو معرفة آلية استعمال وتخزين البيانات المستخدَمة لتشغيل كلّ هذه البرامج.
طوّرت الجزائر استراتيجية وطنية للبحث والابتكار في مجال الذكاء الاصطناعي، غير أنها ما زالت في مرحلة السعي إلى تخصيص المزيد من الوقت والموارد على هذه التكنولوجيات. وتُحرز تونس تقدُّماً في المشاريع الناشئة التي تستعمل الذكاء الاصطناعي لخدمة أهداف متنوّعة. فقد أنشأت مثلاً مشروعاً لرصد متحوّرات فيروس “كوفيد” الشديدة الخطورة، وطوَّرَ مشروعٌ آخر أجهزة استشعار ذكية للمساعدة في مجال الزراعة والفلاحة. ومن الفئات الخطرة المحتملة هي فئة “الكشف عن الاحتيال”، التي تساعد على تحديد الاحتيال في التأمين على السيارات. والمُقلق هنا هو السؤال عمّا إذا كانت هناك آلية معيّنة للتحقّق الفِعلي (من قِبل أشخاص وليس من قِبل الآلات) في حال كانت النتائج خاطئة، وما هي التداعيات الممكنة إذا تبيّن أنّ الادّعاء كاذب. كذلك، تعمل مصر على وضع إطار لاستخدام الذكاء الاصطناعي. وهي مهتمة باستخدامه لتطوير قطاعات الرعاية الصحية والتعليم والزراعة، لكنها لم تذكُر فعلياً ما الذي تُخطِّط للقيام به سوى “استخدام التعلم الآلي”. هناك خطط لاستخدام الذكاء الاصطناعي لتسهيل الوصول إلى الرعاية الصحية والتعليم، لكن يَطرح هذا الأمر أسئلةً حول مستوى الإلمام بمواضيع الإنترنت والبيانات في المناطق النائية، بالإضافة إلى المخاوف المرتبطة بخصوصية البيانات وحمايتها نظراً إلى حساسية البيانات الصحية.
التحليل العام
لم يُطوّر أيُّ بلد في المنطقة إطاراً ملائماً لآلية اعتماد الذكاء الاصطناعي؛ وأيّ خطوات في هذا الاتّجاه تُظهِر أهمية السماح للمطوِّرين بالابتكار من دون قيود. ومع أنّ هذه البلدان لديها قوانين لحماية البيانات، تبرز المشكلة في حال كانت الدولة هي التي تطلب هذه البيانات، إذ يصبح من الأسهل تخطّي تشريعات حماية البيانات لأنَّ معظم الدول تسمح للحكومة بالاطّلاع عليها. فإذا كانت البيانات ضرورية لإبرام عقد معيّن مثلاً، يمكن في هذه الحالة معالجة البيانات. تُعتبر الشراكة التي أقامتها المملكة العربية السعودية والإمارات العربية المتحدة مع منظمات صينية مختلفة مدعاةً للقلق، فلا يبدو واضحاً في الحقيقة ما إذا كانت هذه الشراكات تتضمن مشاركة البيانات فضلاً عن أنّ الخطوات الساعية إلى تطوير التكنولوجيات تميل إلى مراقبة الناس بشكل مكثَّف.
وتستخدم الإمارات الذكاءَ الاصطناعي في عدّة قطاعات، مما قد يؤثّر سلباً على حرّيات المواطنين/ات، وما يُقلِق بشكل خاص هو الاستعانة بالكاميرات والبرامج التوقُّعية لحفظ الأمن. فقد تُستَغَلّ هذه التقنية لأذيّة الأشخاص من مجتمع الميم والناشطين/ات.
يبدو أنّ اعتماد الذكاء الاصطناعي يتركّز بشكل أساسي في مجال الرعاية الصحية في المنطقة. فبدءاً من الآن، يتمّ الاعتماد بشكل أساسي على هذه التكنولوجيا، أقلّه في المستشفيات، لتسريع العمليات والتقييم بمستوى أعلى من الدقة التي يعطيها الطبيب (مثل فحوص التصوير بالرنين المغناطيسي)، بدلاً من الاستعانة بها كجهاز مستقل لا يُشرف عليه خبراء بشريون.
في مجال الرعاية الصحية، يتمثّل التركيز الأساسي في أمن البيانات ومَن يمكنه الاطّلاع عليها. هل يمكن أن تطّلع الحكومات على البيانات خارج إطار الحاجة إلى التشخيص إذا كانت المستشفيات حكومية؟ ويبرز هنا قلقٌ إزاء احتمال تطوُّر التكنولوجيا وبدئها بتقديم التوصيات للأطبّاء، والإفراط المحتمل في الاعتماد على النتائج الآلية والالتزام بها، مما يؤثّر إلى حدّ كبير في صحة الناس. لهذا السبب، لا بدّ من نشر معدّل النتائج الإيجابية الخاطئة والنتائج السلبية الخاطئة، وتدريب الأطبّاء للتشكيك بالتكنولوجيا على الأقلّ بدلاً من الاعتماد عليها بشكل عشوائي.
من ناحية أخرى، يتم إنشاء مدن ذكية في عدّة بلدان خليجية، ويطرح تطويرها الكثير من المشاكل. أولاً، هذه المدن أكثر عرضة للاختراق والتعطيل. بالتالي، يجب مثلاً تحديد فعالية تدابير الأمن السيبراني. إذا كان برنامجٌ معيّن يتحكّم بمنطقة كاملة، يجب أن يكون هذا البرنامج فعّالاً للغاية ومحدَّثاً ومراقَباً بدقّة. فمشكلة الخروقات تتفاقم أكثر عندما يكون واقعُنا مدمجاً بالكامل في برنامجٍ إلكتروني. فضلاً عن ذلك، تتطلّب الكثير من التكنولوجيات المقترَحة من أجل “التسهيل” و”استباق كلّ حاجة لديك” مراقبةً مكثَّفة للبيانات، أي أنّ كلَّ مقيمٍ سيخضع للمراقبة المُشدّدة.
بشكل عام، دائماً ما يؤدي استخدام هذه التكنولوجيات إلى تعزيز الرقابة على الأشخاص، وهو أمرٌ مقلق خصوصاً في الأنظمة الاستبدادية. إنّ اعتماد الذكاء الاصطناعي في القطاع الخاص يُفضي إلى ظاهرة رأسمالية المراقبة التي تُساوِم على خصوصيتنا على حساب “الملاءمة والراحة”، لكن في الواقع يتمّ توقُّع تصرّفاتنا والتأثير بها وتعديلها. في القطاع الخاص، تتراجع فُرَص العمل جرّاء استعمال سيارات الأجرة بدون سائق ومراكز التسوّق والمتاجر التي لا تعتمد على التدخّل البشري (من دون أيّ تواصل أو إجراءات). علاوةً على ذلك، يعتمد تشغيل كلّ هذه الأنواع من المتاجر على تطبيقات إلكترونية، وتكون مُجهَّزة بمعدّات مراقبة مكثَّفة. إذا أصبحت هذه الممارسات هي القاعدة السائدة، فلن يبقى أمام الناس سوى خيار الالتزام بهذه التدابير.
إمكانات اعتماد هذه البرامج
يصعب على أيّ منطقة تبنّي هذه البرامج نظراً إلى إمكانية التذرُّع بالسرّية التجارية وغياب الأُطُر الحكومية التي تُركّز على الذكاء الاصطناعي، غير أنّ النقص في أُطر المساءلة بحدّها الأدنى يزيد من صعوبة الاطّلاع على المعلومات في منطقة غرب آسيا وشمال أفريقيا. وعبَّرَ كلّ بلد عن سعيه إلى اعتماد الذكاء الاصطناعي على نحو أخلاقي ومسؤول بدون إبراز أيّ تشريع فعلي لتحقيق هذا الأمر.
بالنسبة إلى بلدان شمال أفريقيا المذكورة، تشكّل هذه الفترة مرحلةً للمراقبة بهدف تحديد آلية تنفيذ هذه الاستراتيجيات، أمّا في الخليج، فيمكن الاستعانة بالشهادات الحيّة لمعرفة تأثير هذه الأدوات على الناس، خصوصاً وأنَّ معظم الأبحاث لا تأتي على ذِكر هذه المعطيات. ربّما تكون الخطوة المنطقيّة الأولى في هذا المجال هي إجراء أبحاثٍ حول حماية البيانات مع التركيز على كشف مساهمات الذكاء الاصطناعي في انتهاكها.