مع ظهور الأسلحة النووية، دخلت البشرية عصراً جديداً باتت تملك فيه القدرة على تدمير نفسها، ولكن بدون الحكمة الكافية لضمان عدم حدوث ذلك. ثمّ تضاعفت هذه المخاطر بشكل مقلق ليُضاف إليها مخاطر أخرى، من تغيّر المناخ العالمي إلى الظهور المحتمل للأوبئة الهندسية والتصاميم غير المتوافقة للذكاء الاصطناعي.
ليس فهم آلية عمل أنظمة الذكاء الاصطناعي سوى جزء من المعضلة الكبرى، فنحن في محاولة لاستكشاف عالم متعدد الأبعاد يكمن خلف ستار هذه التكنولوجيا الذكية والمخاطر المحتملة التي يمكن أن يسببها هذا الانتشار المتسارع لتقنيات ثوريّة.
في سياق متّصل، تثير قُدرة الذكاء الاصطناعي على إنشاء صور ومقاطع فيديو وصوتيات واقعية ومُزيّفة قلقاً جدياً لقدرتها على إنتاج ونشر الأخبار المضلّلة وسرقة الهوية وانتهاكات الخصوصية. وقد شهدت البورصة الأميركية بالفعل تراجعاً ملحوظاً بعد انتشار صورة مولّدة بالذكاء الاصطناعي على وسائل التواصل تُصوِّر انفجاراً في مبنى “البنتاغون”.
ولعلّ هذا كان أحد الأسباب التي دفعت جيفري هنتون، أحد الآباء الروحيين للذكاء الاصطناعي، إلى تقديم استقالته من “غوغل”، وإصراره على التحذير من الأخطار الأمنية وسوء الاستخدام والفشل في توظيف التقنيات “لصالح البشر” وفق تصريحات نسبت إليه.
لعلّ الرسالة المفتوحة التي دعا فيها إيلون ماسك ومجموعة من الرؤساء التنفيذيين والخبراء إلى التوقف عن تطوير “الذكاء الاصطناعي القوي” خير دليل على خطورة الموقف الذي نعيشه. وشدّد الموقعون/ات في الرسالة ضرورة وقف تطوير برامج الذكاء الاصطناعي التي تتفوق على “جي بي تي 4”، لتفادي تشير “المخاطر الكبيرة التي يمكن أن تنجم عن هذه البرامج على البشرية”، إلى حين بناء خطة تتضمّن أنظمة حماية من تلك المخاطر.
وتشمل الخطة إنشاء هيئات تنظيمية، وضمان مراقبة الأنظمة المستخدمة في الذكاء الاصطناعي، وتطوير أدوات تمكّننا من التمييز بين الأعمال البشرية وتلك التي تقدّمها برامج الذكاء الاصطناعي، إضافة إلى إنشاء مؤسسات قادرة على التعامل مع “المشاكل الاقتصادية والسياسية” التي قد تولد نتيجة لاستخدام هذه البرامج.
عوامل القلق من الذكاء الاصطناعي
يمكن أن يتسبب التقدم غير المنضبط بتأثيرات كارثية قد تشكّل تهديدات وجوديّة على البشريّة، وفيما يلي بعض العوامل التي كانت سبباً في زيادة القلق عن الخبراء والمنظمات حيال التطور السريع للذكاء الاصطناعي:
خطر التسليح
تمتلك جهاتٌ خبيثة القدرة على استغلال تقنيات الذكاء الاصطناعي لتشكيل تهديدٍ حقيقي من خلال التسلّح المستقل بأدوات وبرمجيات قادرة على تنفيذ هجمات من دون مجهودٍ بشري يُذكر؛ ومن الأمثلة المعروفة نظام القتل عن بعد الذي يتبعه الكيان الاسرائيلي ضد الفلسطينيين/ات عبر نصب سلاح “مطلق النار الذكي” من إصدار شركة “سمارت شوتر” (Smart Shooter) التي تتبنّى شعار “طلقة واحدة إصابة واحدة”، عند نقاط التفتيش المركزية في مدينة الخليل . كما يمكن استخدام تقنيات التعلّم العميق في المجالات العسكرية و القتال الجوي، وتوظيف أدوات الاكتشاف الآلي لتطوير أسلحة كيميائية باستخدام تقنيات متطورة من الذكاء الاصطناعي.
علاوة على ذلك، شهدنا في السنوات الأخيرة تقدماً ملحوظاً في نظم الذكاء الاصطناعي المستخدمة في الهجمات الإلكترونية التلقائية، مما فتح باباً لنقاشٍ واسع بين قادة عسكريين حول مدى منح هذه النظم سيطرة حاسمة على الأسلحة النووية. وعلى الأرجح، فإنّ عدم حسم الجدال لصالح التقنية كان سببه أن إمكانية حصول عطلٍ في نظام الرد الآلي واردة، مما قد يتسبب باستخدام سريع للقوة والانسياق خلف حرب غير مدروسة. وبالفعل، كان وزير الخارجية الألماني هايكو ماس حذّر من أنّ السباق إلى التسلح بتقنيات الذكاء الاصطناعي قد بدأ بالفعل، قائلا “إننا حالياً في منتصف هذا السباق، وهذه حقيقةٌ يتعيّن علينا التعامل معها”.
حقل ألغام أخلاقي
يكمن الخطر الحقيقي في أنظمة الذكاء الاصطناعي المتحيزة، إذ يمكنها الاستمرار في تعزيز وتضخيم تلك التحيزات الموجودة في بيانات التدريب، مما يؤدي إلى نتائج ضارّة وغير عادلة؛ هذا هو مفهوم الدين الأخلاقي، الذي ينشأ عندما لا يولي مطورو تلك الأنظمة اهتماماً كافياً للضرر الاجتماعي والأخلاقي المحتمل وقوعه، والذي يترك أثره الأكبر على الفئات المهمشة التي لا تحظى بتمثيل كافٍ في مجالات التكنولوجيا.
عن الديون الأخلاقية، لفتت خبيرة أخلاقيات التكنولوجيا في جامعة كولورادو بولدر كايسي فيسلر، انتباهها إلى أن “الأشخاص الذين يتسببون بهذه الديون نادراً ما يكونون هم الأشخاص الذين يدفعون ثمنها في النهاية”.
والتنويه ضروريّ هنا بأن الأنظمة القوية للذكاء الاصطناعي قد تقوم بتطوير وتسهيل أساليب التلاعب لتحقيق أهداف غير أخلاقية في باطنها، إذ تُدرّب تلك الأنظمة بالأساس على تحقيق أهداف قابلة للقياس، والتي قد تكون مجرد مؤشرات لا تعكس ما يهم البشرية حقاً. وتشير بعض الأدلة إلى أنّ أنظمة التوصية تدفع الأشخاص نحو تبني المعتقدات المتطرفة من أجل تسهيل التنبؤ بتفضيلاتهم/، ومع تزايد قدرة وتأثير الأنظمة القوية للذكاء الاصطناعي، يجب تعزيز تحديد الأهداف التدريبية لتلك الأنظمة بعناية أكبر ودمج عوامل مختلفة لضمان التوافق العام مع القيم الأخلاقية والمجتمعية.
إزاحة الوظائف
تثار مخاوف كبيرة حول آثار الذكاء الاصطناعي على سوق العمل والوظائف، فنظراً إلى قدرة هذه التقنيات على تحقيق الأتمتة في مهام محددة، وعلى الرغم من أنّ الذكاء الاصطناعي قد يُنشئ أيضاً فرص عمل جديدة، إلا أنّها قد لا تتوافق مع المهارات المطلوبة، مما يترك بعض الأفراد في وضع غير مؤات. أشارت نتائج ورقة بحثية تناقش مدى تأثر سوق العمل بأدوات الذكاء الاصطناعي المتقدمة، إلى نّ ما يقرب 80% من القوى العاملة ستتأثر بنسبة 10% على الأقل بهذه الثورة التكنولوجية، إلا أنّ الضرر الأكبر سيلحق بأصحاب الوظائف التي تدرّ مداخيل مرتفعة. بالتوازي، ستتأثر 40% من الوظائف بنماذج الذكاء الاصطناعي مثل “تشات جي بي تي“. أكّد ذلك تقريرٌ صدر حديثاً عن “المنتدى الاقتصادي العالمي”.
مع التطور التكنولوجي المتسارع، ستتنازل الشركات والمؤسسات تلقائياً عن سيطرتها لصالح أنظمة الذكاء الاصطناعي، ما قد يؤدي إلى تجاهل قيمة الإنسان من الناحية الاقتصادية. علاوة على ذلك، سوف يواجه الأفراد صعوبة بإعادة التواصل والانخراط بسوق العمل في المستقبل وفقاً لمؤهلاتهم/ن الحالية، مما سينعكس انخفاضاً للحوافز لاكتساب المعرفة وتطوير المهارات.
يشير الخبير في الذكاء الاصطناعي، لي كاي فو، في كتابه الشهير “القوى الخارقة للذكاء الاصطناعي” أنّه على الرغم من قدرة الذكاء الاصطناعي على تنفيذ الكثير من المهام أسرع من البشر، ستظل بعض المهام تتطلب وجود لمسة بشرية للإشراف عليها. قد يعود ذلك إلى تعقيدها أو اللمسة الإبداعية التي تحتاجها أو ربما بسبب الجانب العاطفي والتعاطف البشري الذي لا يمكن أن يتحقق بواسطة الأتمتة.
المخاطر الأمنية
في حال لم تُصمّم وتؤمّن أدوات الذكاء الاصطناعي بالصورة الصحيحة، فقد تُوظّف لخدمة أهدافٍ ضارّة وهجوميّة. هذا الواقع حفّز “مكتب العلوم وسياسات التكنولوجيا” التابع للبيت الأبيض على إصدار “إطار عمل أنظمة الذكاء الاصطناعي والتعلم الآلي”، بهدف التعامل مع تحديات هذه الأنظمة التي تشكّل تهديداً لمبادئ الديمقراطية وحفاظاً على حقوق الشعوب، بما في ذلك مخاطر الأمن وحماية الخصوصية.
وقد كُشف بالفعل في وقتٍ سابق عن حادثة احتيال وسرقة مالية قُدّرت الخسائر فيها بـ 35 مليون دولارٍ أميركي من حساب بنكي، نُفّذت باستخدام تقنية التزييف العميق عبر نسخ ومحاكاة الشيفرة الصوتية لرجل أعمال والاتصال بالبنك لإتمام حوالة مالية عاجلة.
ذكاء اصطناعي “استعماري”
سيطرة فئة صغيرة على مجال الذكاء الاصطناعي يخلّ في توزيع القوة والموارد بطبيعة الحال، فضلاً عن مخاوف متصاعدة من سوء استخدام السلطات لها وانعدام المنافسة، ممّا يجعل الوصول إلى التكنولوجيا المتقدمة صعباً بالنسبة إلى الفئات المهمشة التي تُحيّد عن المناقشات والسياسات المنظمة لطبيعة الاستخدام.
كتاب “داتا سوسايتي” (Data Society) يستكشف هذه المسألة بتسليط الضوء على تجارب يومية للأفراد في مناطق مختلفة من العالم، وكيفية تأثير الذكاء الاصطناعي واستخدام البيانات على قضايا الكرامة والتضامن وعدالة البيانات. يعرض الكتاب نظرة نقدية للحوسبة “ما بعد الاستعمار” ويسلّط الضوء على تأثيرها في المجتمعات التي جرى استغلالها عبر التاريخ.
تتاح أنظمة الذكاء الاصطناعي الأقوى لعدد محدودٍ من الأطراف، وتكون مصمّمة بواسطة أيديولوجيا تابعة للأقليّة التي تحتكر النفوذ والأدوات، ما يمكّنها من فرض قيم ضيقة ومراقبة شاملة، ليولد نوعٌ من الاستعمار الحديث المدعوم بسياسات اقتصادية ونظام قانوني.
ظهور قدرات مفاجئة
نظراً لطبيعة أنظمة الذكاء الاصطناعي وتصميماتها المعقدة والمركبة، يمكن أن تظهر سلوكيات لم تُبرمَج أو تتوقّع منذ التأسيس. بالإضافة إلى ذلك، فإنّ الافتقار إلى الفهم الكامل لكيفية وصول خوارزميات الذكاء الاصطناعي إلى قراراتها، والمعروفة باسم “مشكلة الصندوق الأسود”، يثير مخاوف بشأن المساءلة واحتمال ظهور قدرات ذات أثرٍ ضار. فقد تُظهر النماذج البرمجية سلوكاً غير متوقع ومختلفاً عندما تصل إلى مرحلة تصبح فيها أكثر كفاءة، ما يضعنا في مواجهة خطر فقدان السيطرة على أنظمة الذكاء الاصطناعي المتقدمة.
ختاماً، ثمّة حقيقة يجب أن نبقى متيقّظين لها دائماً، وهي أنّ الدول وشركات التكنولوجيا والجهات السياسية تلجأ دائماً إلى توظيف تقنيات الذكاء الاصطناعي للتأثير على الجماعات وإقناعهم بأجنداتها وأيديولوجياتها ورواياتها. وقد ينقل الذكاء الاصطناعي القوي حالة الاستخدام هذه إلى حقبة جديدة.
بطبيعة الحال، تتطلّب معالجة هذه المخاوف اتّباع نهجٍ متعدد الأوجه، مبنيّْ على التعاون بين الباحثين والباحثات وصنّاع السياسات وروّاد الصناعة والمجتمع ككل، فتحقيق توازنٍ بين التقدّم التكنولوجي والمسؤولية المجتمعية أمرٌ بالغ الأهمية لتسخير فوائد الذكاء الاصطناعي وتقليل المخاطر المحتملة.
على الرغم من خطورة هذه المعضلة، إلا أنّها لا تلقى اهتماما كافياً. نحن اليوم بحاجة إلى إطلاق حركة تهدف إلى بناء خططٍ تضمن أمان الناس من أضرار تقنيات الذكاء الاصطناعي التي قد تخرج عن السيطرة في أيّ لحظة، وتطوير إطار عملٍ يضمن استفادتنا من تقنية مبتكرة تعد بإمكانيات هائلة.