خلال السنوات الثلاثة الأخيرة، ازداد حضور روبوتات الدردشة المستندة إلى الذكاء الاصطناعي في الحياة اليومية لملايين المستخدمين. إلى جانب استخدامها للحصول على المساعدة التقنية والبحث عن المعلومات، بات كثيرون يلجأون إلى هذه الروبوتات لتلقي الدعم العاطفي وخدمات الرفقة. فأصبحت هذه الأنظمة بشكل متزايد تؤدي دور معالجين غير رسميين أو أصدقاء موثوق بهم أو حتى بدائل للعلاقات الاجتماعية، خاصةً في السياقات التي يصعب فيها الحصول على خدمات الصحة النفسية. وفي حالاتٍ أخرى، يسعى البعض، بكلّ بساطة، وراء محادثات خالية من الأحكام المسبقة، فيشاركون تجاربهم المرتبطة بالصدمات والقلق والوحدة والحزن، في محادثات يعتقدون أنّها خاصة وسرّية.
يُعتبر نموذج “تشات جي بي تي” (ChatGPT) رائداً في تقريب العلاقة بين روبوتات الدردشة والأشخاص. ومع شعور شركات مثل “ميتا” بأنّها تأخّرت في مواكبة هذا المجال، بدأت بتطوير روبوتاتها الخاصة، التي تحاكي البشر في الحديث.
“ميتا إي آي” Meta AI هو نظام ذكاء اصطناعي توليدي طوّرته شركة “ميتا”، وهو مُدمج ضمن منصات الشركة مثل “فيسبوك” و”إنستغرام” و”مسنجر” و”واتساب”. يعتمد هذا النظام طريقة عمل مشابهة لنماذج اللغة الكبيرة الأخرى مثل”تشات جي بي تي” من “أوبن إي آي” (OpenAI) أو “جيميناي” (Gemini) من “غوغل”، ويتيح للمستخدمين التفاعل مع المساعد الذكي لطرح الأسئلة، أو إنشاء محتوى، أو طلب نصيحة، أو تنفيذ مهام إبداعية.
ما يُميز “ميتا إي آي” هو أنّه يتكامل بشكلٍ عميق مع تطبيقات المُراسلة والتواصل الاجتماعي التي يستخدمها الأفراد أساساً. فلا حاجة إلى الدخول إلى منصة منفصلة، لأنّ الروبوت يتوفر مباشرةً ضمن واجهة المستخدم في تطبيقات “ميتا”، غالباً بجانب شريط البحث أو داخل سلاسل الرسائل.
يُروَّج لنموذج “ميتا إي آي” على أنّه مساعدٌ مفيد قادر على تلخيص المقالات أو صياغة الرسائل أو الإجابة عن الأسئلة الشخصية، إلّا أنّه يُثير تساؤلات جدّية بشأن الشفافية وطريقة جمع البيانات والموافقة. على سبيل المثال، إذا لم تكن طلبات المستخدمين محمية صراحة، قد تُخزَّن أو تُحلَّل أو تُستخدَم لاحقاً لتدريب الذكاء الاصطناعي. وبسبب غياب الحدود الواضحة بين البيانات الشخصية، وبنية المنصة، تنشأ مخاطر عدّة متعلّقة بالخصوصية.
تكمن المشكلة الأساسية في أنّ واجهة “ميتا إي آي” تسهّل، وحتى تشجّع، مشاركة المحادثات الحسّاسة بشكل علني. ويجهل كثيرون أنّ تفاعلهم مع روبوت الدردشة، والذي يتضمّن معلومات شخصية أو طبية أو مالية أو حتى الاعترافات، يُنشَر ضمن خلاصة متاحة للعلن. فلم يكن واضحاً من واجهة المستخدم أنّ المحادثات مع الذكاء الاصطناعي تغذّي مكتبة عامة يستطيع الجميع “استكشافها”، لا سيّما أنّ هذه الميزة تختبئ وراء خيار بسيط لحفظ المحادثات الشخصية أو تصديرها. نتيجة لذلك، نُشر للعلن كمٌ هائل من المعلومات الشخصية أو حتى الضارة، والتي ترتبط أحياناً بحسابات أو أنماط يمكن تحديدها.
تُذكّرنا هذه الديناميكية بحادثة AOL الشهيرة عام 2006، حين أُفصِح عن سجلات البحث للمستخدمين التي يُفترَض أنّها كانت مجهولة الهوية. إلّا أنّه سُرعان ما تبيّن أنّه يمكن التعرّف على الأفراد المعنيين بسهولة من خلال طلبات البحث. في ذلك الوقت، كما الآن، لم تكن المشكلة في ما إذا كانت البيانات مجهولة الهوية تقنياً أو ما إذا ضغط المستخدمون “نعم” في مرحلة ما، بل كان السؤال الأهم هو: هل فهمت المنصة فعلاً عواقب ما حدث؟ وهل اتخذت خطوات جادّة لحماية المستخدمين من الضرر؟
لا نجد فقط تشابهاً بين فضيحة AOL ونهج “ميتا” الحالي، بل نستنتج نمطاً ثابتاً يشير إلى فشل المنصات التكنولوجية الكبرى في التعامل مع بيانات المستخدمين على أنّها شخصية، وسياقية، وحسّاسة.
استجابةً لهذه الانتقادات، أضافت “ميتا” نافذة تحذيرية تظهر للمستخدمين قبل أن يستخدموا ميزة الذكاء الاصطناعي وتتيح لهم حذف الطلبات التي تمت مشاركتها سابقاً. مع ذلك، لا يمكن اعتبار هذه الخطوة حلاً جذرياً. فهذه النافذة تظهر مرّة واحدة فقط، ومن السهل تجاهلها، كما أنّها لا تعالج الخلل الأساسي في التصميم، والمتمثل في استخدام مصطلحات مبهمة واعتماد موضع غير واضح لخيار “المشاركة”. وتحتفظ “ميتا” بحق استخدام طلبات المستخدمين في تدريب نماذجها، من دون منحهم آلية واضحة لرفض هذا الاستخدام، فالموافقة التي يمنحونها غير محددة، ومبهمة، وقد تكون مخالفة لقوانين حماية البيانات مثل اللائحة العامة لحماية البيانات (GDPR) وقانون خصوصية المستهلك في كاليفورنيا (CCPA)، اللذين يشترطان أن تكون الموافقة حرّة، ومحددة، ومستنيرة، وواضحة.
من الطبيعي إذاً طرح تساؤلات حول تصميم الواجهات المبني على “الأنماط المظلمة” (Dark Patterns)، أي توجيه المستخدمين نحو مشاركة معلومات شخصية من دون أن يدركوا تماماً التتبعات. وبسبب هذه الممارسات، تجد شركة “ميتا” نفسها في وضعٍ قانوني حساس، لأنّ ممارساتها قد تُعتبَر أحياناً مضلّلة أو تلاعبيّة وتخالف اللوائح التنظيمية. فعلى سبيل المثال، تفرض اللائحة الأوروبية العامة لحماية البيانات أن تكون البيانات محمية تلقائياً ومن خلال التصميم، ما يفرض تقديم إعدادات واضحة واختيارية تتيح للمستخدم التحكم في استخدام بياناته ومشاركتها. حالياً، يبدو أنّ خيارات التصميم في “ميتا إي آي” تخدم أغراض جمع البيانات وتعزيز التفاعل على حساب احترام حقوق المستخدم واستقلاليته.
من منظورٍ تنظيميّ وحقوقي، الرسالة واضحة: لا بدّ للمنصات أن تتجاوز مجرّد إضافة التحذيرات المنبثقة السطحية وتلتزم فعلاً بمبدأ “الخصوصية من خلال التصميم”. ويجب ألا تكون المشاركة العلنية هي الخيار التلقائي أبداً، كما يجب أن تفرّق واجهات المستخدمين بوضوح بين الاستخدام الشخصي والنشر العام، وأن يستند تدريب النماذج إلى موافقة حقيقية لا إلى بنودٍ مبهمة.
من المؤسف أنّنا لم نتعلّم من حادثة عام 2006، ونمرّ في تجربة مماثلة في عام 2025. فسلوك “ميتا” يثبت أنّه من دون ضغطٍ واضح من الهيئات التنظيمية، ومنظمات الرقابة، والمجتمع المدني، لا أمل في التعلّم من أخطاء الماضي.
ليست هذه الحادثة الأولى من نوعأ، معزولة، بل جزءٌ من جهود أوسع لنشر الذكاء الاصطناعي ضمن بيئات تقنية احتكارية، حيث تُستغلّ بيانات المستخدم بشكلٍ منهجي من خلال الغموض المُتعمَّد. وكلّما ازداد اندماج روبوتات الدردشة في حياتنا اليومية، ازدادت أهمية الخيارات التصميميّة في حماية الخصوصية. لا شكّ أنّ للقانون دور كبير، ولكنّ الأهم الآن هو دفع الشركات نحو احترام المبادئ التي يجب أن توجّه تصميم التكنولوجيا، كالكرامة، والشفافية، وضبط النفس.