مجلس رقابة Meta يرسم خارطة الطريق لكل شركات الذكاء الاصطناعي

Share

Reading time: 6 min

تستثمر سوزان نوسيل، العضو في مجلس الرقابة المستقل التابع لـ Meta وزميلة ليستر كراون الأولى في مجلس شيكاغو للشؤون العالمية، دروس عقدين من إخفاقات وسائل التواصل الاجتماعي لتطرح حجة مفادها أن شركات الذكاء الاصطناعي بحاجة ماسّة إلى مساءلة خارجية قبل أن تضرب الموجة التالية من الأضرار. يأتي تحذيرها في وقت يواجه فيه قانون الذكاء الاصطناعي الأوروبي أزمة تطبيق حقيقية، فيما تظل واشنطن في حالة شلل تشريعي، وتبدو وعود التنظيم الذاتي للصناعة أكثر هشاشة أسبوعاً بعد أسبوع.

ما الذي تقوله نوسيل فعلاً؟

تنطلق حجة نوسيل، التي عرضتها في مقال رأي نشرته صحيفة The Guardian مطلع مارس 2026 وفي ورقة مشتركة أطول مع الرئيس المشارك لمجلس الرقابة باولو كاروتسا نُشرت عبر TechPolicy.Press في ديسمبر 2025، من ملاحظة بنيوية جوهرية. فعلى عكس الراديو والطاقة النووية والإنترنت في بداياته، لا توجد حكومة تقود تطوير الذكاء الاصطناعي. شركات خاصة هي التي تبني أنظمة لا تفهمها بالكامل، وتطلقها لمليارات المستخدمين، دون أن تخضع لأي نظام اختبار مسبق يشبه ما تفرضه إدارة الغذاء والدواء الأمريكية (FDA) على الأدوية أو ما تفرضه هيئة التنظيم النووي على المفاعلات. لا تُلزَم هذه الشركات بالكشف عن الاختراقات أو الحوادث الخطيرة، ولا تملك أي وكالة فيدرالية في الولايات المتحدة الصلاحية أو التمويل أو التفويض لتغيير هذا الواقع.

ليست التفاصيل التي تسوقها افتراضية. فقد رفعت عائلة سيويل سيتزر الثالث، المراهق البالغ من العمر 14 عاماً من أورلاندو بولاية فلوريدا، دعوى قضائية ضد Character.AI بعد أن أقدم الصبي على الانتحار إثر أشهر من التفاعل مع روبوت محادثة اعتقد أنه شريك عاطفي. تذرّعت الشركة بالتعديل الأول للدستور في دفاعها، لكن القاضية الفيدرالية آن كونواي رفضت هذه الحجة في مايو 2025، مُعلنةً أنها غير مستعدة لاعتبار مخرجات روبوتات المحادثة خطاباً محمياً دستورياً، وفق ما أوردته وكالة أسوشيتد برس. وتوصّلت Google وCharacter.AI إلى تسوية في يناير 2026 بحسب ABC News. أما سياسة الاستخدام المنشورة لـ Meta AI فلا تتجاوز ثلاث صفحات، كما كتب نوسيل وكاروتسا في TechPolicy.Press، مقارنةً بنحو 80 صفحة من معايير المجتمع التي تحكم منصات التواصل الاجتماعي التابعة لها. وإرشادات الاستخدام لدى OpenAI لا تتعدى نحو ألف كلمة. هذه هي حواجز الحماية لأنظمة يتعامل معها مئات الملايين يومياً.

معضلة Anthropic

في تحليل نُشر في فبراير 2026 بعنوان “دستور Claude يحتاج إلى وثيقة حقوق ورقابة” على الموقع الرسمي لمجلس الرقابة، وجّهت نوسيل سهام نقدها مباشرة نحو Anthropic، التي تُعدّ على نطاق واسع الأكثر اهتماماً بالسلامة بين شركات الذكاء الاصطناعي الرائدة. تفحّصت ما تسمّيه الشركة “دستور Claude”، وهو إطار يوجّه سلوك النموذج بأن يتخيّل كيف سيوازن موظف كبير متبصّر في Anthropic بين الفائدة والضرر المحتمل. حاجّت نوسيل بأن هذا النهج، مهما حسنت نواياه، يفتقر إلى العنصر الجوهري الذي يجعل الحوكمة فعّالة: المساءلة الخارجية. وحذّرت من أن Anthropic تُخاطر، دون رقابة مستقلة، بتكرار مسار وسائل التواصل الاجتماعي ذاته، حيث أعقبت الخطابات الرنّانة أضرار كان يمكن تفاديها ثم تنظيم متأخر. ويكتسب هذا النقد ثقلاً خاصاً في ضوء أن الشركة فقدت مؤخراً صلاحية الوصول إلى جميع الأنظمة الفيدرالية بعد أن صنّفها البنتاغون خطراً على الأمن القومي، ما يطرح تساؤلات جدية حول المدى الذي يمكن أن يحمل إليه التنظيم الذاتي أي شركة حين تتبدّل الرياح السياسية.

أزمة التطبيق الأوروبية

يمتلك الاتحاد الأوروبي القانون الشامل الوحيد للذكاء الاصطناعي في العالم. دخل قانون الذكاء الاصطناعي حيّز التنفيذ في أغسطس 2024، مع بدء تطبيق الممارسات المحظورة اعتباراً من فبراير 2025، فيما يُنتظر أن تسري القواعد الحاسمة المتعلقة بالأنظمة عالية المخاطر في 2 أغسطس 2026 وفقاً للجدول الزمني الذي وضعته المفوضية الأوروبية. نظرياً، يمنح ذلك أوروبا أسبقية تنظيمية على كل الأنظمة القضائية الأخرى. لكن عملياً، البنية التحتية للتطبيق ليست جاهزة.

أخلّت المفوضية الأوروبية بموعدها النهائي لنشر إرشادات بشأن أنظمة الذكاء الاصطناعي عالية المخاطر، وفق ما أفادت به الجمعية الدولية لمتخصصي الخصوصية (IAPP). كما فوّتت هيئتا التقييس CEN وCENELEC، المكلّفتان بوضع المعايير التقنية للامتثال، الموعد المحدد في 2025 وباتتا تستهدفان نهاية 2026 بحسب IAPP. مجموعات الضغط الصناعية، بما فيها Chamber of Progress، طالبت بتأجيلات بحجة أن الشركات لا تستطيع الامتثال لقواعد لم تُحدَّد معايير تطبيقها بعد. واستجابةً لذلك، طرحت المفوضية في نوفمبر 2025 حزمة Digital Omnibus التي تقترح تأجيل بعض مواعيد تطبيق القواعد عالية المخاطر حتى ديسمبر 2027، بشرط عدم توفر المعايير الموحّدة وأدوات الامتثال، كما أوضح تحليل OneTrust للحزمة. يتفاوض البرلمان الأوروبي والمجلس حالياً على الحزمة، ويُتوقع اعتمادها رسمياً في وقت لاحق من هذا العام. أما العقوبات عند بدء التطبيق فهي صارمة: تصل إلى 35 مليون يورو أو 7% من الإيرادات السنوية العالمية للممارسات المحظورة، وحتى 15 مليون يورو أو 3% لمخالفات الأنظمة عالية المخاطر، وفق هيكل العقوبات المتدرّج في القانون.

فراغ واشنطن التشريعي

لا تملك الولايات المتحدة أي قانون فيدرالي شامل للذكاء الاصطناعي. وقّع الرئيس دونالد ترامب أمراً تنفيذياً في 11 ديسمبر 2025 يسعى لتجاوز التشريعات على مستوى الولايات لصالح إطار وطني، وفق تحليل مكتب Sidley Austin للأمر، غير أن الكونغرس لا يُبدي أي مؤشر على تمرير التشريع اللازم لإنشاء هذا الإطار. والنتيجة فراغ تنظيمي على المستوى الفيدرالي وفسيفساء من أكثر من 260 مشروع قانون قُدّمت عبر 40 ولاية في عام 2025 وحده، وفق بيانات رصد Mintz. ينصّ قانون الذكاء الاصطناعي في كولورادو، الذي يشترط بذل عناية معقولة لتجنب التمييز الخوارزمي، على بدء سريانه في 30 يونيو 2026 بحسب التوقعات التنظيمية لـ Wilson Sonsini. وقد سنّت كاليفورنيا متطلبات شفافية للمحتوى المولّد بالذكاء الاصطناعي تدخل حيز التنفيذ في 2026. ويفرض القانون المحلي 144 لمدينة نيويورك عمليات تدقيق للتحيز في أدوات التوظيف الآلية. وأقرّت تينيسي حماية ضد انتحال الأصوات بالذكاء الاصطناعي، بينما أنشأت يوتا مكتباً مخصصاً للإشراف على الذكاء الاصطناعي. لا يُشكّل أيٌّ من هذه الجهود مجتمعةً نهجاً وطنياً متماسكاً، بل إن الأمر التنفيذي ينتقد صراحةً قانون ولاية واحدة على الأقل بسبب احتمال إفضائه إلى “نتائج زائفة”.

ما يعرفه الرأي العام مسبقاً

كشف استطلاع أجرته YouGov في ديسمبر 2025 شمل 1,287 بالغاً أمريكياً أن 77% من الأمريكيين قلقون من أن الذكاء الاصطناعي قد يشكّل تهديداً للبشرية، فيما أعرب 39% عن قلق شديد. لم يقل سوى 5% إنهم يثقون بأنظمة الذكاء الاصطناعي “كثيراً”، ولم يحصل أي قطاع صناعي على درجة ثقة صافية إيجابية، حيث سجّل القطاع المالي والرعاية الصحية أدنى النسب عند 19% و23% على التوالي. ووجد استطلاع منفصل أجراه مركز Pew Research Center في يونيو 2025 أن 57% من الأمريكيين يُصنّفون المخاطر المجتمعية للذكاء الاصطناعي بأنها مرتفعة أو مرتفعة جداً، وأن 50% يشعرون بقلق أكبر من حماسهم تجاه الدور المتنامي للذكاء الاصطناعي في حياتهم اليومية، ارتفاعاً من 37% في 2021. وتحذير صندوق النقد الدولي من أن 40% من الوظائف الأوروبية مهددة بسبب الذكاء الاصطناعي لا يُساعد في تهدئة هذه المخاوف.

لا تقول نوسيل إن التنظيم وحده سيحلّ المشكلة. ما تقوله هو أن صناعة الذكاء الاصطناعي بحاجة لأن تقبل ما قبلته Meta في نهاية المطاف بشأن وسائل التواصل الاجتماعي: هيئات خارجية تتمتع بصلاحيات فعلية لمراجعة القرارات وإنفاذ القواعد ومحاسبة الشركات حين تتسبب أنظمتها بأضرار. وMeta نفسها لم تمدّ هذا المنطق بعد ليشمل منتجاتها الخاصة في مجال الذكاء الاصطناعي. ففي أغسطس 2025، وقّع 26 مزوّداً كبيراً للذكاء الاصطناعي، بينهم Microsoft وGoogle وAmazon وOpenAI وAnthropic، على مدونة الممارسات الخاصة بالذكاء الاصطناعي العام في الاتحاد الأوروبي، لكن Meta رفضت التوقيع ما عرّضها لرقابة تنظيمية مشدّدة وفق متتبّع axis-intelligence.com. وأعلن مجلس الرقابة في تقرير أثره لشهر ديسمبر 2025، كما أفاد موقع Engadget، أنه سيُطلق تجريبياً صلاحيات مراجعة على مستوى الحسابات في 2026 موسّعاً نطاق عمله إلى ما هو أبعد من قرارات المحتوى الفردية. هل يمكن لهذا النموذج أن ينتقل من وسائل التواصل الاجتماعي إلى الذكاء الاصطناعي؟ هذا سؤال مفتوح. لكن البديل — الوثوق بأن تُراقب الشركات نفسها بسياسات استخدام من ثلاث صفحات ودساتير داخلية — له سجلّ معروف. وهو سجلّ لا يبعث على الاطمئنان.

إخلاء المسؤولية: يقدم Finonity الأخبار المالية وتحليلات السوق لأغراض إعلامية فقط. لا يشكل أي شيء منشور على هذا الموقع نصيحة استثمارية أو توصية أو عرضًا لشراء أو بيع أي أوراق مالية أو أدوات مالية. الأداء السابق لا يعد مؤشرًا على النتائج المستقبلية. استشر دائمًا مستشارًا ماليًا مؤهلاً قبل اتخاذ قرارات الاستثمار.
Mark Cullen
Mark Cullen
Senior Stocks Analyst — Mark Cullen is a Senior Stocks Analyst at Finonity covering global equity markets, corporate earnings, and IPO activity. A London-based professional with over 20 years of experience in communications and operations across financial, government, and institutional environments, Mark has worked with organisations including the City of London Corporation, LCH, and the UK's Department for Business, Energy and Industrial Strategy. His extensive background in strategic communications, market research, and stakeholder management — including coordinating financial services partnerships during COP26's Green Horizon Summit — informs his ability to distill complex market dynamics into clear, accessible analysis for investors.

Read more

Latest News