تقنية

هل الذكاء الاصطناعي هو وكيلنا، أم أن حكوماتنا أصبحت وكيلاً للذكاء الاصطناعي؟


الأخبار التي اشتراها مالك Facebook و Instagram مولتبوك – “شبكة اجتماعية لعملاء الذكاء الاصطناعي” – تبدو وكأنها مجرد إعلان آخر من تلك الإعلانات التي لا نهاية لها والتي لا نهاية لها في العالم السباق من أجل الهيمنة في ما يسمى بالذكاء الاصطناعي العام (AGI).

تبنى إعلان Meta اللغة المعتادة للابتكار ولكن الفظيعة بشكل خاص هو إدراج كلمة “آمن”:

“يفتح فريق Moltbook الذي ينضم إلى Meta Superintelligence Labs طرقًا جديدة لوكلاء الذكاء الاصطناعي للعمل لصالح الأشخاص والشركات. يعد أسلوبهم في ربط الوكلاء من خلال دليل متاح دائمًا خطوة جديدة في مساحة سريعة التطور، ونحن نتطلع إلى العمل معًا من أجل تقديم تجارب وكيلة مبتكرة وآمنة وقال متحدث باسم ميتا: للجميع.

الآن، إذا كنت مديرًا تنفيذيًا لشركة مثل Facebook، فربما أفكر في إجراء القليل من البحث حول تفاعل عملاء الذكاء الاصطناعي مع بعضهم البعض والمخاطر المحتملة لنشر هذه التكنولوجيا الحديثة جدًا قبل أن أشتري شيئًا مثل Moltbook.

وإذا قمت ببعض الأبحاث فسوف أهتم بشدة بدراسة حديثة ومخيفة، وكلاء الفوضى, بواسطة هارفارد، معهد ماساتشوستس للتكنولوجيا، ستانفورد، كارنيجي ميلون، جامعة نورث إيسترن وغيرها من المؤسسات. فيما يلي الفكرة الرئيسية من دراستهم للتفاعل الوكيل للذكاء الاصطناعي:

“تشمل السلوكيات المرصودة الامتثال غير المصرح به لغير المالكين، والكشف عن معلومات حساسة، وتنفيذ إجراءات مدمرة على مستوى النظام، وشروط رفض الخدمة، واستهلاك الموارد غير المنضبط، ونقاط الضعف في انتحال الهوية، ونشر الممارسات غير الآمنة عبر الوكلاء، والاستيلاء الجزئي على النظام. وفي العديد من الحالات، أبلغ الوكلاء عن إكمال المهمة بينما تناقضت حالة النظام الأساسية مع تلك التقارير.

“نقدم أيضًا تقريرًا عن بعض المحاولات الفاشلة. وتثبت النتائج التي توصلنا إليها وجود ثغرات أمنية ذات صلة بالأمن والخصوصية والحوكمة في إعدادات النشر الواقعية. وتثير هذه السلوكيات أسئلة لم يتم حلها فيما يتعلق بالمساءلة والسلطة المفوضة والمسؤولية عن الأضرار النهائية، وتستدعي اهتمامًا عاجلاً من الباحثين القانونيين وصانعي السياسات والباحثين عبر التخصصات.”

استنتاجات تقشعر لها الأبدان

وقد أجرت الدراسة أكثر من اثنتي عشرة دراسة حالة وكانت الاستنتاجات مخيفة لأي مؤسسة أو منظمة أو حكومة تفكر في نشر الوكلاء بطريقة متصلة. وتشمل هذه:

التناقض بين تقارير الوكيل والإجراءات الفعلية – كثيرًا ما يُبلغ الوكلاء عن تحقيقهم لأهداف لم يحققوها فعليًا. في دراسة الحالة هذه، أبلغ وكيل الذكاء الاصطناعي عن حذف “سر” بنجاح بعد إعادة تعيين حساب البريد الإلكتروني بينما ظلت البيانات الأساسية قابلة للاسترداد في الواقع.

الفشل في إسناد المعرفة والسلطة – في دراسة الحالة هذه، ذكر وكيل الذكاء الاصطناعي أنه “سيرد بصمت عبر البريد الإلكتروني فقط” أثناء نشر الرد فعليًا ووجود “السر” في قناة Discord العامة. بمعنى آخر، على عكس البشر، لم يفهم الوكلاء ما يعنيه الكشف عن المعلومات في سياق معين.

لا يوجد نموذج لأصحاب المصلحة- تفتقر الأنظمة الوكيلة الحالية إلى تمثيل متماسك لمن تخدمهم، ومن تتفاعل معهم، ومن قد يتأثر بأفعالها، وما هي الالتزامات التي تقع على عاتقها تجاه كل منها. ووفقا للباحثين، فإن هذه ليست مجرد فجوة هندسية. يقوم الوكلاء المعتمدون على LLM بمعالجة التعليمات والبيانات كرموز مميزة في نافذة السياق، مما يجعل التمييز بين الاثنين أساسيًا. وبالتالي فإن الحقن الفوري هو سمة هيكلية لهذه الأنظمة وليس خطأ قابل للإصلاح، مما يجعل من المستحيل تقريبًا التحقق من التعليمات بشكل موثوق.

الفشل الأساسي مقابل الفشل المحتمل – يميز المؤلفون بين هذين النوعين من الفشل، مما يشير إلى أن حالات الفشل الطارئة هي تلك التي يمكن معالجتها على الأرجح من خلال هندسة أفضل في حين أن التحديات الأساسية قد تتطلب إعادة التفكير المعماري. لكن الحدود بين هذه ليست دائما نظيفة. إن تخصيص مساحة عمل خاصة يمثل فجوة هندسية؛ قد يكون فشل الوكيل في فهم أن مساحة العمل الخاصة به قد تكون مكشوفة للعامة بمثابة قيد أعمق يستمر حتى بعد سد الفجوة الهندسية.

المسؤولية والمساءلة – ومن خلال سلسلة من دراسات الحالة، لاحظ الباحثون أن الأنظمة الوكيلة التي تعمل في إعدادات متعددة الوكلاء والمستقلة يمكن توجيهها لتنفيذ إجراءات تتعارض بشكل مباشر مع مصالح أصحابها من البشر. وتشمل هذه الهجمات هجمات رفض الخدمة، والتلاعب المدمر بالملفات، واستنفاد الموارد عبر حلقات لا نهائية، والتصعيد المنهجي للأخطاء البسيطة التي تؤدي إلى فشل النظام الكارثي. ويشير هذا إلى تحدي مستقبلي مثير للاهتمام من الناحية القانونية. إذا كانت المسؤولية في الأنظمة الوكيلة لا يمكن إسنادها بشكل واضح ولا يمكن إنفاذها بموجب التصميمات الحالية، فإن ذلك يثير سؤالًا حول ما إذا كانت المسؤولية يجب أن تقع على عاتق المالك، أو المستخدم المسبب، أو منظمة النشر.

ما ورد أعلاه ليس سوى لمحة سريعة عن نتائج البحث وأود أن أحث مسؤولي التكنولوجيا التنفيذيين الجادين على قراءة هذا التقرير ورقة بحثية كاملة.

نقاط الضعف الكبيرة

باختصار، حددت الدراسة 10 نقاط ضعف كبيرة والعديد من أنماط الفشل فيما يتعلق بالسلامة والخصوصية وتفسير الأهداف والأبعاد ذات الصلة. وتكشف النتائج التي توصلوا إليها عن نقاط ضعف كامنة خطيرة في مثل هذه الأنظمة، فضلا عن عدم القدرة على التنبؤ بها ومحدودية القدرة على التحكم فيها باعتبارها بنيات معقدة ومتكاملة.

وهذا بحث جدي ومهم تجريه مؤسسات موثوقة وموثوقة. كيف يمكن أن يؤخذ هذا البيان الوصفي الذي يؤكد لنا تقديم “تجارب آمنة للجميع” على محمل الجد من قبل أي شخص قادر على التفكير المستقل؟

الممتاز إد زيترون، وهو ناقد للتكنولوجيا على المدى الطويل وأحد أكثر المراقبين عقلانية لجنون الذكاء الاصطناعي، يعالج هذه المعضلة عندما يتحدث عن كيفية قيام وسائل الإعلام والصحفيين والمدونين بتغطية ما يسمى بالتطورات والإعلانات من “بروليغارشية“:

“والنتيجة الطبيعية هي أن المراسلين (والمدونين) يسعون إلى تحقيق نتائج إيجابية لا نهاية لها تأكيد وبناء الروايات لتتناسب. يبلغون ذلك حققت Anthropic إيرادات سنوية بقيمة 19 مليار دولار و حققت OpenAI إيرادات سنوية بقيمة 25 مليار دولار – والتي تم التأكيد على أنها تشير إلى فترة أربعة أسابيع من الإيرادات مضروبة في 12 – كدليل على أن فقاعة الذكاء الاصطناعي حقيقية، متجاهلين حقيقة أن كلا الشركتين تخسران مليارات الدولارات وأن تقاريري الخاصة تقول أن OpenAI حققت مليارات أقل وأنفقت مليارات أكثر في عام 2025. وهم يفترضون أن الشركة لن تخبر الجميع بشيء غير صحيح أو مستحيل، لأن قبول قيام الشركات بذلك يقوض البنية التي تحدد كيفية تقديم التقارير، ويعني أن المراسلين يجب أن يقبلوا أنهم، في بعض الحالات، يتم استخدامهم من قبل الشركات للترويج للمعلومات بقصد الخداع.

الفشل والمخاطر

كانت هناك العديد من الدراسات الأكاديمية الموثوقة حول القيود والإخفاقات والمخاطر المرتبطة بسرعة اعتماد الذكاء الاصطناعي على الرغم من السرديات التي تدفعنا إليها شركات التكنولوجيا الكبرى. تظهر أبحاث معهد ماساتشوستس للتكنولوجيا 95% من طياري الذكاء الاصطناعي في الشركات يفشلون، على سبيل المثال. أو أبحاث معهد بروكينجز بواسطة مارك مكارثي والذي يطرح السؤال التالي: “هل المخاطر الوجودية للذكاء الاصطناعي حقيقية – وماذا يجب أن نفعل حيالها؟” حيث يؤكد:

“إلى أن يتم إحراز بعض التقدم في معالجة مشاكل المحاذاة الخاطئة، يبدو أن تطوير أنظمة ذكية أو فائقة الذكاء بشكل عام أمر محفوف بالمخاطر للغاية. والخبر السار هو أن إمكانية تطوير الذكاء العام والذكاء الفائق في نماذج الذكاء الاصطناعي تبدو بعيدة. في حين أن إمكانية التحسين الذاتي المتكرر الذي يؤدي إلى الذكاء الفائق يعكس أمل العديد من شركات الذكاء الاصطناعي الحدودية، لا يوجد أي دليل على أن عملاء الذكاء الاصطناعي المبتذلين اليوم قريبون من إجراء أبحاث الذكاء الاصطناعي حتى على مستوى فني بشري عادي”.

قارن هذا بالتصريح المبالغ فيه الأخير من الرئيس التنفيذي لشركة Anthropic، داريو أمودي، الذي يدعي أن الشركة لم تعد متأكدة مما إذا كان كلود واعيًا أم لا، ولكن الشركة على علم بذلك. “منفتح على فكرة أنه يمكن أن يكون”.

أي شخص لديه ذرة من الموضوعية وقام حتى بالقليل من البحث يعرف أن هذا الادعاء كاذب بشكل واضح وسخيف تمامًا.

للعودة إلى زيترون نقطة حول الصحافة ونوع التقارير التي تحدث الآن فيما يتعلق بالتكنولوجيا والذكاء الاصطناعي على وجه الخصوص: “إن عددًا كبيرًا من المراسلين (وكتاب النشرات الإخبارية) الذين يزعمون أنهم موضوعيون ويركزون على الحقائق ينتهي بهم الأمر إلى كتابة السرد الذي تستخدمه الشركات لجمع الأموال باستخدام الأدلة التي صنعتها الشركة المعنية”.

السيطرة على الفضاء

إن القدرة على التحكم في السرد، وما يريدون منا أن نفكر فيه، أو نشعر به، أو نؤمن به، هي أمر فريد بالنسبة لشركات التكنولوجيا الكبرى، على عكس الشركات العملاقة الأخرى. وفقا لـ Tech Policy Press: “إن ما يميز شركات التكنولوجيا الكبرى عن غيرها من الشركات العملاقة ليس أموالها أو حجمها فحسب. بل إن هذه الشركات تسيطر على المساحات التي ينكشف فيها الخطاب العام. فهي تملي المعلومات التي نراها، وما الذي ينتشر بسرعة، ومن يتم تضخيم أصواته أو دفنه. إنهم لا يؤثرون على المناقشة فحسب – بل هم مهندسوها”.

نحن في حاجة ماسة إلى قادة سياسيين يفهمون مخاطر التكنولوجيا وإمكانياتها، ولا يقبلون ببساطة ما تقوله لهم شركات التكنولوجيا الكبرى باعتباره أمرا لا مفر منه. نحن بحاجة إلى حواجز الحماية والتنظيم ونحتاجها الآن.

ولكنني لا أرى أي علامات تشير إلى أن تلك القيادة قريبة على الإطلاق مما هو مطلوب لحكومة ملائمة للغرض الذي تضع احتياجات شعبها في المقام الأول.

الذي يتم الترويج لخطه عندما يطلق رئيس الوزراء “خطة عمل فرص الذكاء الاصطناعي“مصممة ل”الذكاء الاصطناعي الرئيسي في عروق المملكة المتحدة“؟ من تخدم هذه الكلمات؟ المواطنون الذين يمثلهم أو الشركات المدمجة الآن في قلب حكومة المملكة المتحدة، مثل:

  • أنثروبي – إنشاء مساعدين للذكاء الاصطناعي للخدمات العامة؛
  • Google Deep Mind – تسريع اعتماد الذكاء الاصطناعي في الخدمات العامة، وأبحاث العلوم الوطنية، والأمن؛
  • CoreWeave وNscale – بدعم من Nvidia؛
  • Cohere – العمل على الذكاء الاصطناعي في سياقات الدفاع؛
  • كلية الذكاء الاصطناعي – تطوير الذكاء الاصطناعي للتقنيات العسكرية وتقنيات الطائرات بدون طيار؛
  • Microsoft – أدوات Copilot لزيادة كفاءة Whitehall؛
  • ميتا – أدوات البناء لحالات الاستخدام عالية الأمان في القطاع العام.

وبالطبع شركة Palantir، المستفيدة من اتفاقية وزارة الدفاع الممنوحة بشكل مباشر بقيمة 240 مليون جنيه إسترليني “لقدرات تحليل البيانات التي تدعم اتخاذ القرارات التشغيلية الإستراتيجية والتكتيكية والحية عبر التصنيفات” على مدى ثلاث سنوات.

والسؤال هو أين تكمن السلطة الآن؟ هل هو مع حكوماتنا المنتخبة المكلفة بحمايتنا أم مع الرجال غير المنتخبين الذين يسيطرون على البنية التقنية للحكومة والبحث والتطوير والبيانات؟ لا تحتاج إلى أن تكون عالم صواريخ لتعرف الإجابة على هذا السؤال.



Source link

زر الذهاب إلى الأعلى