يبدأ اللوردات التحقيق في نماذج اللغات الكبيرة
أطلقت لجنة الاتصالات والرقمية التابعة لمجلس اللوردات تحقيقًا في المخاطر والفرص التي توفرها النماذج اللغوية الكبيرة (LLMs)، وكيف ينبغي لحكومة المملكة المتحدة أن تستجيب لانتشار التكنولوجيا.
LLMs هي نوع من التعلم الآلي الذي يدعم أدوات الذكاء الاصطناعي التوليدي (AI) مثل ChatGPT من OpenAI أو Stable Diffusion من Stability AI، والتي يتم تدريبها على كميات هائلة من البيانات لإنشاء مخرجات تعتمد في الغالب على النصوص.
تم إطلاق التحقيق رسميًا بدعوة للحصول على أدلة مكتوبة في بداية يوليو 2023، وهو الآن في طور عقد جلسات أدلة شفهية مع العديد من الشهود الخبراء، مع التركيز بشكل خاص على كيفية تطور ماجستير القانون على مدى السنوات الثلاث المقبلة وكيف يمكن للحكومة يجب أن نقترب من التكنولوجيا للمضي قدمًا.
“إن أحدث نماذج اللغات الكبيرة تقدم فرصًا هائلة وغير مسبوقة. وقالت رئيسة اللجنة البارونة بيستون: “تشير المؤشرات المبكرة إلى حدوث تغييرات زلزالية ومثيرة”.
“لكن علينا أن نكون واضحين بشأن التحديات. ويتعين علينا أن نحقق في المخاطر بالتفصيل وأن نتوصل إلى أفضل السبل لمعالجتها ــ دون خنق الإبداع في هذه العملية. ويتعين علينا أيضاً أن نكون واضحين بشأن من يملك السلطة مع تطور هذه النماذج وتحولها إلى جزء لا يتجزأ من الأعمال اليومية والحياة الشخصية.
“يجب أن يحدث هذا التفكير بسرعة، نظرًا للسرعة الهائلة التي يتم إحرازها. لا ينبغي لنا أن نسمح للتوقعات الأكثر رعباً بشأن القوة المستقبلية المحتملة للذكاء الاصطناعي بأن تصرف انتباهنا عن فهم ومعالجة المخاوف الأكثر إلحاحاً في وقت مبكر. وبالمثل، يجب ألا نقفز إلى الاستنتاجات وسط هذه الضجة”.
جلسة الأدلة الأولى
خلال جلسة الأدلة الأولى في 12 سبتمبر/أيلول، تحدث إيان هوغارث، وهو مستثمر ملاك ورائد أعمال في مجال التكنولوجيا ويشغل الآن منصب رئيس اللجنة الحكومية فرقة عمل الحدود للذكاء الاصطناعي، أشار إلى أن التطوير المستمر وانتشار LLMs سيكون مدفوعًا إلى حد كبير بالوصول إلى الموارد، سواء من الناحية المالية أو من حيث القوة الحاسوبية.
“أصبحت الحوسبة أرخص، لذا أصبح المزيد من الأشخاص قادرين على بناء هذه النماذج. إذا استخدمنا التاريخ كدليل، فعندما قامت OpenAI بتدريب GPT-3، كان هناك نموذج واحد بمقياس GPT-3 في العالم، والآن يجب أن يكون هناك أكثر من 100 نموذج. عندما قامت OpenAI بتدريب GPT-4، كان هناك نموذج مصغر واحد لـ GPT-4، ومن المحتمل أن يكون هناك 10 بحلول منتصف العام المقبل.
“أعتقد أن الأمر قد لا يستمر بنفس السرعة، ولكننا سنبقى على وتيرة أسية حيث ترى زيادة بمقدار 10 مرات في الحوسبة في فترة معينة. والسبب في ذلك هو أن هناك مبلغًا ضخمًا من المال يجب تحقيقه.
“سيتم استخدام هذه الأدوات للعديد من الأغراض التجارية، وبالتالي فإن حجم الأموال المستثمرة في جعل هذه الأنظمة أكثر قوة سيزداد، كما حدث بالفعل. قبل عقد من الزمن، تم استثمار 20 مليون دولار في الشركات التي تحاول بناء ذكاء اصطناعي فائق الذكاء، والآن يبلغ المبلغ 20 مليار دولار. هناك سباق يحدث بين الشركات والدول لبناء هذه الأنظمة القوية للغاية”.
فيما يتعلق بعمله في Taskforce، أضاف هوغارث أن تركيزه على مدار الـ 11 أسبوعًا الماضية منذ إطلاقه كان يستخدم ميزانيته البالغة 100 مليون جنيه إسترليني لجلب المواهب الفنية عالية المستوى إلى الحكومة، حتى تتمكن من التعامل بسهولة أكبر مع التحديات التي تطرحها مختلف التحديات. أشكال الذكاء الاصطناعي والتنافس مع الخبرات المتوفرة في القطاع الخاص.
وقال: “لدينا حتى الآن 10 أشخاص يتمتعون بخبرة حدودية حقيقية، من مستوى الدكتوراه إلى مستوى الأستاذية في هذا المجال”. “هذه هي بعض من أصعب الشركات في توظيف الأشخاص في العالم في الوقت الحالي. إنه تحدي حقيقي. أنت تعرض جلب الناس إلى القطاع العام بينما يُعرض عليهم 10 أضعاف هذا المبلغ للبقاء في القطاع الخاص.
ومع ذلك، أشار نيل لورانس، أستاذ التعلم الآلي في جامعة كامبريدج وعضو المجلس الاستشاري السابق في المركز الحكومي لأخلاقيات البيانات والابتكار، إلى أن مبلغ الـ 100 مليون جنيه إسترليني المخصص لفريق العمل يتضاءل مقارنة بمصادر التمويل الحكومية الأخرى.
“السيد هوغارث هنا يمثل استثمارًا بقيمة 100 مليون جنيه إسترليني على مدى خمس سنوات. ال [UK Research and Innovation] قال: “إن ميزانية UKRI تبلغ حوالي 7 مليارات جنيه إسترليني سنويًا”، مضيفًا أنه لم يتم إيلاء سوى القليل من الاهتمام للاستثمارات العامة السابقة في الذكاء الاصطناعي، بما في ذلك 30 مليون جنيه إسترليني مخصصة للذكاء الاصطناعي. مركز الأنظمة المستقلة الجدير بالثقة.
“أنا متوتر قليلاً بشأن كل هذا الاهتمام باستثمار صغير. دعونا نكون صريحين للغاية: إنني أقدر أن هذه أموال عامة، ولكن نظراً لحجم الاستثمار الذي نتحدث عنه، وحجم التحدي المتمثل في إحداث ثورة في الطريقة التي نفكر بها في العديد من مؤسساتنا، فإن هذا ليس بالأمر الصعب. اموال كثيرة.”
وتعليقًا على التطورات في الولايات المتحدة، أضاف لورانس أنه أصبح من المقبول بشكل متزايد أن الطريقة الوحيدة للتعامل مع الذكاء الاصطناعي هناك هي السماح لشركات التكنولوجيا الكبرى بأخذ زمام المبادرة: “ما يقلقني هو أنه إذا كانت التكنولوجيا الكبيرة هي المسيطرة، فإننا سنحصل فعليًا على حكم استبدادي من خلال السيطرة على الذكاء الاصطناعي”. الباب الخلفي. يبدو الأمر وكأنه، حتى لو كان ذلك صحيحا، إذا كنت تريد الحفاظ على ديمقراطيتك، عليك أن تبحث عن حلول مبتكرة.
وشبه ذلك بإنتاج النصوص المكتوبة قبل اختراع المطبعة، وأضاف أن جزءًا من مشكلة الذكاء الاصطناعي هو “أن أجهزة الكمبيوتر يتم التحكم فيها من قبل المعادل الحديث للكتبة”.
“إن مهنة هندسة البرمجيات موجودة في المعادل الحديث للنقابات وتتمتع بقدر لا يصدق من السلطة على الحكومات. الكثير من الأشياء التي ننظر إليها تتعلق بكيفية التعامل مع عدم تناسق القوى. خلال فترة وجودي في مجلس الذكاء الاصطناعي، عندما كان موجودًا، كان هذا هو نوع السؤال الذي كنا نشعر بالقلق بشأنه.
الثقة والمساءلة
كما حذر لورانس وآخرون من أن حاملي شهادة الماجستير في القانون لديهم القدرة على تقليل الثقة والمساءلة بشكل كبير إذا تم منحهم دورًا أكبر من اللازم في صنع القرار.
“أجلس هنا أمامكم مرتدياً سترة أخي المتوفي – كان محامياً – لأنني أريده معي اليوم. لا يمكن لنموذج اللغة الكبير أن يقول لك ذلك أبدًا. أجلس هنا مع سمعة. وقال: “الدليل الذي أقدمه لك يعتمد على العمل الذي قمت به ومن أنا في المجتمع”.
“إننا نتشتت انتباهنا للغاية بسبب الجوانب الفنية الخاصة بالأمر، في حين أنه ينبغي لنا، في كثير من الأحيان، أن ننظر في كيفية ضمان أن هذه الأمور [models] هي تمكين الناس في عملية صنع القرار، وليس استبدال الناس في عملية صنع القرار التبعية.
كان التهديد المتمثل في الاستعانة بمصادر خارجية فعالة لـ LLMs في “اتخاذ القرارات اللاحقة” مصدر قلق كبير أبرزته الدراسة. أدلة مكتوبة دان ماكويلان، محاضر في الحوسبة الإبداعية والاجتماعية الذي تحدث سابقًا إلى Computer Weekly حول الحاجة إلى تغيير اجتماعي “مجازي” لمقاومة فرض الذكاء الاصطناعي على المجتمع من قبل مجموعة صغيرة نسبيًا من الناس في الحكومة والقطاع الخاص.
وكتب: “إن الخطر الأكبر الذي تشكله نماذج اللغة الكبيرة هو رؤيتها كوسيلة لحل المشاكل الهيكلية الأساسية في الاقتصاد وفي الوظائف الرئيسية للدولة مثل الرعاية الاجتماعية والتعليم والرعاية الصحية”.
“إن تحريف هذه التقنيات يعني أنه من المغري للشركات أن تعتقد أنها قادرة على استعادة الربحية على المدى القصير من خلال استبدال العمال بنماذج لغوية كبيرة، وأن تتبنى المؤسسات هذه النماذج كوسيلة لإنقاذ الخدمات العامة من التقشف المستمر والطلب المتزايد.
“ليس هناك شك في أن هذه الجهود سوف تفشل. والسؤال المفتوح هو ما هو حجم أنظمتنا الحالية التي ستحل محلها نماذج لغوية كبيرة بحلول الوقت الذي يصبح فيه هذا الأمر واضحًا، وما هي العواقب طويلة المدى لذلك.
وأضاف أنه على الرغم من أنه سيكون هناك بلا شك “تطورات تقنية مثيرة للاهتمام” في ماجستير إدارة الأعمال على مدى السنوات الثلاث المقبلة، إلا أن أيًا من هذه التطورات لن يتغلب على المشكلات الأساسية التي تمنعهم من أن يكونوا جديرين بالثقة أو غير متحيزين أو منتجين حقًا.
“في نماذج اللغات الكبيرة، العيب الأكثر صعوبة هو أن عملياتها يتم تحسينها على أساس المعقولية وليس السببية. بمعنى آخر، إنهم يولدون استجابات مشابهة إحصائيًا لتلك الموجودة في مجموعة بيانات التدريب الخاصة بهم، ويتم تنقيحها من خلال مجموعة من الإرشادات الإضافية للمصداقية وعدم السمية ولكن بدون آلية للتحقق من الواقعية، لذلك لن نتمكن أبدًا من تصديقهم بشكل كامل حتى عندما “يبدو صحيحًا”.
إن إطلاق تحقيق اللجنة هو الأحدث من بين العديد من التحقيقات البرلمانية التي تم إنشاؤها للتحقيق في مختلف جوانب الذكاء الاصطناعي. والبعض الآخر يشمل التحقيق في حوكمة الذكاء الاصطناعي تم إطلاقه في أكتوبر 2022، للتحقيق في نظام الأسلحة المستقلة تم إطلاقه في يناير 2023، وآخر في الذكاء الاصطناعي التوليدي تم إطلاقه في يوليو 2023.
تحقيق اللوردات في استخدام الذكاء الاصطناعي والتقنيات الخوارزمية من قبل شرطة المملكة المتحدة انتهى في مارس 2022، تم نشر التكنولوجيا من قبل هيئات إنفاذ القانون دون إجراء فحص شامل لفعاليتها أو نتائجها، وأن المسؤولين عن عمليات النشر هذه هم في الأساس “يقومون باختلاق الأمر أثناء المضي قدمًا”.