أخبار التقنية

الجهات التنظيمية الصينية تبدأ اختبار نماذج GenAI على القيم الاشتراكية


الرمز الرقمي والعلم الصيني يمثلان الأمن السيبراني في الصين.

أنطون بيترس | لحظة | صور جيتي

تخضع شركات الذكاء الاصطناعي في الصين لمراجعة حكومية لنماذجها اللغوية الكبيرة، بهدف ضمان “تجسيدها للقيم الاشتراكية الأساسية”، وفقًا لتقرير صدر مؤخرًا. تقرير بقلم صحيفة الفاينانشال تايمز.

وتجري المراجعة من قبل إدارة الفضاء الإلكتروني في الصين (CAC)، وهي الهيئة التنظيمية الرئيسية للإنترنت في الحكومة، وستغطي اللاعبين في جميع المجالات، من عمالقة التكنولوجيا مثل ByteDance و علي بابا للشركات الناشئة الصغيرة.

وقالت صحيفة “فاينانشيال تايمز” إن مسؤولين محليين في هيئة الطيران المدني سيختبرون نماذج الذكاء الاصطناعي لمعرفة إجاباتها على مجموعة متنوعة من الأسئلة، التي تتعلق العديد منها بموضوعات حساسة سياسيا والرئيس الصيني شي جين بينج. كما سيتم مراجعة بيانات التدريب وعمليات السلامة الخاصة بالنموذج.

وقال مصدر مجهول من شركة الذكاء الاصطناعي في هانغتشو لصحيفة فاينانشال تايمز إن نموذجهم لم ينجح في اجتياز الجولة الأولى من الاختبارات لأسباب غير واضحة. وقالوا في التقرير إنهم نجحوا في المرة الثانية فقط بعد أشهر من “التخمين والتعديل”.

وتوضح الجهود الأخيرة التي بذلتها إدارة الفضاء والطيران الأميركية كيف سارت بكين على حبل مشدود بين اللحاق بالولايات المتحدة في مجال GenAI مع مراقبة تطور التكنولوجيا عن كثب، والتأكد من أن المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي يلتزم به الرقابة الصارمة على الانترنت سياسات.

يقول المحللون إن عام 2024 هو

وكانت البلاد من بين الدول الأولى التي أنهت القواعد التي تحكم الذكاء الاصطناعي التوليدي في العام الماضي، تضمنت التعديلات شرطًا يقضي بأن تلتزم خدمات الذكاء الاصطناعي “بالقيم الأساسية للاشتراكية” وألا تنتج محتوى “غير قانوني”.

ويتطلب تلبية سياسات الرقابة “تصفية أمنية”، وقد أصبح الأمر معقدًا لأن طلاب الماجستير في القانون الصينيين لا يزالون يتدربون على كمية كبيرة من المحتوى باللغة الإنجليزية، وفقًا لما قاله العديد من المهندسين والمطلعين في الصناعة لصحيفة “فاينانشيال تايمز”.

وبحسب التقرير، تتم عملية التصفية عن طريق إزالة “المعلومات الإشكالية” من بيانات تدريب نموذج الذكاء الاصطناعي، ثم إنشاء قاعدة بيانات للكلمات والعبارات الحساسة.

وتشير التقارير إلى أن هذه القواعد أدت إلى رفض برامج الدردشة الأكثر شعبية في البلاد الإجابة على أسئلة حول مواضيع حساسة مثل احتجاجات ميدان السلام السماوي عام 1989.

ومع ذلك، أثناء اختبار CAC، هناك حدود لعدد الأسئلة التي يمكن لطلاب الماجستير في القانون رفضها بشكل مباشر، لذا يجب أن تكون النماذج قادرة على توليد “إجابات صحيحة سياسياً” للأسئلة الحساسة.

وقال خبير في مجال الذكاء الاصطناعي يعمل على روبوت محادثة في الصين لصحيفة “فاينانشيال تايمز” إنه من الصعب منع برامج التعلم الآلي من توليد كل المحتوى الضار المحتمل، لذا فإنهم بدلاً من ذلك يقومون ببناء طبقة إضافية على النظام تحل محل الإجابات الإشكالية في الوقت الفعلي.

لقد جعلت اللوائح، فضلاً عن العقوبات الأمريكية التي قيدت الوصول إلى الرقائق المستخدمة لتدريب حاملي شهادات الماجستير في القانون، من الصعب على الشركات الصينية لإطلاق خدماتهم الخاصة المشابهة لـ ChatGPTومع ذلك، تهيمن الصين على السباق العالمي في براءات اختراع الذكاء الاصطناعي التوليدي.

اقرأ التقرير الكامل من الفاينانشال تايمز



Source link

زر الذهاب إلى الأعلى