تظهر استجابات “الإبادة الجماعية البيضاء” لـ Grok Gen Ai تم العبث بـ “في ويل”

محمد سليم كوركوتاتا | anadolu | غيتي الصور
في السنوات التي يزيد زائدها منذ أن استولت الذكاء الاصطناعي التوليدي على العالم بعد العاصفة بعد الإفراج العام عن chatgpt، كانت الثقة مشكلة دائمة.
الهلوسة، إن الرياضيات السيئة والتحيزات الثقافية قد ابتليت نتائج ، وتذكير المستخدمين بأن هناك حد لمقدار المبلغ الذي يمكننا الاعتماد عليه على الذكاء الاصطناعي ، على الأقل في الوقت الحالي.
إيلون موسك أظهر Grok chatbot ، الذي تم إنشاؤه بواسطة بدء التشغيل Xai ، هذا الأسبوع أن هناك سببًا أعمق للقلق: يمكن معالجة الذكاء الاصطناعى بسهولة من قبل البشر.
جروك يوم الأربعاء بدأ الاستجابة لاستفسارات المستخدمين مع ادعاءات خاطئة من “الإبادة الجماعية البيضاء” في جنوب إفريقيا. بحلول وقت متأخر من اليوم ، تم نشر لقطات الشاشة عبر X من الإجابات المماثلة حتى عندما لا علاقة للأسئلة بالموضوع.
بعد الصمت في الأمر لأكثر من 24 ساعة ، قال Xai في وقت متأخر من يوم الخميس أن جروك سلوك غريب كان سبب “تعديل غير مصرح به” إلى ما يسمى بمطالبات النظام المزعوم في تطبيق الدردشة ، مما يساعد على إبلاغ الطريقة التي يتصرف بها وتتفاعل مع المستخدمين. وبعبارة أخرى ، كان البشر يملي استجابة منظمة العفو الدولية.
ترتبط طبيعة الاستجابة ، في هذه الحالة ، مباشرة بـ Musk ، الذي ولد ونشأ في جنوب إفريقيا. Musk ، الذي يملك XAI بالإضافة إلى أدواره التنفيذي في تسلا و Spacex ، لقد كان تعزيز المطالبة الخاطئة هذا العنف ضد بعض المزارعين في جنوب إفريقيا يشكل “الإبادة الجماعية البيضاء” ، وهو شعور الرئيس دونالد ترامب وقد أعربت أيضا.
وقال ديردري موليغان ، أستاذ في جامعة كاليفورنيا في بيركلي وخبير في حوكمة AI: “أعتقد أنه من المهم بشكل لا يصدق بسبب المحتوى ومن يقود هذه الشركة ، والطرق التي تقترح بها أو يلقي الضوء على نوع من القوة التي يتعين على هذه الأدوات تشكيل تفكير الناس وفهمها للعالم”.
وصفت موليغان أخطاء Grok بأنه “انهيار خوارزمي” يميل إلى “الطبقات” ذات الطبيعة المحايدة المفترضة لنماذج اللغة الكبيرة. قالت إنه لا يوجد سبب لرؤية خلل Grok مجرد “استثناء”.
chatbots التي تعمل بالطاقة من الذكاء الاصطناعى التي تم إنشاؤها بواسطة ميتاو جوجل وقال موليغان إن Openai ليسوا معلومات “تعبئة” بطريقة محايدة ، ولكنها بدلاً من ذلك تمرر البيانات من خلال “مجموعة من المرشحات والقيم المدمجة في النظام”. يوفر انهيار Grok نافذة على مدى سهولة تغيير أي من هذه الأنظمة لتلبية جدول أعمال الفرد أو المجموعة.
لم يستجب ممثلو XAI و Google و Openai لطلبات التعليق. ورفض ميتا التعليق.
مختلف عن المشاكل السابقة
وقال Xai في تغيير Grok. إفادة، انتهك “السياسات الداخلية والقيم الأساسية”. وقالت الشركة إن الأمر سيستغرق خطوات لمنع الكوارث المماثلة وستنشر مطالبات نظام التطبيق من أجل “تعزيز ثقتك في Grok باعتبارها AI التي تسعى إلى الحقيقة”.
إنه ليس أول خطأ في الذكاء الاصطناعي للفيروس عبر الإنترنت. قبل عقد من الزمان ، تطبيق صور Google أخطأ الأميركيين الأفارقة في الغوريلا. في العام الماضي ، Google مؤقتًا توقف مؤقتا ميزة توليد صور Gemini AI بعد الاعتراف أنها كانت تقدم “عدم الدقة” في الصور التاريخية. وقد اتهم بعض المستخدمين من Dall-E من Openai بعلامات التحيز في عام 2022 ، مما دفع الشركة إلى يعلن أنها كانت تنفذ تقنية جديدة ، لذا فإن الصور “تعكس بدقة تنوع سكان العالم”.
في عام 2023 ، أعربت فورستر عن 58 ٪ من صانعي القرار من الذكاء الاصطناعى في الشركات في أستراليا والمملكة المتحدة والولايات المتحدة عن مخاطر الهلوسة في نشر الذكاء الاصطناعي. شمل المسح في سبتمبر من ذلك العام 258 من المجيبين.

أخبر الخبراء CNBC أن حادثة Grok تذكرنا بـ Deepseek الصيني ، والتي أصبحت الإحساس بين عشية وضحاها في الولايات المتحدة في وقت سابق من هذا العام بسبب جودة نموذجها الجديد ، وبحسب ما ورد تم بناؤه بتكلفة منافسيها في الولايات المتحدة.
لقد قال النقاد هذا العميق مواضيع الرقابة اعتبار حساسا للحكومة الصينية. مثل الصين مع ديبسيك ، يبدو أن المسك يؤثر على النتائج بناءً على وجهات نظره السياسية ، كما يقولون.
عندما xai ظهر لأول مرة في نوفمبر 2023 ، قال موسك إنه كان من المفترض أن يكون لديه “القليل من الذكاء” ، “سلسلة متمردة” وللإجابة على “الأسئلة الحارة” التي قد يتناوبها المنافسون. في فبراير ، XAI اللوم مهندس للتغييرات التي قمعت ردود Grok على أسئلة المستخدم حول المعلومات الخاطئة ، والحفاظ على أسماء Musk و Trump من الردود.
لكن هاجس جروك الأخير بـ “الإبادة الجماعية البيضاء” في جنوب إفريقيا أكثر تطرفًا.
وقال Petar Tsankov ، الرئيس التنفيذي لشركة AI Model Auditing Latticeflow AI ، إن تفجير Grok أكثر إثارة للدهشة مما رأيناه مع Deepseek لأن المرء “يتوقع نوعًا ما أنه سيكون هناك نوع من التلاعب من الصين”.
وقالت Tsankov ، التي توجد شركتها في سويسرا ، إن الصناعة تحتاج إلى مزيد من الشفافية حتى يتمكن المستخدمون من فهم أفضل لكيفية بناء الشركات وتدريب نماذجها وكيف يؤثر ذلك على السلوك. وأشار إلى الجهود التي بذلها الاتحاد الأوروبي في طلب المزيد من شركات التكنولوجيا لتوفير الشفافية كجزء من اللوائح الأوسع في المنطقة.
وقال تسانكوف إنه بدون وجود صرخة عامة ، “لن نتمكن من نشر نماذج أكثر أمانًا” ، وسيكون “الأشخاص الذين سيدفعون السعر” على وضع ثقتهم في الشركات التي تطورها.
وقال مايك جوالتيري ، محلل في فورستر ، إن كارثة Grok من غير المرجح أن تبطئ نمو المستخدمين في chatbots ، أو تقلل من الاستثمارات التي تتدفقها الشركات في التكنولوجيا. وقال للمستخدمين مستوى معين من القبول لهذه الأنواع من الأحداث.
وقال جوالتيري: “سواء أكان الأمر أو Chatgpt أو Gemini – يتوقع الجميع ذلك الآن”. “لقد قيل لهم كيف تهلل النماذج. هناك توقع أن يحدث هذا.”
قالت أوليفيا غامبلين ، أخلاقية منظمة العفو الدولية ومؤلفة الكتاب المسؤول عن الذكاء الاصطناعي ، الذي نشر العام الماضي ، إنه على الرغم من أن هذا النوع من النشاط من Grok قد لا يكون مفاجئًا ، إلا أنه يؤكد على وجود عيب أساسي في نماذج الذكاء الاصطناعي.
وقال جامبلين إنه “يظهر أنه من الممكن ، على الأقل مع نماذج Grok ، ضبط هذه النماذج الأساسية للأغراض العامة في الإرادة.”
– ساهم لورا كولودني من CNBC و Salvador Rodriguez في هذا التقرير
يشاهد: Elon Musk’s Xai chatbot Grok يقدم مطالبات “الإبادة الجماعية البيضاء” في جنوب إفريقيا.





