أخبار التقنية

يفشل اكتشاف الأخبار المزيفة التقليدية ضد المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعى


نماذج لغة كبيرة (LLMS) قادرون على التوليد النص الذي لا تشوبه شائبة ، من الناحية الأسلوبية مقنع وغنية بشكل دلالي. في حين أن هذه القفزة التكنولوجية جلبت مكاسب الكفاءة إلى الصحافة ، تعليم والتواصل التجاري ، وقد أدى أيضًا إلى تعقيد اكتشاف المعلومات الخاطئة. كيف حالك تعريف أخبار وهمية عندما يكافح الخبراء حتى من أجل التمييز بين المحتوى الذكي الاصطناعي (AI) من النص الذي تم تأليفه الإنسان؟

كان هذا السؤال أساسيًا في ندوة حديثة في أمستردام حول التضليل و LLMS ، التي استضافتها CWI ، ال معهد الأبحاث للرياضيات وعلوم الكمبيوتر في هولندا، و مشتركمنظم مع جامعة أوتريخت وجامعة جرونينجن. دولي اجتمع الباحثون لاستكشاف كيفية تطور المعلومات الخاطئة وما هي الأدوات والمناهج الجديدة اللازمة لمواجهةها.

من بين المنظمون كان باحث CWI دافيد سيولين، الذي يركز عمله على جودة المعلومات ، والتحيز في نماذج الذكاء الاصطناعي وقابلية توضيح التقييمات الآلية. علامات التحذير التي ساعدت ذات مرة تعريف معلومات خاطئة – أخطاء نحوية ، محرجة الصياغة والتناقضات اللغوية-تصبح سريعة عفا عليها الزمن لأن المحتوى الذي تم إنشاؤه من الذكاء الاصطناعى يصبح لا يمكن تمييزه عن الكتابة البشرية.

هذا التطور يمثل أكثر من مجرد تحد فني. المنتدى الاقتصادي العالمي لديه حددت المعلومات الخاطئة ك الأهم مخاطر قصيرة الأجل على الصعيد العالمي للعام الثاني على التوالي ، مع ترتيب هولندا من بين أهم خمسة مخاوف لها 2027. يعد تطور المحتوى الذي تم إنشاؤه من الذكاء الاصطناعى عاملًا رئيسيًا يقود هذا القلق المتزايد ، ويقدم تحديًا أساسيًا المنظمات والأفراد على حد سواء.

لسنوات ، طور فريق Ceolin الأدوات والطرق ل تعريف أخبار مزيفة من خلال اللغوية والسمعة الأنماط ، تكتشف علامات المحتوى تميز الكثير من المعلومات الخاطئة المبكرة.

أساليبهم تستفيد من معالجة اللغة الطبيعية (NLP)، مع زملاء من Vrije Universiteit Amsterdam ؛ التفكير المنطقي ، مع زملاء من جامعة ميلانو ؛ والحساب البشري (التعهيد الجماعي ، مع زملاء من جامعة أودين ، جامعة كوينزلاند ، و معهد رويال ملبورن للتكنولوجيا) ، والمساعدة في تحديد أجزاء مشبوهة من النص وتحقق هُم صحة.

تغيير اللعبة

لقد تغيرت اللعبة بشكل أساسي. وقال Ceolin: “بدأت LLMs في كتابة المزيد من النصوص الصحيحة اللغوية”. “المصداقية والواقعية ليست بالضرورة محاذاة – هذه هي القضية.”

تختفي العلامات التقليدية للخداع تمامًا مثل الحجم والتطور و التخصيص من المحتوى المولد زيادة بشكل كبير.

تومي فان ستين، أوضح محاضر جامعي في الأمن السيبراني بجامعة ليدن التحدي الأوسع الذي يواجه الباحثين. في حدث حديث متعدد التخصصات منظم بقلم جامعة ليدن – ليلة الأمن الرقميالتي جمعت خبراء من القانون وعلم الإجرام ، تكنولوجيا والإدارة العامة – أشار: “أخبار مزيفة كموضوع أو كلمة تأتي حقًا من ترامب حول انتخابات 2016. كل ما لم يوافق عليه مع، لقد دعا ببساطة الأخبار المزيفة “.

ومع ذلك ، قال فان ستين إن المشكلة تمتد إلى ما هو أبعد من التصنيع الصارخة. وقال “من المهم التمييز بين المعلومات الخاطئة والتضليل”. “يتضمن كلاهما تبادل المعلومات غير الصحيحة ، ولكن مع المعلومات الخاطئة ، إنها عرضية ؛ مع التضليل ، إنها مقصودة.”

ما وراء التحليل اللغوي

بالنسبة للباحثين مثل Ceolin ، فإن الآثار المترتبة على المحتوى الناتج عن الذكاء الاصطناعى تمتد إلى أبعد من ذلك نص بسيط جيل. كشفت الأبحاث الحديثة من فريقه (بالتعاون مع INRIA ، المعهد الأخت CWI في فرنسا) – المقبولة في نتائج المؤتمر اللغوي الرائد ، ACL – كيف تظهر LLMs تحيزات سياسية مختلفة اعتمادًا على اللغة انهم تطلب في الجنسية والجنسية انهم مُكَلَّف. عندما أجاب النموذج نفسه على أسئلة البوصلة السياسية المتطابقة بلغات مختلفة أو أثناء تجسيد شخصيات وطنية مختلفة ، تباينت النتائج بشكل كبير.

يبرز عمل فان ستاين هذا المعلومات الخاطئة لا ببساطة ثنائي من المحتوى الحقيقي مقابل المحتوى الخاطئ. يستخدم إطار عمل من سبع فئات يتراوح من هجاء ومحاكاة ساخرة إلى محتوى ملفقة تمامًا.

وقال: “لا يتعلق الأمر بالهراء الكامل أو الحقيقة الكاملة-هناك في الواقع الكثير بينهما ، ويمكن أن يكون ذلك ضارًا على الأقل ، وربما أكثر ضررًا”.

ومع ذلك ، جادل Ceolin أن الحلول التكنولوجية وحدها غير كافية. وقال “أعتقد أنه جهد مزدوج”. “يجب على المستخدمين التعاون مع الجهاز ومع المستخدمين الآخرين لتعزيز تحديد المعلومات الخاطئة.”

النهج يمثل تحول كبير من الكشف الآلي البحت إلى ما أطلق عليه Ceolin أنظمة “شفافة” ، والتي توفر للمستخدمين التفكير وراء تقييماتهم. بدلاً من خوارزميات الصندوق السوداء التي تقدم أحكامًا ثنائية ، يهدف الجيل الجديد من الأدوات إلى تثقيف المستخدمين وتمكينهم من خلال شرح عملية صنع القرار الخاصة بهم.

الزراعة المحتوى والمخاوف المستهدفة الدقيقة

سلطت الندوة في CWI الضوء على ثلاثة مستويات تصعيد للمعلومات الخاطئة التي تحركها الذكاء الاصطناعي: Content Farming ، LLM نقاط الضعف والاستهداف الدقيق.

Ceolin تم تحديدها الزراعة المحتوى باعتبارها الأكثر أهمية. وقال: “من السهل جدًا إنشاء محتوى ، بما في ذلك المحتوى ذي النوايا السلبية ، ولكن من الصعب للغاية على البشر اكتشاف محتوى تم إنشاؤه المزيف”.

أبرز فان ستين عدم تناسق أساسي يجعل الكشف يمثل تحديًا متزايدًا. “واحدة من أكبر المشكلات في الأخبار المزيفة هي هذا الانفصال-ما مدى سهولة خلق مقابل مدى صعوبة وتستغرق وقتها بالتحقق”. “لن توازن هذه المعادلة بسهولة.”

يزداد التحدي عندما يجمع توليد المحتوى المتطور مع استهداف الدقة. وقال Ceolin: “إذا كان المحتوى السيئ الذي تم إنشاؤه من الذكاء الاصطناعي يستهدف بشكل فعال مجموعة معينة من المستخدمين ، فسيكون من الصعب اكتشافها والاكتشاف”.

يتطلب معالجة هذا الجيل الجديد من المعلومات الخاطئة المتطورة إعادة التفكير الأساسية في منهجيات الكشف. يدعو إلى شرح أنظمة الذكاء الاصطناعى إعطاء الأولوية الشفافية على مقاييس الدقة النقية. عندما طُلب منه تبرير اختيار 85 ٪ دقيق لكن النظام القابل للتفسير أكثر من 99 ٪ دقيق صندوق الأسود ، يطرح سؤالًا مضادًا حاسمًا: “هل يمكنك حقًا الوثوق بنموذج الصندوق الأسود بنسبة 99 ٪ 99 ٪ من الوقت؟”

يمكن أن يمثل عدم دقة 1 ٪ في نماذج الصندوق الأسود تحيزًا منهجيًا يتجاوز الخطأ العشوائي ، وبدون شفافية ، المنظمات لا يمكن تعريف أو معالجة نقاط الضعف هذه. وقال Ceolin: “في النموذج الشفاف ، يمكنك تحديد المناطق التي يمكن أن يكون فيها النموذج ناقصًا ويستهدف جوانب محددة للتحسين”.

تمتد هذه الفلسفة إلى التحدي الأوسع المتمثل في تقييم تحيز الذكاء الاصطناعي. وقال “إننا نبحث الآن فيما إذا كان بإمكاننا قياس وقياس تحيز هذه النماذج حتى نتمكن من مساعدة المستخدمين على فهم جودة المعلومات التي يتلقونها منها”.

التحضير لمستقبل غير مؤكد

ل المنظمات تصارع مع المشهد الجديد ، نصيحة Ceolin أكد الأساسيات. وقال “لا ينبغي لنا أن ننسى أن جميع التكنولوجيا التي طورناها حتى الآن لا تزال تلعب دورًا كبيرًا”.

حتى عندما تصبح LLMs أكثر تطوراً ، فإن مقاربات التحقق التقليدية يبقى مناسب.

وقال Ceolin: “تُظهر هذه LLMs ، في العديد من الحالات ، المصادر التي يستخدمونها لإجاباتهم”. “يجب أن نعلم المستخدمين أن ينظروا إلى ما وراء النص الذي يتلقونه كرد فعل للتحقق من أن هذه هي المصادر المستخدمة حقًا ، ثم تحقق من سمعة هذه المصادر وموثوقيتها ومصداقية.”

يتطلب المستقبل ما يصفه باحث CWI بأنه “جهد مشترك” يشمل الشركات والمواطنين والمؤسسات. وقال: “نحن كباحثين نسلط الضوء على القضايا والمخاطر ، ونقترح الحلول”.

“سيكون من الضروري بالنسبة لنا مساعدة المواطنين على فهم الفوائد وأيضًا قيود هذه النماذج. يجب أن يأتي الحكم الأخير من المستخدمين – لكن المستخدمين المطلعين ، بدعم من أدوات شفافة تساعدهم على فهم ليس فقط ما يقرؤونه ، ولكن لماذا يجب أن يثقوا به. “



Source link

زر الذهاب إلى الأعلى