أخبار التقنية

يقول خبير إلكتروني إن تهديد المعلومات المضللة الذي يصدره الذكاء الاصطناعي التوليدي “مبالغ فيه”.


من المقرر أن يكون عام 2024 أكبر عام انتخابي عالمي في التاريخ. ويتزامن ذلك مع الارتفاع السريع في التزييف العميق. وفي منطقة آسيا والمحيط الهادئ وحدها، كانت هناك زيادة في التزييف العميق بنسبة 1530% من عام 2022 إلى عام 2023، وفقًا لتقرير Sumsub.

رابط التصوير | إستوك | صور جيتي

يخشى خبراء الأمن السيبراني أن يكون للمحتوى الناتج عن الذكاء الاصطناعي القدرة على تشويه تصورنا للواقع، وهو مصدر قلق أكثر إثارة للقلق في عام مليء بالانتخابات الحاسمة.

لكن أحد كبار الخبراء يسير عكس التيار، مشيرًا بدلاً من ذلك إلى أن التهديد الذي تشكله التزييف العميق على الديمقراطية قد يكون “مبالغًا فيه”.

قال مارتن لي، القائد الفني لمجموعة Talos للاستخبارات والأبحاث الأمنية التابعة لشركة Cisco، لـ CNBC إنه يعتقد أن التزييف العميق – على الرغم من كونه تقنية قوية في حد ذاته – ليس له تأثير مثل الأخبار المزيفة.

وأضاف أن أدوات الذكاء الاصطناعي التوليدية الجديدة “تهدد بجعل توليد المحتوى المزيف أسهل”.

غالبًا ما تحتوي المواد التي ينشئها الذكاء الاصطناعي على مؤشرات يمكن تحديدها بشكل شائع للإشارة إلى أنها لم يتم إنتاجها بواسطة شخص حقيقي.

لقد أثبت المحتوى المرئي، على وجه الخصوص، أنه عرضة للعيوب. على سبيل المثال، يمكن أن تحتوي الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي على شذوذات بصرية، مثل شخص لديه أكثر من يدين، أو طرف مدمج في خلفية الصورة.

قد يكون من الصعب فك التشفير بين الصوت المولد صناعيًا والمقاطع الصوتية لأشخاص حقيقيين. لكن الخبراء يقولون إن الذكاء الاصطناعي لا يزال يتمتع بجودة بيانات التدريب الخاصة به.

وقال لي: “ومع ذلك، يمكن في كثير من الأحيان اكتشاف المحتوى الذي تم إنشاؤه بواسطة الآلة على هذا النحو عند النظر إليه بموضوعية. وعلى أي حال، فمن غير المرجح أن يؤدي إنشاء المحتوى إلى الحد من المهاجمين”.

وقد أخبر الخبراء CNBC سابقًا أنهم نتوقع أن تشكل المعلومات المضللة الناتجة عن الذكاء الاصطناعي خطرًا رئيسيًا في الانتخابات المقبلة حول العالم.

“فائدة محدودة”

وقال مات كالكينز، الرئيس التنفيذي لشركة Appian لتكنولوجيا المؤسسات، والتي تساعد الشركات على إنشاء التطبيقات بسهولة أكبر باستخدام الأدوات البرمجية، إن الذكاء الاصطناعي له “فائدة محدودة”.

وأضاف أن الكثير من أدوات الذكاء الاصطناعي التوليدية اليوم يمكن أن تكون “مملة”. “بمجرد أن يعرفك، يمكن أن يتحول من رائع إلى مفيد [but] لا يمكن تجاوز هذا الخط الآن.”

وقال كالكينز لشبكة CNBC في مقابلة هذا الأسبوع: “بمجرد أن نثق في الذكاء الاصطناعي بمعرفة أنفسنا، سيكون الأمر مذهلاً حقًا”.

وحذر كالكينز من أن ذلك قد يجعلها أداة تضليل أكثر فعالية وخطورة في المستقبل، مضيفًا أنه غير راضٍ عن التقدم المحرز في الجهود المبذولة لتنظيم التكنولوجيا في الولايات المتحدة.

وأضاف أن الأمر قد يتطلب قيام الذكاء الاصطناعي بإنتاج شيء “هجومي” بشكل فاضح لكي يتحرك المشرعون الأمريكيون. وقال كالكينز: “امنحونا سنة. انتظروا حتى يسيء إلينا الذكاء الاصطناعي. وبعد ذلك ربما نتخذ القرار الصحيح”. وقال: “الديمقراطيات مؤسسات تفاعلية”.

بغض النظر عن مدى تقدم الذكاء الاصطناعي، يقول لي من شركة Cisco إن هناك بعض الطرق المجربة والمختبرة لاكتشاف المعلومات الخاطئة – سواء كانت من صنع آلة أو إنسان.

واقترح لي أن “يحتاج الناس إلى معرفة أن هذه الهجمات تحدث وأن يضعوا في اعتبارهم التقنيات التي يمكن استخدامها. عند مواجهة محتوى يثير مشاعرنا، يجب أن نتوقف ونتوقف ونسأل أنفسنا ما إذا كانت المعلومات نفسها معقولة”.

“هل تم نشره من قبل مصدر إعلامي حسن السمعة؟ هل مصادر إعلامية أخرى حسنة السمعة تنشر نفس الشيء؟” هو قال. “إذا لم يكن الأمر كذلك، فمن المحتمل أن تكون عملية احتيال أو حملة تضليل يجب تجاهلها أو الإبلاغ عنها.”



Source link

زر الذهاب إلى الأعلى