الأمن السيبراني

هل سيكون عام 2023 بمثابة ملحمة هلوسة الذكاء الاصطناعي؟



هناك أسباب صحية للتشكيك في موثوقية إجابات الذكاء الاصطناعي التوليدي، بغض النظر عن مدى ثقة النموذج.

هذا الاسبوع، غطت VentureBeat شركة Glen AI لجمع 4.9 مليون دولار، مشيرًا إلى أن الشركة الناشئة تعمل على حل خاص بها لهلوسة الذكاء الاصطناعي. من قصة VentureBeat، تتمثل طريقة Glene AI في الحد من الذكاء الاصطناعي للعمل فقط مع البيانات الواقعية. النهج الذي يتبعه Glenen AI هو أن البيانات يجب أن تستوفي عتبات معينة من الواقعية قبل أن يتم تغذيتها إلى الذكاء الاصطناعي. قم بتنظيم البيانات قبل أن يكون لديها القدرة على إصابة نموذج الذكاء الاصطناعي بالخدع الرقمية.

تعتبر الهلوسة في الذكاء الاصطناعي مصدر قلق متزايد، حيث يبحث المنظمون والشركات عن طرق للتخفيف من حدة المشكلة مع تزايد انتشار التكنولوجيا في كل مكان. في يوليو، بدأت لجنة التجارة الفيدرالية التحقيق في ChatGPT الخاص بـ OpenAI بسبب مخاوف من أن النظام الأساسي ينتهك قوانين حماية المستهلك وأن النموذج كان ينتج بيانات كاذبة ومضللة.

مرة أخرى في أبريل ، ذكرت رويترز أن عمدة أستراليا، بريان هود، كان يفكر في رفع دعوى تشهير ضد OpenAI لأن ChatGPT نشر ادعاءات كاذبة بأنه قضى عقوبة السجن بتهمة الرشوة. أراد هود من OpenAI تصحيح المشكلة، على الرغم من عدم وجود تحديثات أخرى سواء تابع القضية أو إذا تم التعامل مع البيانات المضللة.

المشكلة في هلوسة الذكاء الاصطناعي، عندما يصدر الذكاء الاصطناعي بيانات غير صحيحة، هي أن النموذج يمكن أن “يصدق” بكل إخلاص أنه كان على حق في استجابته. توضح الادعاءات الكاذبة حول هود كيف تفتح هذه الظاهرة الباب لإلحاق الضرر بالسمعة وتضليل الجمهور بشكل عام.

عندما بدأ الذكاء الاصطناعي التوليدي يلفت الأنظار في وقت مبكر من هذا العام، كانت هلوسة الذكاء الاصطناعي واضحة إلى حد ما. على سبيل المثال، كانت بعض وسائل الإعلام تستخدم التكنولوجيا لإنتاج مقالات سيتم تصحيحها لاحقًا بسبب معلوماتها الخاطئة.

للعلم، وضعت InformationWeek سياسة بشأن الذكاء الاصطناعي التوليدي وغرفة الأخبار لدينا.

الآن بعد مرور أشهر على الضجيج التوليدي للذكاء الاصطناعي، هناك مخاوف من أن بعض منصات الذكاء الاصطناعي أصبحت “غبية”، وتولد إجابات خاطئة للمسائل الرياضية التي قامت بحلها قبل أشهر فقط.

إذا كان الذكاء الاصطناعي واثقًا جدًا من عمله ولم يتمكن الأشخاص الذين يعتمدون عليه من اكتشاف العيوب في الوقت المناسب، فقد تصبح هذه مشكلة HAL 9000.

فيلم ستانلي كوبريك الرائد “2001: رحلة فضائية”، الذي تم إنتاجه في عام 1968، قدم للجمهور جد كل كوابيس الذكاء الاصطناعي والروبوتات – جهاز كمبيوتر يسمى HAL 9000 كان حريصًا جدًا على إنجاز مهمة في الفضاء. فضاء.

في الفيلم، تم وصف HAL ​​على أنه قادر على إعادة إنتاج أو تقليد وظائف الدماغ البشري بسرعة وموثوقية أكبر. كان هذا الكمبيوتر الذي يُزعم أنه موثوق به متحمسًا جدًا لإكمال مهمته، حيث ارتكب العديد من جرائم القتل على طول الطريق. حتى عندما واجه HAL احتمال أن يكون ذلك خطأً، ضاعف جهوده وحاول إقناع الطاقم الناجي بالاعتقاد بأن البشر هم المشكلة.

كانت الثقة، أو الغطرسة، واضحة إلى حد ما في وقت مبكر عندما ردت شركة HAL على سؤال حول قدراتها بهذه الطريقة: “سلسلة 9000 هي الكمبيوتر الأكثر موثوقية على الإطلاق. لم يرتكب أي كمبيوتر 9000 خطأ أو معلومات مشوهة. نحن جميعًا، وفقًا لأي تعريف عملي للكلمات، مضمونون وغير قادرين على الخطأ.

استعد لمهمة إلى كوكب المشتري باستخدام جهاز كمبيوتر مصمم على إنهاء مهمته، بغض النظر عن التكلفة، حيث تنظر DOS Wn’t Hunt إلى هلوسة الذكاء الاصطناعي و”2001: A Space Odyssey”.

استمع إلى البودكاست الكامل هنا

ماذا تقرأ بعد ذلك:

يواجه الذكاء الاصطناعي التوليدي حسابًا وجوديًا للملكية الفكرية من صنعه

البودكاست: أشباح خارج القشرة – الذكاء الاصطناعي مقابل الهلوسة البشرية

لجنة التجارة الفيدرالية (FTC) تطلق تحقيقًا في ChatGPT: تقرير



Source link

زر الذهاب إلى الأعلى