الأمن السيبراني

التعامل مع هلوسة الذكاء الاصطناعي


تحدث هلوسة الذكاء الاصطناعي عندما يدرك نموذج اللغة الكبير (LLM) – الذي غالبًا ما يكون عبارة عن برنامج دردشة آلي أو أداة رؤية حاسوبية – أنماطًا أو أشياء غير موجودة أو غير محسوسة للمراقبين البشريين، مما يولد مخرجات إما غير دقيقة أو لا معنى لها.

يمكن أن تشكل هلوسة الذكاء الاصطناعي تحديًا كبيرًا، لا سيما في المجالات عالية المخاطر حيث تكون الدقة أمرًا بالغ الأهمية، مثل صناعة الطاقة وعلوم الحياة والرعاية الصحية والتكنولوجيا والتمويل والقطاعات القانونية، كما يقول بينا أماناث، رئيس قسم التكنولوجيا والأخلاقيات في الأعمال. شركة ديلويت الاستشارية. ومع ظهور الذكاء الاصطناعي التوليدي، أصبحت أهمية التحقق من صحة المخرجات أكثر أهمية لتخفيف المخاطر والحوكمة، حسبما ذكرت في مقابلة عبر البريد الإلكتروني. “في حين أن أنظمة الذكاء الاصطناعي أصبحت أكثر تقدما، فإن الهلوسة يمكن أن تقوض الثقة، وبالتالي تحد من اعتماد تقنيات الذكاء الاصطناعي على نطاق واسع.”

الأسباب الأولية

يقول أماناث إن هلوسة الذكاء الاصطناعي تنجم في المقام الأول عن طبيعة الذكاء الاصطناعي التوليدي والماجستير في إدارة الأعمال، والتي تعتمد على كميات هائلة من البيانات لتوليد التنبؤات. “عندما يفتقر نموذج الذكاء الاصطناعي إلى سياق كافٍ، فقد يحاول ملء الفجوات عن طريق إنشاء معلومات تبدو معقولة، ولكنها غير صحيحة.” وتشير إلى أن هذا يمكن أن يحدث بسبب عدم اكتمال بيانات التدريب، أو التحيز في بيانات التدريب، أو المطالبات الغامضة.

متعلق ب:محترفو تكنولوجيا المعلومات يحبون الذكاء الاصطناعي ويخافونه ويقدسونه: تقرير حالة الذكاء الاصطناعي لعام 2024

يتم تدريب حاملي شهادة الماجستير بشكل عام على مهام محددة، مثل التنبؤ بالكلمة التالية في تسلسل، كما يلاحظ سواتي رالابالي، أحد كبار علماء أبحاث التعلم الآلي في قسم الذكاء الاصطناعي في معهد هندسة البرمجيات بجامعة كارنيجي ميلون. وأوضحت في مقابلة عبر الإنترنت: “يتم تدريب هذه النماذج على تيرابايت من البيانات من الإنترنت، والتي قد تتضمن معلومات غير منظمة”. “عند إنشاء النص، تنتج النماذج مخرجات بناءً على الاحتمالات التي تم تعلمها أثناء التدريب، لذلك يمكن أن تكون المخرجات غير متوقعة وتحريف الحقائق.”

نهج الكشف

اعتمادًا على التطبيق المحدد، يمكن استخدام أدوات مقاييس الهلوسة، مثل AlignScore، يمكن تدريبه على التقاط أي تشابه بين مدخلين للنص. ومع ذلك، فإن المقاييس الآلية لا تعمل دائمًا بشكل فعال. “استخدام مقاييس متعددة معًا، مثل AlignScore، مع مقاييس مثل بيرتسكوريقول رالابالي: “قد يحسن الاكتشاف”.

هناك طريقة أخرى راسخة لتقليل الهلوسة وهي استخدام استرجاع الجيل المعزز (RAG)، حيث يشير النموذج إلى النص من قواعد البيانات المنشأة ذات الصلة بالمخرجات. يقول رالابالي: “هناك أيضًا أبحاث في مجال نماذج الضبط الدقيق لمجموعات البيانات المنسقة للتأكد من صحتها الواقعية”.

متعلق ب:نظرة خاطفة على الكلمة الرئيسية: تفاصيل محلل Forrester تتماشى مع التصميم وإمكانية شرح الذكاء الاصطناعي

ومع ذلك، فحتى استخدام المقاييس المتعددة الموجودة قد لا يضمن اكتشاف الهلوسة بشكل كامل. لذلك، هناك حاجة إلى مزيد من البحث لتطوير مقاييس أكثر فعالية للكشف عن عدم الدقة، كما يقول رالابالي. “على سبيل المثال، يمكن أن تكتشف مقارنة مخرجات الذكاء الاصطناعي المتعددة ما إذا كانت هناك أجزاء من المخرجات غير متسقة عبر مخرجات مختلفة أو، في حالة التلخيص، يمكن أن يؤدي تقسيم الملخصات إلى اكتشاف أفضل ما إذا كانت الأجزاء المختلفة متوافقة مع الحقائق داخل المقالة الأصلية. ” وتشير إلى أن مثل هذه الأساليب يمكن أن تساعد في اكتشاف الهلوسة بشكل أفضل.

يعتقد أماناث أن الكشف عن هلوسة الذكاء الاصطناعي يتطلب نهجًا متعدد الجوانب. وتشير إلى أن الرقابة البشرية، التي تتم فيها مراجعة المحتوى الناتج عن الذكاء الاصطناعي من قبل خبراء يمكنهم التحقق من الحقائق، هي في بعض الأحيان الطريقة الوحيدة الموثوقة للحد من الهلوسة. “على سبيل المثال، في حالة استخدام الذكاء الاصطناعي التوليدي لكتابة رسالة بريد إلكتروني تسويقية، قد يكون لدى المنظمة قدر أكبر من التسامح مع الخطأ، حيث من المرجح أن يكون من السهل تحديد الأخطاء أو عدم الدقة وتكون النتائج أقل خطورة بالنسبة للمؤسسة،” يوضح أماناث. . ومع ذلك، عندما يتعلق الأمر بالتطبيقات التي تتضمن قرارات عمل بالغة الأهمية، يجب أن يكون مستوى تحمل الأخطاء منخفضًا. “وهذا يجعل “الإنسان المطلع على الحلقة”، أي الشخص الذي يتحقق من صحة مخرجات النموذج، أكثر أهمية من أي وقت مضى.”

متعلق ب:يناقش سيدني ماديسون بريسكوت إمكانات GenAI لتحويل عمليات المؤسسة

التدريب على الهلوسة

أفضل طريقة لتقليل الهلوسة هي من خلال بناء نموذج ذكاء اصطناعي أساسي مُدرب مسبقًا، كما ينصح سكوت زولدي، كبير مسؤولي الذكاء الاصطناعي في خدمة تسجيل الائتمان FICO. ويشير، عبر البريد الإلكتروني، إلى أن العديد من المنظمات تستخدم الآن بالفعل، أو تخطط لاستخدام، هذا النهج باستخدام المجال المركز والنماذج القائمة على المهام. “من خلال القيام بذلك، يمكن للمرء أن يكون لديه سيطرة نقدية على البيانات المستخدمة في التدريب المسبق – حيث تنشأ معظم الهلوسة – ويمكنه تقييد استخدام تعزيز السياق للتأكد من أن هذا الاستخدام لا يزيد من الهلوسة ولكنه يعيد تعزيز العلاقات بالفعل في مرحلة ما قبل التدريب.”

يقول زولدي: بعيدًا عن بناء نماذجك التوليدية المركزة، يحتاج المرء إلى تقليل الضرر الناتج عن الهلوسة. “[Enterprise] ويقترح أن تعطي السياسة الأولوية لعملية كيفية استخدام مخرجات هذه الأدوات في سياق الأعمال ثم التحقق من صحة كل شيء.

الفكر النهائي

ولإعداد المؤسسة لمستقبل جريء وناجح مع الذكاء الاصطناعي المولد، من الضروري فهم طبيعة المخاطر وحجمها، بالإضافة إلى أساليب الحوكمة التي يمكن أن تساعد في التخفيف منها، كما يقول أماناث. “تساعد هلوسة الذكاء الاصطناعي في تسليط الضوء على قوة وحدود تطوير ونشر الذكاء الاصطناعي الحالي.”





Source link

زر الذهاب إلى الأعلى