الأمن السيبراني

لماذا تعتبر البيانات الموثوقة ضرورية للذكاء الاصطناعي الجدير بالثقة


بعد عقود من الزمن حيث كان الذكاء الاصطناعي (AI) يقتصر إلى حد كبير على المشاريع البحثية أو التطبيقات المتخصصة أو حتى الخيال العلمي، أصبح الآن أداة أعمال رئيسية.

بفضل تطبيقات مثل Bard من Google (المعروف الآن باسم Gemini)، وMistral وChatGPT على وجه الخصوص، بدأ الذكاء الاصطناعي التوليدي (GenAI) يؤثر بالفعل على مكان العمل.

على سبيل المثال، يتوقع محلل الصناعة جارتنر أن 95% من العمال سيستخدمون GenAI بشكل روتيني لإكمال مهامهم اليومية بحلول عام 2026.

وفي الوقت نفسه، يستخدم المزيد من المؤسسات GenAI لتشغيل “روبوتات الدردشة” وغيرها من الخدمات التي تسمح للجمهور بالتفاعل مع التكنولوجيا بطريقة أكثر طبيعية. تسمح نماذج اللغات الكبيرة (LLMs) لأجهزة الكمبيوتر بالتواصل مع المستخدمين بطريقة تشبه الكلام البشري، وتستطيع النماذج نفسها البحث في الموارد الهائلة للإنترنت للعثور على إجابات حتى لأكثر الأسئلة غموضًا. وهنا يمكن أن تكمن المشاكل.

ومن غير المستغرب أن الذكاء الاصطناعي، بمخاطره وفوائده، كان محور التركيز الرئيسي لكليهما قمة جارتنر للبيانات والتحليلات وقمة Tech.EU لعام 2024، وكلاهما في لندن.

أدوات GenAI متهمة بإنشاء نتائج متحيزة، أو حتى نتائج غير صحيحة على الإطلاق. وقد أدت هذه الهلوسة إلى اضطرار الشركات إلى تعويض العملاء، فضلاً عن الإضرار بالسمعة.

“تعد الحوكمة أكثر أهمية عند تقديم منتجات البيانات المدعمة بالذكاء الاصطناعي،” هذا ما صرح به أليس وودوارد، من شركة جارتنر، في قمة البيانات والتحليلات التي نظمتها الشركة. “مع الذكاء الاصطناعي، يمكن أن تظهر عواقب غير مقصودة بسرعة. لقد رأينا بالفعل بعض الأمثلة على التطبيقات الناجحة لـ GenAI. تنشر هذه المؤسسات التكنولوجيا باستخدام حواجز حماية مناسبة وحالات استخدام مستهدفة، ولكننا لا نعرف أبدًا متى ستقودنا منتجات البيانات المدعمة بالذكاء الاصطناعي إلى المشاكل.”

إن الشركات تتحمل بالفعل المسؤولية من قبل الهيئات التنظيمية والمحاكم عن القرارات المتخذة باستخدام الذكاء الاصطناعي. سوف ينشئ قانون الذكاء الاصطناعي للاتحاد الأوروبي، والذي سيدخل حيز التنفيذ اعتبارًا من يونيو/حزيران، التزامات جديدة بالإضافة إلى فرض عقوبات جديدة. ستصل الغرامات المفروضة على أخطر انتهاكات القانون إلى 7% من إجمالي المبيعات العالمية، أي أكثر من تلك المفروضة على انتهاكات اللائحة العامة لحماية البيانات.

ولكن إذا كان قانون الذكاء الاصطناعي بمثابة دعوة للاستيقاظ للمؤسسات لتكون أكثر حذراً وشفافية بشأن استخدامها للذكاء الاصطناعي، فإنه سيدفعها أيضاً إلى النظر عن كثب في كيفية تشكيل نماذج الذكاء الاصطناعي للاستنتاجات التي تتوصل إليها.

ويعتمد هذا بدوره على جودة البيانات، سواء بالنسبة لنماذج التدريب أو أثناء مرحلة الاستدلال – أو مرحلة التشغيل – للذكاء الاصطناعي. تعتمد نماذج اللغات الكبيرة الحالية بشكل أساسي على البيانات العامة المجمعة من الإنترنت. وعلى الرغم من وجود خطوات على قدم وساق للسماح للشركات باستخدام بياناتها الخاصة للتدريب والاستدلال [oracle]ومع ذلك، تظل الخوارزميات الفعلية التي تستخدمها نماذج الذكاء الاصطناعي نفسها مبهمة.

هذا النهج “الصندوق الأسود”. من قبل موردي الذكاء الاصطناعي إلى مخاوف بشأن التحيز والتمييز المحتمل، سواء عند التعامل مع العملاء ولكن أيضًا في مجالات مثل التوظيف. سيكون لدى المؤسسات أيضًا مخاوف بشأن ما إذا كانت بيانات الملكية الخاصة بها تُستخدم لتدريب النماذج – يقول موردو الذكاء الاصطناعي الرئيسيون إنهم لم يعودوا يفعلون ذلك – ومخاوف الخصوصية حول استخدام المعلومات الحساسة، وما إذا كانت البيانات، بما في ذلك المطالبات، يمكن أن تتسرب من أدوات الذكاء الاصطناعي .

وقال نادر حنين، نائب الرئيس لدى جارتنر والمتخصص في الخصوصية: “عندما تبدأ المؤسسات في نشر قدرات الذكاء الاصطناعي، تصبح مسائل الثقة والمخاطر والامتثال في غاية الأهمية.

ومع ذلك، أضاف أن المؤسسات تتعرض بشكل متزايد للمخاطر من خلال أدوات الذكاء الاصطناعي التي تجلبها من الخارج.

وتشمل هذه أدوات محددة للذكاء الاصطناعي، مثل Gemini أو ChatGPT، ولكن أيضًا وظائف الذكاء الاصطناعي المضمنة في تطبيقات أخرى، بدءًا من أدوات سطح المكتب والمتصفحات وحتى حزم المؤسسات. “يستخدم الجميع تقريبًا واحدًا أو أكثر من SaaS [software-as-a-service] أداة، والعديد 1716912000 قال: “لديهم قدرات معززة بالذكاء الاصطناعي بداخلهم”. “يشير قانون الذكاء الاصطناعي إلى ذلك ويقول إنك بحاجة إلى فهم تلك المخاطر وقياسها وامتلاكها.”

جودة البيانات

ويكمن التحدي في تحديد مكان وكيفية استخدام الذكاء الاصطناعي في المؤسسة، فضلاً عن جودة البيانات – وخاصة البيانات المستخدمة لتدريب النماذج. وكما يقترح حنين من شركة جارتنر، فإن الذكاء الاصطناعي يعاني من نفس مشاكل البيانات التي يعاني منها أي نظام تحليلي: القمامة الداخلة تساوي القمامة الخارجة.

ولكن مع الذكاء الاصطناعي، من المرجح أن نأخذ نتائجه على محمل الجد. قال حنين: “يفضل البشر الاقتراحات المقدمة من أنظمة صنع القرار الآلية، وغالباً ما يتجاهلون حكمهم الأفضل”. “لكن هذا الجيل الجديد من الهلوسة، مع الإجابات المفصلة للغاية، مع المراجع، والبلاغة للغاية، يدفع هذا التحيز للأتمتة إلى آفاق جديدة.”

يعتمد الكثير أيضًا على نوع القرار الذي يدعمه الذكاء الاصطناعي، حيث تشكل بعض الأدوات خطرًا أكبر على المؤسسة من غيرها.

قال ثاريشني أروموجام، مدير تكنولوجيا الخصوصية العالمية والعمليات في AON: “هذا أحد أصعب الأمور”. “في كثير من الأحيان، يفكر الناس، “أريد أن أعرف عن أي استخدام بسيط للذكاء الاصطناعي”. في الواقع، هل تحتاج حقًا إلى معرفة القليل عن خدمة الترجمة التي يستخدمها الطرف الثالث الخاص بك؟ ربما لا، ولكنك تريد معرفة متى يستخدم طرف ثالث معلوماتك الصحية لتوفير تحليل تنبؤي لموظفيك. ولذلك، هناك سوء فهم كبير في الوقت الحالي حول ما نحتاج إلى معرفته من وجهة نظر البائع.

وقالت إن هذا يرتبط ارتباطًا مباشرًا بحوكمة البيانات، ومن غير المرجح أن تقع المؤسسات التي لديها سياسات ناضجة لإدارة البيانات في أخطاء الذكاء الاصطناعي.

ويغطي هذا جودة البيانات الأساسية، ولكن أيضًا، على حد تعبير جارتنر، ما إذا كانت البيانات دقيقة ومتنوعة بما يكفي لإنتاج نتائج موثوقة خالية من التحيز والهلوسة. يُطلق على هذا أحيانًا اسم “البيانات الجاهزة للذكاء الاصطناعي”، وتحذر شركة Gartner من أن عددًا قليلًا من المؤسسات يمكنها حقًا القول بأن لديها هذا النوع من البيانات – حتى الآن.

فقدان الثقة

وتزداد المشكلة سوءًا عندما تقوم المؤسسات بربط نماذج الذكاء الاصطناعي معًا عبر عملية صنع القرار. ومع دخول كل نموذج في النموذج التالي، ستنخفض مستويات الثقة في الاستنتاجات النهائية. ولكن هذا قد لا يكون واضحا للمستخدم، أو المستهلك.

قال حنين: “تتمتع النماذج الكبيرة جدًا بإمكانية الوصول إلى كميات هائلة من البيانات”. “الكثير من هذه البيانات تأتي من الإنترنت، ونحن نعلم جميعًا أن الإنترنت ليس منسقًا تمامًا من منظور جودة المحتوى كما تريد.

وقال: “وهذه مشكلة أساسية”. “إنه في قلب هذه الهلوسة.”

وبحسب حنين، فإن النماذج لا تقدم حاليًا إرشادات حول دقتها، سواء من حيث النسبة المئوية أو حتى على مقياس بسيط مثل الأحمر والأصفر والأخضر. وقال: “إذا كان لدينا هذا المؤشر على دقة الاستجابة، فربما يخفف ذلك من بعض المخاوف بشأن الهلوسة”.

نسب البيانات

وتعني الثقة أيضًا فهم سلسلة البيانات أثناء انتقالها بين الأنظمة.

يتضمن ذلك البيانات التي تنتقل من أنظمة المؤسسة أو مستودعات البيانات والبحيرات إلى الذكاء الاصطناعي، بالإضافة إلى – من المحتمل – نتائج الذكاء الاصطناعي التي يتم استخدامها كمدخلات في نماذج أخرى، أو حتى لتدريب الذكاء الاصطناعي. وتتوقع جارتنر أنه في غضون عامين، ستستخدم ثلاثة أرباع الشركات GenAI لإنشاء بيانات تركيبية يمكن استخدامها بدورها لتدريب نماذج التعلم الآلي.

يحتاج علماء البيانات أيضًا إلى بناء حواجز حماية في أنظمة الذكاء الاصطناعي لتقليل المخاطر ومنع إساءة استخدام الأدوات.

يمكن أن يشمل ذلك تقييد أو تقييد استخدام بيانات التعريف الشخصية، أو المعلومات الصحية، أو الملكية الفكرية، أو حتى مصادر البيانات غير المحددة وغير المؤهلة.

قال جنيد سعيد، كبير مسؤولي التكنولوجيا في شركة Alation لإدارة البيانات وذكاء البيانات: “في نهاية المطاف، البيانات التي تغذيها في النموذج، والبيانات التي تستخدمها لتدريب نماذجك، مهمة للغاية”.

“إذا لم تتغذى ببيانات دقيقة وموثوقة، فسوف تحصل على توصيات وتنبؤات ليست جيدة جدًا. مهما كان ما تبحث عنه من خلال الذكاء الاصطناعي الخاص بك، مهما كان ما تبحث عنه من نماذجك، فإن البيانات الموثوقة تؤدي إلى ذكاء اصطناعي موثوق به.

وأضاف: “الناس يبحثون عن رمز الثقة هذا”. “إنها ليست مجرد الإجابة النهائية. إنهم يريدون معرفة الثقة على طول الطريق. ما هي ثقتك في البيانات التي تم تغذيتها في النموذج، وثقتك في النموذج نفسه؟ وقد تكون موافقًا على نموذج أقل تطورًا، إذا كانت الإجابة قابلة للتفسير.

بناء الثقة

وما لم يتمكن كبار مسؤولي أمن المعلومات وكبار مسؤولي البيانات من بناء هذه الثقة، فسوف يتردد المستخدمون في استخدام أدوات الذكاء الاصطناعي، ومن غير المرجح أن يثق العملاء في نصائحهم أو توصياتهم.

قال دانييل جاليجو فيكو، الباحث في الذكاء الاصطناعي والتعلم الآلي، والمؤسس المشارك لشركة PrivateGPT وخدمة الذكاء الاصطناعي للأعمال Zylon، والمتحدث في قمة Tech.EU: “في الأعمال التجارية، تحتاج إلى توفير هذا المستوى من الثقة”.

على سبيل المثال، لن يستخدم المهندس توصية LLM لتصميم ما إذا كان لا يثق في البيانات. وقال: “إذا كنت أقوم ببناء جسر وانهار الجسر، فسوف يلاحقني المحامون، وليس ماجستير القانون”. “أحتاج إلى التأكد من أن ما ينتجه برنامج LLM صحيح.”

بالنسبة لشركة Vico، على الرغم من قوة أداة الذكاء الاصطناعي، إلا أنه يجب على البشر أن يظلوا جزءًا من سير العمل. قال: “عليك أن تفهم مصادر البيانات التي استخدمتها شهادة LLM للحصول على الإجابة”. “وبهذه الطريقة، يمكنك التحقق مرة أخرى.”



Source link

زر الذهاب إلى الأعلى