الأمن السيبراني

AWS وAnthropic وDTCC تتحدث عن جهود الذكاء الاصطناعي المسؤول


استضافت ندوة الخدمات المالية AWS يوم الخميس في نيويورك حلقة نقاش حول “الذكاء الاصطناعي المسؤول” حيث ناقش ثلاثة من أصحاب المصلحة كيفية حقن التكنولوجيا ببعض العقلانية.

أدار مايكل كيرنز، الباحث في شركة أمازون والأستاذ في قسم علوم الكمبيوتر والمعلومات في جامعة بنسلفانيا، المحادثة مع مايكل جيرستنهابر، نائب رئيس المنتجات في أنثروبيوجونا باول، المدير الإداري لأبحاث التكنولوجيا والابتكار في مؤسسة الإيداع والمقاصة (DTCC).

وفي محادثتهم حول التحديات والفرص في نشر الذكاء الاصطناعي بشكل مسؤول في عالم الخدمات المالية، قال كيرنز إن دوره في AWS يشمل الإشراف على العمل التشغيلي حول الذكاء الاصطناعي المسؤول. وقال إنه وفريقه وضعوا إجراءات فنية وتشغيلية لمراجعة نموذج التدريب الخاص بهم لمخاوف مثل التحيز الديموغرافي أو احتياجات الخصوصية. قال كيرنز: “الآن مع الذكاء الاصطناعي التوليدي، هناك مجموعة جديدة تمامًا من المخاوف المحتملة مثل الهلوسة والأشياء التي لا تتعلق بالخصوصية تمامًا ولكنها متجاورة، مثل الملكية الفكرية”.

يمكن أن يكون العثور على طريق نحو الذكاء الاصطناعي المسؤول بمثابة جهد تعاوني للغاية داخل المؤسسات. وقال باول إن DTCC بدأت رحلة GenAI منذ عام تقريبًا، وكلفت بتحديد استراتيجية للمضي قدمًا. “لقد أطلقنا دراسة استقصائية واسعة النطاق عبر DTCC؛ لقد أجرينا مجموعة من الأبحاث الداخلية، والأبحاث الخارجية، والدراسات الاستقصائية، وما إلى ذلك. “لقد توصلنا إلى حوالي 400 حالة استخدام وكان علينا فحصها جميعًا.” وبعد البحث في حالات الاستخدام هذه، تم قياسها وفقًا لمعايير مثل الجدوى، ثم تم غربلتها إلى ما أسمته بعض حالات الاستخدام القوية.

متعلق ب:هل يتفوق الابتكار على الذكاء الاصطناعي المسؤول؟

قال باول: “كان تحسين الإنتاجية هو الأمر الذي ركزنا عليه كثيرًا”. وشمل ذلك إنتاجية المطورين وتحديث التعليمات البرمجية القديمة. وقالت إن الكثير من حالات الاستخدام ركزت على الموضوع الرئيسي للتوليف – وهو أخذ البيانات وتلخيصها ووضعها في تنسيقات سهلة الهضم.

Anthropic، التي يضم مؤسسوها مغتربين من OpenAI، هي شركة ناشئة مقرها سان فرانسيسكو تدرس عناصر سلامة الذكاء الاصطناعي. ويتضمن ذلك تطوير الأبحاث حول الذكاء الاصطناعي – مخاطره وفرصه – لتطوير أنظمة موثوقة للذكاء الاصطناعي. قال جيرستنهابر: “هدفي الأساسي هو تمكين المهندسين من استخدام الذكاء الاصطناعي التوليدي بأمان”.

يمكن أن يكون صناع السياسات واللوائح التنظيمية جزءًا من تشكيل الذكاء الاصطناعي المسؤول، ومع ذلك، فإن المشهد السياسي أقل اتساقًا عندما يتعلق الأمر بالذكاء الاصطناعي. قال باول: “لقد جئت من عالم الأصول الرقمية حيث يمكن للتنظيم، أو الافتقار إلى التنظيم، أن يفسدك حقًا فيما يتعلق بتقدم الابتكار”. “اليابان متقدمة جدًا في المشهد التنظيمي والأصول الرقمية.” وقالت إن اليابان اتخذت بالفعل خطوات لصياغة مبادئ توجيهية بشأن قضايا الذكاء الاصطناعي وحقوق النشر. وقالت باول: “ما زلنا نكافح في الولايات المتحدة”، وتأمل أن ترى وضوحًا في اللوائح المحلية في هذه المجالات، على الرغم من عدم تحول السياسات إلى تقييد كبير يؤدي إلى عرقلة التقدم.

سأل كيرنز عن حواجز الحماية مقابل التدريب على الذكاء الاصطناعي، وخاصة لمحاولة تضييق الخناق على التحيزات التي يمكن أن تؤثر في كيفية تدريب النموذج. على الرغم من أنه قال إن العديد من النماذج تحسنت فيما يتعلق بالتحيز، إلا أن ذلك ليس بالضرورة بسبب كيفية تدريبهم.

أشاد غيرستنهابر بقيمة الذكاء الاصطناعي الدستوري، وهو أسلوب إنساني يجعل النماذج تلتزم بقائمة مكتوبة من المبادئ – وهو دستور يجب اتباعه في استجاباته. وقال إنه في حين أنه يمكن اتخاذ خطوات عند جمع ما يُعتقد أنها بيانات تدريب “آمنة”، إلا أن الذكاء الاصطناعي الدستوري يمكنه إجراء تقييمات آلية بسرعة لجعل الذكاء الاصطناعي يؤدي وظيفته بمسؤولية. وقال: “أنا متفائل للغاية بشأن فكرة أنه يمكننا تطبيق هذه الأشياء في التدريب، وأننا نستطيع توفير هذا المستوى من الأمان كخدمة”.

تضمنت أفكار باول الختامية حول النشر المسؤول للذكاء الاصطناعي القليل من التحقق من الواقع الذي قد يخفف من بعض الافتراضات التي تحيط بالتكنولوجيا، لكنها ظلت متمسكة بوجودها الحتمي داخل المؤسسات. وقالت: “أود أن أقول للناس… إن الذكاء الاصطناعي ونماذج التدريب هذه لن يأتوا لتولي وظيفتك، لكن الشخص الذي يستخدم الذكاء الاصطناعي قد يفعل ذلك”. “من المهم وضع الأدوات المناسبة في الأيدي المناسبة وإضفاء الطابع الديمقراطي على الذكاء الاصطناعي في جميع أنحاء الشركة.”





Source link

زر الذهاب إلى الأعلى