أخبار التقنية

OpenAI وAnthropic يتفقان على السماح لمعهد سلامة الذكاء الاصطناعي الأمريكي باختبار النماذج


جاكوب بورزيكي | نور فوتو | صور جيتي

وافقت شركتا OpenAI وAnthropic، وهما الشركتان الناشئتان الأكثر قيمة في مجال الذكاء الاصطناعي، على السماح لمعهد سلامة الذكاء الاصطناعي الأمريكي باختبار نماذجهما الجديدة قبل إصدارها للجمهور، وذلك بعد تزايد المخاوف في الصناعة بشأن السلامة والأخلاق في مجال الذكاء الاصطناعي.

وقال المعهد، الذي يقع داخل قسم التجارة في المعهد الوطني للمعايير والتكنولوجيا (NIST)، في بيان: بيان صحفي أنها ستحصل على “الوصول إلى النماذج الجديدة الرئيسية من كل شركة قبل وبعد إصدارها للجمهور”.

تأسست المجموعة بعد أن أصدرت إدارة بايدن-هاريس مذكرة تفاهم مع الحكومة الأمريكية. أول أمر تنفيذي على الإطلاق على الذكاء الاصطناعي في أكتوبر 2023، ستتطلب تقييمات جديدة للسلامة، وإرشادات بشأن المساواة والحقوق المدنية، وأبحاث حول تأثير الذكاء الاصطناعي على سوق العمل.

كتب الرئيس التنفيذي لشركة OpenAI سام ألتمان في رسالة: “نحن سعداء بالتوصل إلى اتفاق مع معهد سلامة الذكاء الاصطناعي الأمريكي لإجراء اختبارات ما قبل الإصدار لنماذجنا المستقبلية”. بريد وأكدت شركة OpenAI أيضًا لشبكة CNBC يوم الخميس أنه في العام الماضي، ضاعفت الشركة عدد مستخدميها النشطين أسبوعيًا إلى 200 مليون. أكسيوس كان أول من أبلغ عن هذا العدد.

تأتي هذه الأخبار بعد يوم من ظهور تقارير تفيد بأن شركة OpenAI تجري محادثات لجمع جولة تمويلية لتقييم الشركة عند أكثر من 100 مليار دولاروتقود شركة Thrive Capital الجولة وستستثمر مليار دولار، وفقًا لمصدر مطلع على الأمر طلب عدم ذكر اسمه لأن التفاصيل سرية.

تم تقييم شركة Anthropic، التي أسسها مسؤولون تنفيذيون وموظفون سابقون في شركة OpenAI للأبحاث، مؤخرًا بمبلغ 18.4 مليار دولار. أمازون باعتبارها مستثمرًا رائدًا، في حين تحظى OpenAI بدعم كبير من مايكروسوفت.

وبحسب بيان صحفي صدر يوم الخميس، فإن الاتفاقيات بين الحكومة وOpenAI وAnthropic “ستمكن من إجراء بحث تعاوني حول كيفية تقييم القدرات ومخاطر السلامة، بالإضافة إلى طرق التخفيف من تلك المخاطر”. يطلق.

وقال جيسون كوون، كبير مسؤولي الاستراتيجية في شركة OpenAI، في بيان لشبكة CNBC: “نحن ندعم بقوة مهمة معهد سلامة الذكاء الاصطناعي الأمريكي ونتطلع إلى العمل معًا لإبلاغ أفضل ممارسات ومعايير السلامة لنماذج الذكاء الاصطناعي”.

وقال جاك كلارك، المؤسس المشارك لشركة أنثروبيك، إن “تعاون الشركة مع معهد سلامة الذكاء الاصطناعي في الولايات المتحدة يستفيد من خبرتهم الواسعة لاختبار نماذجنا بدقة قبل نشرها على نطاق واسع” و”يعزز قدرتنا على تحديد المخاطر وتخفيفها، وتعزيز تطوير الذكاء الاصطناعي المسؤول”.

عدد من مطوري وباحثي الذكاء الاصطناعي وقد أعربوا عن مخاوفهم حول السلامة والأخلاقيات في صناعة الذكاء الاصطناعي التي تسعى إلى الربح بشكل متزايد. الموظفون الحاليون والسابقون في OpenAI نشر رسالة مفتوحة في الرابع من يونيو، وصفت المشاكل المحتملة مع التقدم السريع الذي يحدث في مجال الذكاء الاصطناعي ونقص الرقابة وحماية المبلغين عن المخالفات.

وكتبوا في تقريرهم: “إن شركات الذكاء الاصطناعي لديها حوافز مالية قوية لتجنب الرقابة الفعالة، ونحن لا نعتقد أن الهياكل المصممة خصيصا للحوكمة المؤسسية كافية لتغيير هذا”. وأضافوا أن شركات الذكاء الاصطناعي “لا تتحمل حاليا سوى التزامات ضعيفة لمشاركة بعض هذه المعلومات مع الحكومات، ولا تتحمل أي التزامات مع المجتمع المدني”، ولا يمكن “الاعتماد عليها لمشاركتها طواعية”.

بعد أيام من نشر الرسالة، أكد مصدر مطلع على الموضوع لشبكة CNBC أن لجنة التجارة الفيدرالية ووزارة العدل كانتا من المقرر أن تفتح تحقيقات مكافحة الاحتكار إلى OpenAI وMicrosoft و نفيديا. رئيسة لجنة التجارة الفيدرالية لينا خان موصوف ووصفت وكالتها عملها بأنه “تحقيق في السوق في الاستثمارات والشراكات التي يتم تشكيلها بين مطوري الذكاء الاصطناعي ومقدمي خدمات السحابة الرئيسيين”.

في يوم الأربعاء، وافق المشرعون في كاليفورنيا اجتاز مشروع قانون سلامة الذكاء الاصطناعي، الذي تم إرساله إلى مكتب الحاكم جافين نيوسوم. سيقرر نيوسوم، وهو ديمقراطي، إما الاعتراض على التشريع أو التوقيع عليه ليصبح قانونًا بحلول 30 سبتمبر. وقد اعترضت بعض شركات التكنولوجيا على مشروع القانون، الذي من شأنه أن يجعل اختبارات السلامة وغيرها من الضمانات إلزامية لنماذج الذكاء الاصطناعي بتكلفة أو قوة حوسبة معينة، بسبب إمكاناته في إبطاء الابتكار.

يشاهد: جوجل وOpenAI وآخرون يعارضون مشروع قانون سلامة الذكاء الاصطناعي في كاليفورنيا

جوجل وOpenAI وآخرون يعارضون مشروع قانون سلامة الذكاء الاصطناعي في كاليفورنيا



Source link

زر الذهاب إلى الأعلى