أخبار التقنية

ريتشارد برانسون، حفيد أوبنهايمر يحث على اتخاذ إجراءات بشأن الذكاء الاصطناعي والمناخ


ويعتقد ريتشارد برانسون أن التكاليف البيئية للسفر إلى الفضاء “ستنخفض أكثر”.

باتريك تي فالون | فرانس برس | صور جيتي

يدعو العشرات من الشخصيات البارزة في مجال الأعمال والسياسة زعماء العالم إلى معالجة المخاطر الوجودية للذكاء الاصطناعي وأزمة المناخ.

مؤسس مجموعة فيرجن ريتشارد برانسونوقع الأمين العام السابق للأمم المتحدة بان كي مون، وتشارلز أوبنهايمر – حفيد عالم الفيزياء الأمريكي ج. روبرت أوبنهايمر – على رسالة مفتوحة تحث على اتخاذ إجراءات ضد المخاطر المتصاعدة لأزمة المناخ والأوبئة والأسلحة النووية. ، والذكاء الاصطناعي غير الخاضع للرقابة.

وتطلب الرسالة من زعماء العالم تبني استراتيجية بعيدة النظر و”العزم على حل المشاكل المستعصية، وليس مجرد إدارتها، والحكمة اللازمة لاتخاذ القرارات على أساس الأدلة العلمية والعقل، والتواضع للاستماع إلى كل المتضررين”.

ودعا الموقعون إلى اتخاذ إجراءات عاجلة متعددة الأطراف، بما في ذلك من خلال تمويل التحول بعيدا عن الوقود الأحفوري، والتوقيع على معاهدة عادلة بشأن الوباء، واستئناف محادثات الأسلحة النووية، وبناء الحوكمة العالمية اللازمة لجعل الذكاء الاصطناعي قوة من أجل الخير.

صدرت الرسالة يوم الخميس من قبل منظمة الحكماء، وهي منظمة غير حكومية أطلقها رئيس جنوب إفريقيا السابق نيلسون مانديلا وبرانسون لمعالجة قضايا حقوق الإنسان العالمية والدعوة إلى السلام العالمي.

وتحظى الرسالة أيضًا بدعم معهد مستقبل الحياة، وهي منظمة غير ربحية أنشأها عالم الكونيات في معهد ماساتشوستس للتكنولوجيا ماكس تيجمارك والمؤسس المشارك لشركة سكايب جان تالين، والتي تهدف إلى توجيه التكنولوجيا التحويلية مثل الذكاء الاصطناعي نحو إفادة الحياة وبعيدًا عن المخاطر واسعة النطاق.

الرئيس التنفيذي لشركة Fiserv: نحن نركز على كيفية استخدامنا للذكاء الاصطناعي لمساعدة عملائنا على إدارة أعمالهم بشكل أفضل

قال تيجمارك إن الحكماء ومنظمته أرادوا إيصال أنه على الرغم من أن التكنولوجيا ليست “شريرة” في حد ذاتها، إلا أنها تظل “أداة” يمكن أن تؤدي إلى بعض العواقب الوخيمة، إذا تُركت لتتقدم بسرعة في أيدي العالم. الأشخاص الخطأ.

“الاستراتيجية القديمة للتوجيه نحو الاستخدامات الجيدة [when it comes to new technology] وقال تيجمارك لـ CNBC في مقابلة: “لقد تعلمنا دائمًا من الأخطاء”. “لقد اخترعنا النار، ثم اخترعنا لاحقًا طفاية الحريق. لقد اخترعنا السيارة، ثم تعلمنا من أخطائنا واخترعنا حزام الأمان وإشارات المرور وحدود السرعة”.

‘هندسة السلامة’

وأضاف تيجمارك: “ولكن عندما يتجاوز الشيء بالفعل العتبة والقوة، فإن استراتيجية التعلم من الأخطاء تصبح … حسنًا، ستكون الأخطاء فظيعة”.

“باعتباري شخصًا مهووسًا، أعتقد أن الأمر يتعلق بهندسة السلامة. لقد أرسلنا أشخاصًا إلى القمر، وفكرنا بعناية شديدة في كل الأشياء التي يمكن أن تسوء عندما تضع الناس في خزانات وقود متفجرة وترسلهم إلى مكان لا يستطيع أحد مساعدته. لهم. ولهذا السبب سارت الأمور بشكل جيد في النهاية.

ومضى يقول: “لم يكن هذا “الفناء”. “كانت تلك هندسة السلامة. ونحن بحاجة إلى هذا النوع من هندسة السلامة لمستقبلنا أيضًا، مع الأسلحة النووية، والبيولوجيا الاصطناعية، والذكاء الاصطناعي الأكثر قوة”.

صدرت الرسالة قبل مؤتمر ميونيخ الأمني، حيث سيناقش المسؤولون الحكوميون والقادة العسكريون والدبلوماسيون الأمن الدولي وسط الصراعات المسلحة العالمية المتصاعدة، بما في ذلك الصراع الدائر في العالم. روسيا وأوكرانيا والحروب بين إسرائيل وحماس. سيحضر Tegmark الحدث للدفاع عن رسالة الرسالة.

معهد مستقبل الحياة العام الماضي أيضا أصدر رسالة مفتوحة بدعم من شخصيات بارزة بما في ذلك رئيس شركة Tesla Elon Musk والمؤسس المشارك لشركة Apple Steve Wozniak، والتي دعت مختبرات الذكاء الاصطناعي مثل OpenAI إلى إيقاف العمل مؤقتًا على تدريب نماذج الذكاء الاصطناعي الأقوى من GPT-4 – وهو نموذج الذكاء الاصطناعي الأكثر تقدمًا حاليًا من Sam ألتمان OpenAI.

ودعا خبراء التكنولوجيا إلى مثل هذا التوقف المؤقت في تطوير الذكاء الاصطناعي لتجنب “فقدان السيطرة” على الحضارة، الأمر الذي قد يؤدي إلى محو جماعي للوظائف وتفوق أجهزة الكمبيوتر على البشر.



Source link

زر الذهاب إلى الأعلى