أخبار التقنية

المتفائلون بالتكنولوجيا، والمتشائمون، وأخطر مناظرات الذكاء الاصطناعي في وادي السيليكون


واشنطن العاصمة – 13 سبتمبر: تحدث سام ألتمان، الرئيس التنفيذي لشركة OpenAI، مع الصحفيين عند وصوله إلى منتدى الذكاء الاصطناعي (AI) المشترك بين الحزبين في مجلس الشيوخ في الكابيتول هيل في واشنطن العاصمة، في 13 سبتمبر 2023. (تصوير إليزابيث فرانتز لصحيفة واشنطن النشر عبر Getty Images)

واشنطن بوست | واشنطن بوست | صور جيتي

الآن أكثر من بعد عام من تقديم ChatGPTربما تبين أن أكبر قصة للذكاء الاصطناعي في عام 2023 لا تتعلق بالتكنولوجيا نفسها بقدر ما هي قصة الدراما في قاعة اجتماعات OpenAI فوقها التقدم السريع. أثناء الإطاحة و إعادة لاحقة، لسام ألتمان كرئيس تنفيذي، فإن التوتر الكامن وراء الذكاء الاصطناعي التوليدي حتى عام 2024 واضح: الذكاء الاصطناعي يقع في قلب فجوة كبيرة بين أولئك الذين يتبنون بشكل كامل وتيرته السريعة للابتكار وأولئك الذين يريدون أن يتباطأ بسبب المخاطر العديدة التي تنطوي عليها.

يدور هذا الجدل، المعروف داخل دوائر التكنولوجيا باسم e/acc vs.decels، في وادي السيليكون منذ عام 2021. ولكن مع تزايد قوة الذكاء الاصطناعي ونفوذه، أصبح من المهم بشكل متزايد فهم جانبي الانقسام.

فيما يلي كتاب تمهيدي عن المصطلحات الأساسية وبعض اللاعبين البارزين الذين يشكلون مستقبل الذكاء الاصطناعي.

e/acc والتفاؤل التكنولوجي

يشير المصطلح “e/acc” إلى التسارع الفعال.

باختصار، يريد هؤلاء المؤيدون للملكية الفكرية أن تتحرك التكنولوجيا والابتكار بأسرع ما يمكن.

وأوضح مؤيدو هذا المفهوم في أول دراسة على الإطلاق أن “رأس المال التكنولوجي يمكن أن يبشر بالتطور التالي للوعي، مما يخلق أشكال حياة من الجيل التالي لا يمكن تصورها ووعيًا قائمًا على السيليكون”. بريد حول e/acc.

فيما يتعلق بالذكاء الاصطناعي، فهو كذلك “الذكاء العام الاصطناعي”، أو AGI، الذي يكمن وراء النقاش هنا. الذكاء الاصطناعي العام (AGI) عبارة عن ذكاء اصطناعي فائق الذكاء ومتقدم جدًا لدرجة أنه يمكنه القيام بالأشياء بشكل مماثل أو أفضل من البشر. يمكن للذكاء الاصطناعي العام أيضًا تحسين نفسه، وإنشاء حلقة ردود فعل لا نهاية لها وإمكانيات لا حدود لها.

دراما OpenAI: تطوير الذكاء الاصطناعي الأسرع فاز بالمعركة

يعتقد البعض أن الذكاء الاصطناعي العام سيكون لديه القدرات اللازمة لنهاية العالم، وسيصبح ذكيًا جدًا لدرجة أنه سيكتشف كيفية القضاء على البشرية. لكن عشاق e/acc يختارون التركيز على الفوائد التي يمكن أن تقدمها AGI. “ليس هناك ما يمنعنا من خلق الوفرة لكل إنسان على قيد الحياة سوى الرغبة في القيام بذلك”. تأسيس المكدس الفرعي e/acc شرح.

كان مؤسسو e/acc يكتنفهم الغموض. لكن @basedbeffjezos، الذي يمكن القول إنه أكبر مؤيد لـ e/acc، مؤخرًا كشف عن نفسه على أنه غيوم فيردون بعد أن كانت هويته كشفتها وسائل الإعلام.

يعمل فيردون، الذي عمل سابقًا لدى Alphabet وX وGoogle، الآن على ما يسميه “مشروع AI Manhattan” وقال في X “هذه ليست النهاية، ولكنها بداية جديدة لـ e/acc. يمكنني أن أتقدم ونجعل صوتنا مسموعًا في العالم التقليدي الذي يتجاوز X، وأن نستخدم أوراق اعتمادي لتقديم الدعم لمصالح مجتمعنا.”

فيردون هو أيضًا مؤسس شركة Extropic، وهي شركة ناشئة في مجال التكنولوجيا وصفها بأنها “تبني الركيزة النهائية للذكاء الاصطناعي التوليدي في العالم المادي من خلال تسخير الفيزياء الديناميكية الحرارية.”

بيان الذكاء الاصطناعي من أحد كبار VC

أحد أبرز مؤيدي e/acc هو الرأسمالي المغامر مارك أندريسن من شركة أندريسن هورويتز، الذي أطلق في السابق على فيردون لقب “القديس الراعي للتفاؤل التكنولوجي”.

التفاؤل التكنولوجي هو بالضبط ما يبدو عليه الأمر: يعتقد المؤمنون به أن المزيد من التكنولوجيا ستجعل العالم مكانًا أفضل في نهاية المطاف. كتب أندريسن بيان تكنو المتفائل، بيان مكون من أكثر من 5000 كلمة يشرح كيف ستعمل التكنولوجيا على تمكين البشرية وحل جميع مشاكلها المادية. ويذهب أندريسن إلى حد القول إن “أي تباطؤ في الذكاء الاصطناعي سيكلف أرواحًا”، وسيكون عدم تطوير الذكاء الاصطناعي بما يكفي لمنع الوفيات بمثابة “شكل من أشكال القتل”.

قطعة أخرى كتبها متفائلة بالتكنولوجيا تسمى لماذا سينقذ الذكاء الاصطناعي العالم؟ تمت إعادة نشرها بواسطة يان ليكون، كبير علماء الذكاء الاصطناعي في شركة ميتا، والذي يُعرف بأنه أحد “عرابي الذكاء الاصطناعي” بعد فوزه بالجائزة المرموقة جائزة تورينج لإنجازاته في مجال الذكاء الاصطناعي.

يان ليكون، كبير علماء الذكاء الاصطناعي في شركة Meta، يتحدث في مؤتمر Viva Tech في باريس، 13 يونيو 2023.

شسنوت | جيتي إيمجز نيوز | صور جيتي

LeCun يسمي نفسه على X باعتباره “عالمًا إنسانيًا يشترك في كل من الأشكال الإيجابية والمعيارية للتفاؤل التقني النشط.”

ليكون، الذي قال مؤخرا أنه لا يتوقع الذكاء الاصطناعي “الفائق” لقد كان الوصول لبعض الوقت بمثابة نقطة معارضة علنية لأولئك الذين يقول “إنهم يشككون في أن المؤسسات الاقتصادية والسياسية الحالية، والإنسانية ككل، ستكون قادرة على استخدام [AI] من أجل الخير.”

احتضان ميتا للذكاء الاصطناعي مفتوح المصدر يكمن وراء اعتقاد Lecun بأن التكنولوجيا ستوفر إمكانات أكثر من الضرر، بينما أشار آخرون إلى مخاطر نموذج أعمال مثل Meta's الذي يدفع باتجاه وضع نماذج الذكاء الاصطناعي العامة المتاحة على نطاق واسع في أيدي العديد من المطورين.

محاذاة الذكاء الاصطناعي والتباطؤ

في مارس، أ رسالة مفتوحة دعا معهد Encode Justice and the Future of Life جميع مختبرات الذكاء الاصطناعي إلى الإيقاف الفوري لمدة ستة أشهر على الأقل لتدريب أنظمة الذكاء الاصطناعي الأكثر قوة من GPT-4.

كانت الرسالة أقرتها شخصيات بارزة في مجال التكنولوجيا، مثل ايلون ماسك والمؤسس المشارك لشركة Apple ستيف وزنياك.

الرئيس التنفيذي لشركة OpenAI سام التمان تناولت الرسالة مرة أخرى في أبريل في حدث لمعهد ماساتشوستس للتكنولوجيا، قائلًا: “أعتقد أن التحرك بحذر وزيادة الصرامة فيما يتعلق بقضايا السلامة أمر مهم حقًا. ولا أعتقد أن الرسالة كانت الطريقة المثلى للتعامل معها.”

سام ألتمان من OpenAI حول تنظيم الذكاء الاصطناعي: يمكننا إدارة هذا الأمر بالتأكيد

انخرط ألتمان في المعركة من جديد عندما اندلعت الدراما في قاعة مجلس إدارة OpenAI، وتزايد قلق المديرين الأصليين للذراع غير الربحي لشركة OpenAI بشأن المعدل السريع للتقدم ومهمتها المعلنة “لضمان الذكاء العام الاصطناعي – أنظمة الذكاء الاصطناعي الأكثر ذكاءً بشكل عام”. من البشر – فهو يفيد البشرية جمعاء.”

بعض الأفكار الواردة في الرسالة المفتوحة هي مفتاح التباطؤ، الداعمين لتباطؤ الذكاء الاصطناعي. يريد Decels أن يتباطأ التقدم لأن مستقبل الذكاء الاصطناعي محفوف بالمخاطر ولا يمكن التنبؤ به، وأحد أكبر مخاوفهم هو محاذاة الذكاء الاصطناعي.

تعالج مشكلة محاذاة الذكاء الاصطناعي فكرة أن الذكاء الاصطناعي سيصبح في النهاية ذكيًا جدًا بحيث لن يتمكن البشر من التحكم فيه.

“إن هيمنتنا كنوع، مدفوعة بذكائنا المتفوق نسبيًا، أدت إلى عواقب ضارة على الأنواع الأخرى، بما في ذلك الانقراض، لأن أهدافنا لا تتماشى مع أهدافهم. نحن نتحكم في المستقبل – الشمبانزي موجود في حدائق الحيوان. يمكن لأنظمة الذكاء الاصطناعي المتقدمة بالمثل وقال مالو بورغون، الرئيس التنفيذي لمعهد أبحاث الذكاء الآلي: “إنها تؤثر على البشرية”.

تهدف أبحاث محاذاة الذكاء الاصطناعي، مثل MIRI، إلى تدريب أنظمة الذكاء الاصطناعي على “مواءمتها” مع أهداف البشر وأخلاقهم وأخلاقهم، مما من شأنه أن يمنع أي مخاطر وجودية على البشرية. وقال بورغون: “إن الخطر الأساسي يكمن في إنشاء كيانات أكثر ذكاءً منا وذات أهداف غير متوافقة ولا يمكن التنبؤ بأفعالها ولا يمكن السيطرة عليها”.

قضية نهاية العالم للحكومة والذكاء الاصطناعي

كرست كريستين بارتيمور، الرئيس التنفيذي لمجلس المخاطر الاستراتيجية والمسؤولة السابقة في البنتاغون، حياتها المهنية لإزالة المخاطر في المواقف الخطرة، و أخبرت CNBC مؤخرًا أنه عندما ننظر إلى “الموت الجماعي” الذي يمكن أن يسببه الذكاء الاصطناعي إذا تم استخدامه للإشراف على الأسلحة النووية، فهي قضية تتطلب اهتمامًا فوريًا.

وشددت على أن “التحديق في المشكلة” لن يجدي نفعا. وقالت: “الهدف الأساسي هو معالجة المخاطر وإيجاد مجموعات الحلول الأكثر فعالية”. وأضافت: “إنها تقنية ذات استخدام مزدوج في حقيقتها”. “لا توجد حالة يكون فيها الذكاء الاصطناعي سلاحًا أكثر من كونه حلاً.” على سبيل المثال، ستصبح النماذج اللغوية الكبيرة بمثابة مساعدين مختبريين افتراضيين وتسريع الطب، ولكنها تساعد أيضًا الجهات الفاعلة الشريرة في تحديد أفضل مسببات الأمراض وأكثرها قابلية للانتقال لاستخدامها في الهجوم. وقالت إن هذا من بين الأسباب التي تجعل من الصعب إيقاف الذكاء الاصطناعي. وقال بارثيمور: “إن التباطؤ ليس جزءًا من مجموعة الحلول”.

وزير القوات الجوية يتحدث عن تكنولوجيا الذكاء الاصطناعي في ساحة المعركة: سيكون هناك دائمًا بشر متورطون

وفي وقت سابق من هذا العام، قال صاحب عملها السابق، وزارة الدفاع، إنه في استخدامه لأنظمة الذكاء الاصطناعي سيكون هناك دائمًا إنسان في الحلقة. هذا هو البروتوكول الذي تقول إنه يجب اعتماده في كل مكان. وقالت: “لا يمكن للذكاء الاصطناعي في حد ذاته أن يكون هو السلطة”. “لا يمكن أن يكون الأمر كذلك،” الذكاء الاصطناعي يقول X.” … نحن بحاجة إلى الثقة في الأدوات، أو لا ينبغي لنا أن نستخدمها، ولكننا بحاجة إلى وضعها في سياقها. … هناك نقص عام في الفهم حول مجموعة الأدوات هذه مما يزيد من خطر الثقة المفرطة والاعتماد المفرط.

وقد بدأ المسؤولون الحكوميون وصناع السياسات في ملاحظة هذه المخاطر. وفي يوليو/تموز، أعلنت إدارة بايدن-هاريس ذلك ضمان الالتزامات الطوعية من عمالقة الذكاء الاصطناعي أمازون، وأنثروبك، وجوجل، وإنفليكشن، وميتا، ومايكروسوفت، وأوبن إيه آي “للتحرك نحو تطوير آمن ومأمون وشفاف لتكنولوجيا الذكاء الاصطناعي”.

قبل بضعة أسابيع فقط، الرئيس بايدن أصدر أمرا تنفيذيا مما أدى إلى وضع معايير جديدة لسلامة وأمن الذكاء الاصطناعي، من خلال مجموعة أصحاب المصلحة عبر المجتمع يشعرون بالقلق إزاء حدودها. وبالمثل، فإن حكومة المملكة المتحدة قدمت معهد سلامة الذكاء الاصطناعي في أوائل نوفمبر، وهو أول منظمة مدعومة من الدولة تركز على التعامل مع الذكاء الاصطناعي.

يحضر رئيس الوزراء البريطاني ريشي سوناك (يسار) حدثًا حواريًا مع الرئيس التنفيذي لشركة X (تويتر سابقًا) إيلون ماسك (يمين) في لندن في 2 نوفمبر 2023، بعد قمة سلامة الذكاء الاصطناعي في المملكة المتحدة. (تصوير كيرستي ويجلزورث / بول / وكالة الصحافة الفرنسية) (تصوير كيرستي ويجلزورث / بول / وكالة الصحافة الفرنسية عبر غيتي إيماجز)

كيرستي ويجلزورث | أ ف ب | صور جيتي

وفي خضم السباق العالمي على تفوق الذكاء الاصطناعي، وارتباطاته بالتنافس الجيوسياسي، تنفذ الصين تفوقها الخاص مجموعة من حواجز الحماية بالذكاء الاصطناعي.

وعود الذكاء الاصطناعي المسؤول والشكوك

يعمل OpenAI حاليًا على المحاذاة الفائقة، والذي يهدف إلى “حل التحديات التقنية الأساسية لمحاذاة الذكاء الفائق في أربع سنوات.”

أعلنت شركة أمازون في مؤتمر Amazon Web Services re:Invent 2023 الأخير قدرات جديدة لابتكار الذكاء الاصطناعي جنبًا إلى جنب مع تنفيذ ضمانات الذكاء الاصطناعي المسؤولة عبر المؤسسة.

تقول ديا وين، قائدة الذكاء الاصطناعي المسؤولة في AWS: “كثيرًا ما أقول إنها ضرورة عمل، ولا ينبغي النظر إلى الذكاء الاصطناعي المسؤول على أنه مسار عمل منفصل، بل ينبغي دمجه في نهاية المطاف في الطريقة التي نعمل بها”.

وفق دراسة بتكليف من AWS وأجرته شركة Morning Consult، يمثل الذكاء الاصطناعي المسؤول أولوية عمل متنامية لـ 59% من قادة الأعمال، حيث يخطط حوالي نصفهم (47%) للاستثمار في الذكاء الاصطناعي المسؤول في عام 2024 أكثر مما فعلوه في عام 2023.

على الرغم من أن الاستعانة بالذكاء الاصطناعي المسؤول قد يؤدي إلى إبطاء وتيرة ابتكار الذكاء الاصطناعي، فإن فرقًا مثل فريق وين ترى نفسها على أنها تمهد الطريق نحو مستقبل أكثر أمانًا. وقال وين: “تدرك الشركات القيمة وتبدأ في إعطاء الأولوية للذكاء الاصطناعي المسؤول”، ونتيجة لذلك، “ستكون الأنظمة أكثر أمانًا وأمانًا، [and more] شامل.”

بورغون غير مقتنع ويقول إن إجراءات مثل تلك التي أعلنتها الحكومات مؤخرًا “بعيدة كل البعد عما سيكون مطلوبًا في النهاية”.

ويتوقع أنه من المحتمل أن تتقدم أنظمة الذكاء الاصطناعي إلى مستويات كارثية في وقت مبكر من عام 2030، ويجب على الحكومات أن تكون مستعدة لوقف أنظمة الذكاء الاصطناعي إلى أجل غير مسمى حتى يتمكن كبار مطوري الذكاء الاصطناعي من “إثبات سلامة أنظمتهم بقوة”.

ستيف ليفي من WIRED يتحدث عن سباق التسلح للذكاء الاصطناعي: OpenAI لا تتمتع بـ





Source link

زر الذهاب إلى الأعلى