المساومة حول مستقبل تنظيم الذكاء الاصطناعي ومسؤوليته
الآن بعد أن مر العالم بعامه الأول من الهوس بالذكاء الاصطناعي، تزايدت المخاوف بشأن التغييرات المحتملة على المدى الطويل والمتاعب التي قد تجلبها التكنولوجيا. إن تعطيل الوظائف وانتشار المعلومات الخاطئة والهلوسة الرقمية والأنواع الجديدة من الهجمات الإلكترونية ليست سوى عدد قليل من السلبيات المحتملة المرتبطة بـ GenAI إلى جانب المزايا التي يمكن أن تقدمها.
في قمة الذكاء الاصطناعي ومستقبل العمل التي انعقدت الأسبوع الماضي في مدينة نيويورك، ناقشت اللجنة النهائية حول “لوائح الذكاء الاصطناعي المسؤول: 2024 وما بعدها” التدقيق في الذكاء الاصطناعي والسياسات التي تتشكل حوله.
ضمت اللجنة كيث سوندرلينج، مفوض لجنة تكافؤ فرص العمل؛ جورج ماثيو، المدير الإداري لشركة رأس المال الاستثماري والأسهم الخاصة شركاء انسايت; وستيفن مالون، نائب الرئيس للشؤون القانونية والتوظيف والشؤون المؤسسية في شركة فوكس؛ وفار شانكار، المدير التنفيذي لمنظمة غير ربحية معهد الذكاء الاصطناعي المسؤول. وأدارت الجلسة كريستال هو، مراسلة رأس المال الاستثماري والشركات الناشئة لدى رويترز. فريق، وهي منصة لسوق المواهب الهندسية، استضافت القمة.
أشار سوندرلينج مازحًا إلى أن ظهور ChatGPT قبل عام واحد لم يلفت انتباه الجمهور فحسب، بل أيقظ السياسيين فعليًا على وجود الذكاء الاصطناعي. وقال: “بالنسبة لأعضاء الكونجرس وأعضاء مجلس الشيوخ، يمكنهم اللعب بها بأنفسهم، والأهم من ذلك، يمكن لناخبيهم استخدامها والتلاعب بها”. “فجأة أصبحت القصة الإخبارية الأولى، ومن ثم بدأت واشنطن تهتم بهذا الأمر.”
وقال سوندرلينغ إن تدفق صناع السياسات الذين يناقشون الذكاء الاصطناعي يمكن أن يكون مصدر إلهاء كبير لمؤسسي التكنولوجيا الذين قد يترددون في “الانخراط في هذا المجال، أو الاستثمار فيه، أو الشراء في هذا المجال، أو مجرد أن يصبحوا قادة فكريين في هذا المجال حتى يتمكنوا من صنع منتجات جديدة.” وقال إن التطور التدريجي والفوضوي إلى حد ما لتنظيم الذكاء الاصطناعي في الولايات المتحدة وحول العالم يحجب بعض الجوانب المهمة للتكنولوجيا. وقال: “ما يفعله الذكاء الاصطناعي هو اتخاذ قرار، وفي حالتي، فهو يتخذ قرارًا بشأن التوظيف، و/أو في التمويل يتخذ قرارًا ائتمانيًا، وفي الإسكان يتخذ قرارًا بشأن الإسكان”. “مهما كان الاستخدام الذي تريده لاستخدام الذكاء الاصطناعي، فهو اتخاذ القرار.”
وقال سوندرلينغ إن قرارات التوظيف تم تنظيمها في الولايات المتحدة منذ عام 1964، والتي تتضمن سياسات طويلة الأمد بشأن عدم التحيز أو التمييز. وحتى مع إضافة الذكاء الاصطناعي أو الموارد الأخرى، ينبغي دعم المبادئ الأساسية من خلال القوانين الحالية. وقال: “وكل ما تفعله هو استخدام التكنولوجيا إما لمساعدتك، أو تعزيزها، أو اتخاذ هذا القرار بالكامل”. وقال سوندرلينغ إنه من غير الواضح ما إذا كانت القوانين الفيدرالية الجديدة أو الإضافات للقوانين الحالية قد تتطور في سياق الذكاء الاصطناعي، لكنه اقترح على مؤسسي التكنولوجيا ألا يبالغوا في توقع التشريعات التي لم تتم كتابتها بعد. قال: “لا تشتت انتباهك”. “مهما كانت الصناعة التي تعمل بها، هناك مبادئ تتعلق باستخدام أي منتج تقوم بتصنيعه، ومهما كان القرار الذي تتخذه والذي ظل قائمًا منذ فترة طويلة، وهذا هو [what] يجب أن تبني برامجك حولها، وليس على التنظيم المستقبلي المحتمل.
من الواضح أن مؤسسي التكنولوجيا ليسوا وحدهم في المخاوف بشأن التنظيم والمسؤولية في استخدام الذكاء الاصطناعي. وقال مالون بالنسبة لمؤسسة بحجم فوكس، تضم آلاف الموظفين، قد تكون هناك مخاوف بشأن شراء مدير أو موظف لتطبيقات برمجية يمكن أن تؤدي إلى عناصر خطر غير متوقعة للشركة. وقال: “إن المنظمة التي تتبنى هذا النوع من التكنولوجيا تحتاج حقًا إلى بذل قصارى جهدها للتأكد من أنها متوافقة من وجهة نظر أمن البيانات وخصوصية البيانات”.
هناك أيضًا عامل المستخدم، والذي قد يؤدي عن غير قصد إلى تغذية الذكاء الاصطناعي بمعلومات خاصة يتم إطلاقها في البرية. قال مالون: “كان علينا أن نرسل إلى موظفينا بعض التحذيرات بشأن استخدام منتجات الذكاء الاصطناعي التوليدية وChatGPT”. “هناك بعض المخاوف من أنه إذا قام الموظفون بوضع معلومات سرية في هذا النظام، فإن النظام سوف يتعلم منه ويتبناه ومن المحتمل أن يقدم ذلك كنتيجة لمستخدمين آخرين هناك. ومن ثم تخرج معلوماتنا السرية إلى السوق”.
قد تجد المؤسسات التي تستخدم المحتوى الذي ينتجه الذكاء الاصطناعي التوليدي نفسها أيضًا تواجه أسئلة حول ملكية منتجاتها الخاصة. وقال: “نحن قلقون من أن المستخدمين الذين يستخدمون الذكاء الاصطناعي التوليدي، على سبيل المثال، يتلقون النتائج التي قد تكون محمية بحقوق الطبع والنشر ثم يستخدمونها عن غير قصد، ويحتفظون بها كمحتوى خاص بهم وينتهكون قوانين حقوق الطبع والنشر عن غير قصد”.
يشكل توظيف الموظفين والاحتفاظ بهم بمساعدة منتجات الذكاء الاصطناعي مخاطر محتملة أخرى للشركات. قال مالون: “أعتقد أن هناك الكثير من أدوات الذكاء الاصطناعي الهائلة في مكان العمل من حيث مساعدتك في التوظيف، والتواصل، والضغط من أجل الحصول على قائمة متنوعة، والحصول على توظيف أفضل – أعتقد في الواقع أنها أداة رائعة لتعزيز التنوع”. “هناك بعض الجوانب السلبية المحتملة، على الرغم من أنه إذا لم يتم استخدام هذه التكنولوجيا بشكل صحيح، ولذا أعتقد أن أي منظمة، قبل أن تتبنى ذلك، تحتاج حقًا إلى البدء في ذلك”.
قد تكون التحركات السياسية الأخيرة، مثل الأمر التنفيذي بشأن الذكاء الاصطناعي الذي وقعه الرئيس بايدن، علامات على أشياء قادمة. وأشار شانكار إلى أنه على الرغم من أن الأمر التنفيذي قد يكون له قوة القانون، إلا أنه لا ينطبق إلا على الوكالات الفيدرالية – ومع ذلك لديه بعض القدرة على إعطاء الأسبقية. وقال: “إنه ليس قانونًا واسعًا مثل قانون الاتحاد الأوروبي بشأن الذكاء الاصطناعي”. “إنها تقدم نوعًا ما إرشادات للوكالات التنفيذية حول كيفية إنفاذ القوانين الحالية، لذا فهي قوية جدًا بهذه الطريقة.”
ونظرًا لكون الحكومة الفيدرالية عميلاً ضخمًا للتكنولوجيا، قال شانكار إن إجراءات الشراء الخاصة بها يمكن أن تضع معيارًا لما يبدو عليه “الجيد”، حتى أكثر من التنظيم أو التطورات العالمية. “هذا هو السبب الرئيسي الذي يجعل الكثير من أعضائنا يتطلعون إلى NIST [National Institute of Standards and Technology]التي من المفترض أن تكون وكالة غير تنظيمية وتكنوقراطية. وقال شانكار إن نهج NIST يقدم مفردات ومصطلحات مشتركة يمكن للمجتمعات البناء عليها.
إن انتظار مناقشة دور الذكاء الاصطناعي داخل المنظمة، حتى مع استمرار صياغة اللوائح التنظيمية، لا يبدو أنه خيار متاح لأن العالم أصبح متورطًا في مثل هذه التكنولوجيا. وربما يأخذ صناع السياسات وقتهم في ترتيب خرائط الطريق الخاصة بهم؛ قد لا تتمتع الشركات بهذا الترف. “عندما تأتي إلينا المنظمات ويقولون لنا: “مرحبًا، كيف نبدأ بالتفكير في هذا الأمر؟” قال شانكار: “نحن نوعًا ما، كان يجب أن تفكر في هذا الأمر منذ بضع سنوات”. “نحن في فترة العواقب ومن الواضح أنه من الأفضل وضع حواجز الحماية في مكانها الآن والتفكير في هذه القضايا الآن. إن المنظمات التي حققت أداءً رقميًا جيدًا على مدار الأعوام العديدة الماضية أصبحت بالفعل في وضع أفضل للتعامل مع هذه المشكلات.