حوكمة الذكاء الاصطناعي: رسم خريطة الطريق إلى الأمام
ألقي نظرة على المشهد التكنولوجي وعلى الأرجح ستوافق بسهولة على أن سحب (البيانات) في الأفق تبدو مختلفة إلى حد كبير اليوم، مقارنة بما كانت عليه قبل بضع سنوات قصيرة فقط.
إذا كان التركيز على حماية البيانات بالأمس، فإن هذا يبدو اليوم مقيدًا للغاية. لقد وصلنا إلى نقطة يتعين فيها على البيانات الشخصية وحقوق حماية البيانات والبيانات بالمعنى الأوسع للكلمة أن تتصارع بشكل جماعي مع عدد لا يحصى من القوانين واللوائح. ويتطرق البعض حتما إلى البيانات على وجه التحديد، وخاصة في مجال التنظيم الرقمي، ولكن على نحو متزايد ــ ومن المفهوم ــ أن هذا الاهتمام يمتد إلى الذكاء الاصطناعي.
الآن، مع حكومة المملكة المتحدة الجديدة استخدام البيانات وفاتورة الوصول في مراحله الجنينية، قد نغفر لك الاعتقاد بأن قطاع التكنولوجيا على أعتاب شيء يقترب من استراتيجية متماسكة. ومع ذلك، يبدو أن المشهد العالمي المتطور في تنظيم كل من البيانات والذكاء الاصطناعي يشبه إلى حد كبير Spaghetti Junction، أكثر من كونه نهجًا منظمًا.
والحقيقة هي أنه، خلافًا للاعتقاد الشائع، فإن تنظيم البيانات الشخصية لم يبدأ فعليًا مع اللائحة العامة لحماية البيانات. قبل عشرين عاما من صدوره في المملكة المتحدة، تم تنظيمنا من قبل قانون حماية البيانات لعام 1998 والتي قامت بنفسها بتنفيذ التوجيه الأوروبي لحماية البيانات. ولم تكن تلك حتى المحاولة الأولى للتحكم في استخدامنا للبيانات. ففي نهاية المطاف، إذا استعرنا كلمات من فرقة الروك Talking Heads، فنحن نعرف إلى أين نحن ذاهبون.
في هذا الصدد، سأذهب إلى أبعد من ذلك وأقول إن ظهور اللائحة العامة لحماية البيانات في عام 2018 لم يمثل حقًا تحولًا أساسيًا في حقوق والتزامات حماية البيانات التي كنا نديرها لسنوات – ولكنه حقق شيئين مهمين للغاية .
فمن ناحية، زادت بشكل كبير العقوبات المتاحة للجهات التنظيمية لمعاقبة الشركات على عدم الامتثال.
ومن ناحية أخرى – وربما الأهم – فقد وضعت حماية البيانات على الأجندة العالمية على نحو لم نشهده من قبل. أصبحت مفاهيم حماية البيانات وحقوق حماية البيانات لغة مشتركة للأفراد والمشرعين في جميع أنحاء العالم. يضع القانون العام لحماية البيانات البيانات على الخريطة.
لقد قاد الاتحاد الأوروبي الطريق في مجال حماية البيانات، ولكن هل سيفعل ذلك في مجال الذكاء الاصطناعي؟
منذ أيام عام 2018، شهدنا تدفقًا ثابتًا لقوانين حماية البيانات التي تم سنها على نطاق واسع، والتي يبدو، على الأقل، متأثرة بالنموذج الأوروبي لتشريعات البيانات الشخصية. قد لا تكون هذه القوانين متماثلة تمامًا، لكنها غالبًا ما تستند إلى مفاهيم وحقوق والتزامات متشابهة. وفي الآونة الأخيرة، شهدنا انتشارًا للبنود التعاقدية القياسية على غرار الاتحاد الأوروبي التي تطلبها السلطات القضائية في جميع أنحاء العالم لإضفاء الشرعية على نقل البيانات الشخصية خارج حدودها. وبهذه الطريقة نرى أن الاتحاد الأوروبي قد قاد الطريق في تنظيم حماية البيانات.
السؤال الذي يطرح إجابة هو ما إذا كنا نشهد أو سنشهد نفس التطور في تنظيم الذكاء الاصطناعي؟
بعبارات بسيطة الجواب هو “لا”. لقد كان الذكاء الاصطناعي موجودًا منذ فترة طويلة دون تنظيم محدد. لكن مقدمة الذكاء الاصطناعي التوليدي يبدو بالتأكيد أن الذكاء الاصطناعي الذي أصبح في الاتجاه السائد مؤخرًا نسبيًا قد أدى إلى تسريع المناقشات حول كل من الرغبة والحاجة إلى تنظيم الذكاء الاصطناعي بطريقة أو شكل أو شكل ما. من المؤكد أنه في السنوات القليلة الماضية، كان عدد متزايد من البلدان في جميع أنحاء العالم يتصارع مع مسألة ما إذا كان ينبغي التشريع ــ وكيفية التشريع ــ في مجال الذكاء الاصطناعي.
إذا حولنا تركيزنا مرة أخرى إلى أوروبا، كما فعلنا مع تنظيم حماية البيانات، في ظاهر الأمر، قد يبدو هذا وكأنه حالة من التاريخ يعيد نفسه. لقد تبنت أوروبا مؤخرًا نظامها قانون الذكاء الاصطناعي ومرة أخرى، يبدو أنها تحاول الاستفادة من ميزة المحرك الأول في المشهد التنظيمي المتطور للذكاء الاصطناعي. حتى أنها تمكنت من المضي قدمًا في التشريع بوتيرة أسرع بكثير مما تم تحقيقه من خلال اللائحة العامة لحماية البيانات على الرغم من، أو ربما بسبب، الكم الهائل من الضجيج المحيط بتكنولوجيا الذكاء الاصطناعي في الوقت الحالي.
المشكلة هي أن الضجيج غالبًا ما يتبعه غلو.
ويبدو من الواضح أن أوروبا ترغب في أن يتمتع قانون الذكاء الاصطناعي الخاص بها بنفس النوع من التأثير العالمي الذي يتمتع به القانون العام لحماية البيانات الذي سبقه. ولكن هل نعتقد أنه سوف؟ يعتقد بعض المعلقين أن الأمر سيكون كذلك، لكن الحقيقة هي أنه من المستحيل معرفة ذلك… حتى الآن. لا يزال قانون الاتحاد الأوروبي بشأن الذكاء الاصطناعي في مرحلة مبكرة، لكن العلامات المبكرة تشير إلى أن المزاج العالمي لم ينسجم بعد بشأن مسألة ما إذا كانت هناك حاجة إلى تنظيم محدد أم لا، ناهيك عن الشكل الذي ينبغي أن يتخذه هذا التنظيم.
ثلاثة أساليب لتنظيم الذكاء الاصطناعي
كأستاذ بجامعة كولومبيا آنو برادفورد وكما يقول، يمكن تحديد الأطر القانونية التي تتبناها مختلف المناطق حاليا بثلاث طرق. إن النهج الذي تقوده الشركة هو السائد في الولايات المتحدة؛ وهذا بالمقارنة مع التركيز الذي تقوده الدولة كما هو الحال في الصين والنهج القائم على الحقوق، كما هو الحال في أوروبا.
وبطبيعة الحال، لكل منها مزايا وعيوب، لكن التفاوت يرمز إلى قضية أوسع نطاقا، لم يتم حلها بعد. فهل سيتم الحكم على النجاح، على سبيل المثال، استنادا إلى ما إذا كان التنظيم قائما على المخاطر أم يركز على النتائج؟ أعتقد أن الكثير يعتمد على ما إذا كان المشرعون والهيئات التنظيمية أكثر اهتماما بالمخاطر المرتبطة بتطبيقات الذكاء الاصطناعي أو السماح بالمرونة حتى يمكن استخدام الذكاء الاصطناعي إلى أقصى إمكاناته وعدم خنق الابتكار.
هناك أيضًا سؤال حول مدى رغبتهم في أن يكونوا تحريميًا. تسمح الأطر القانونية الواضحة بتنفيذ أفضل ولكنها لا تسمح بالحرية التي توفرها المبادئ التوجيهية أو قواعد السلوك – وهو أمر مهم لمثل هذه التكنولوجيا سريعة التطور.
النهج القديم الجيد
في مكان ما في الوسط هو ما البروفيسور ليليان إدواردز يشير إلى “النهج القانوني القديم الجيد”، مما يعني أن لدينا بالفعل قوانين معمول بها تتعامل مع قضايا مثل حماية البيانات، والملكية الفكرية، وحماية المستهلك، ومكافحة التمييز. وجهة نظرها عادلة – إذا كانت هذه القوانين موجودة بالفعل، فلماذا نحتاج إلى قوانين جديدة خاصة بهذه التكنولوجيا الجديدة؟
وبطبيعة الحال، فإن التحدي لا ينتهي عند هذا الحد. داخل كل نهج هناك عدد لا يحصى من الفروق الدقيقة والاختلافات في جميع أنحاء العالم. ويبدو أن هذا الاتجاه يتجه حاليًا نحو مشهد عالمي متطور تنظيم الذكاء الاصطناعي والذي يبدو إلى حد ما مثل أحجية الصور المقطوعة العملاقة والمعقدة، ولكن الأمر الأكثر إحباطًا، هو أحجية الصور المقطوعة حيث لا تتناسب القطع معًا لإنشاء صورة تنظيمية عالمية.
ربما كان من الصعب التنقل بين تعقيدات قوانين حماية البيانات المتعددة المتشابهة ولكنها ليست متماثلة. ولكن يبدو أن المشهد التنظيمي العالمي للذكاء الاصطناعي يتطور في اتجاه مختلف تمامًا وأكثر تحديًا، مما يترك المنظمات العالمية تكافح من أجل تحديد أين ومتى قد تخضع للالتزامات التنظيمية للذكاء الاصطناعي.
كل هذا يعيدني إلى كلمات Talking Heads الشهيرة. عندما يتعلق الأمر بالذكاء الاصطناعي، سيكون من الخطأ الاعتقاد بأننا نسير على طريق لا يؤدي إلى أي مكان، لكننا نحتاج إلى وقت لحل هذه المشكلة.
ميريام ايفرت هو الشريك والرئيس العالمي للبيانات والخصوصية في شركة Herbert Smith Freehills