مخاطر الملكية الفكرية لـ GenAI
إن اعتماد الذكاء الاصطناعي التوليدي في الهشيم هو نعمة ونقمة في نفس الوقت. من ناحية، يستخدم العديد من الأشخاص GenAI للعمل بكفاءة أكبر، وتحاول الشركات توسيع نطاقه بطريقة على مستوى المؤسسات. وفي الوقت نفسه، لا تتحرك المحاكم والجهات التنظيمية بسرعة كبيرة، لذا يجب على الشركات أن تكون ذكية جدًا بشأن ما تفعله وإلا فإنها تخاطر بانتهاك الملكية الفكرية والتسرب وإساءة الاستخدام.
“من المؤكد أن القانون يقف وراء اعتماد الأعمال والتكنولوجيا في الوقت الحالي، لذلك يدخل الكثير من عملائنا إلى هذا المجال، ويتبنون الذكاء الاصطناعي، وينشئون أدوات الذكاء الاصطناعي الخاصة بهم دون الكثير من التوجيه من المحاكم، لا سيما فيما يتعلق بقانون حقوق الطبع والنشر، “، تقول سارة برو، الشريكة في مكتب محاماة ماكديرموت ويل وإيمري. “لقد شجعتني حقًا رؤية التوجيهات التجارية والقانونية تساعد في تخفيف المخاطر أو إدارة العلاقات حول التكنولوجيا والاستخدام، وتحاول الأطراف حقًا التفكير بشكل استباقي حول كيفية معالجة الأمور عندما لا يكون لدينا توجيهات قانونية واضحة بشأن كل قضية في هذه المرحلة.”
لماذا يتعين على المديرين التنفيذيين ومجالس الإدارة استباق هذا الأمر الآن
يمكن أن يؤدي GenAI إلى أربعة أنواع من انتهاكات الملكية الفكرية: حقوق الطبع والنشر والعلامات التجارية وبراءات الاختراع والأسرار التجارية. حتى الآن، تم إيلاء المزيد من الاهتمام لجانب القدرة التنافسية للأعمال في GenAI أكثر من المخاطر المحتملة لاستخدامه، مما يعني أن الشركات لا تدير المخاطر بمهارة كما ينبغي.
“يحتاج فريق الإدارة العليا إلى التفكير في كيفية استخدام الموظفين للبيانات السرية والخاصة. ما الذي يمنحنا ميزة تنافسية؟ يقول براد تشين، شريك الملكية الفكرية في بريسويل شركة محاماة. “هل يستخدمونها في التسويق لوضع علامة تجارية على منتج أو عملية جديدة؟ هل يستخدمون الذكاء الاصطناعي التوليدي لإنشاء التقارير؟ هل يستخدم قسم المحاسبة الذكاء الاصطناعي التوليدي لتحليل البيانات التي قد يحصلون عليها من طرف ثالث؟
تاريخياً، كانت حماية الملكية الفكرية تشتمل على اتفاقيات عدم الإفصاح (NDAs)، ولم يتغير هذا الوضع. في الواقع، يجب أن تغطي اتفاقيات عدم الإفصاح GenAI. ومع ذلك، وفقا لتشين، فإن استخدام بيانات الشركة، وربما بيانات الآخرين، في أداة GenAI يثير التساؤل حول ما إذا كانت الأسرار التجارية للشركة لا تزال محمية.
“ليس لدينا الكثير من السوابق القضائية في هذا الشأن حتى الآن، ولكن هذا أحد الاعتبارات التي تنظر إليها المحاكم في إدارة الشركة لأسرارها التجارية: ما هي الإجراءات والبروتوكولات والممارسات التي تطبقها، لذلك من المهم لـ C- يقول تشين: “يجب على المديرين التنفيذيين أن يفهموا أن الخطر لا يقتصر فقط على المعلومات التي يضعها موظفوهم في الذكاء الاصطناعي، ولكن أيضًا أدوات الذكاء الاصطناعي التي قد يستخدمها موظفوهم فيما يتعلق بمعلومات أو بيانات شخص آخر”. “لا تحتوي معظم اتفاقيات عدم الإفصاح الخاصة بالشركة واتفاقيات الشركة العامة على أحكام تراعي استخدام الذكاء الاصطناعي التوليدي أو أدوات الذكاء الاصطناعي.”
بعض ميزات تطوير الذكاء الاصطناعي تجعل GenAI خطرًا من وجهة نظر حقوق النشر والسرية.
“لتدريب نماذج التعلم الآلي بشكل صحيح، تحتاج إلى الكثير من البيانات. معظم مطوري الذكاء الاصطناعي الأذكياء اكتسبوا مهاراتهم في البيئات الأكاديمية، حيث لم يتم تدريبهم على مراعاة حقوق الطبع والنشر أو الخصوصية. يقول كيرك سيجمون، محامي الملكية الفكرية والشريك في مركز الأبحاث: “لقد تم تزويدهم ببساطة بمجموعات بيانات عامة للعب بها”. بانر ويتكوف محاماة، في مقابلة عبر البريد الإلكتروني. “ونتيجة لذلك، فإن مطوري الذكاء الاصطناعي داخل الشركة وخارجها ليسوا مقيدين فيما يتعلق بما يمكنهم استخدامه لتدريب النماذج واختبارها، وهم يميلون جدًا إلى الحصول على كل ما في وسعهم لتحسين نماذجهم. يمكن أن يكون هذا خطيرًا: فهو يعني أنه ربما يميلون أكثر من المطورين الآخرين إلى التغاضي عن قضايا حقوق الطبع والنشر أو السرية أو عدم التفكير فيها.
وبالمثل، قد تكون العناصر الفنية والعناصر المرئية الأخرى المستخدمة في الذكاء الاصطناعي التوليدي، مثل Gemini وDALL-E، محمية بحقوق الطبع والنشر، وقد تكون الشعارات محمية بعلامة تجارية. يمكن أن يؤدي GenAI أيضًا إلى مشكلات متعلقة ببراءات الاختراع، وفقًا لـ Bracewell’s Chin.
يقول تشين: “يمكن لطرف ثالث الوصول إلى المعلومات المدخلة في الذكاء الاصطناعي التوليدي، والذي يأتي بخمسة حلول مختلفة”. “إذا قامت الشركة التي لديها المعلومات بتقديم براءات اختراع لهذه التكنولوجيا، فيمكنها استبعاد أو منع تلك الشركة الأصلية من الحصول على هذا الجزء من السوق.”
تحتاج مجالس الإدارة والرؤساء التنفيذيون إلى إعطاء الأولوية لمناقشات GenAI
يتعين على مجالس الإدارة والمسؤولين التنفيذيين الذين لم يجروا بعد مناقشات حول المخاطر المحتملة لـ GenAI أن يبدأوا الآن.
“يمكن للموظفين استخدام وإساءة استخدام الذكاء الاصطناعي المولد حتى عندما لا يكون متاحًا لهم كأداة رسمية للشركة. قد يكون من المغري حقًا أن يعتمد الموظف المبتدئ على ChatGPT لمساعدته في صياغة رسائل بريد إلكتروني تبدو رسمية، وإنشاء أعمال فنية إبداعية لعرض PowerPoint التقديمي وما شابه ذلك. وبالمثل، قد يجد بعض الموظفين أنه من المغري للغاية استخدام هواتفهم للاستعلام عن برنامج الدردشة الآلي بشأن الأسئلة التي قد تتطلب بحثًا مكثفًا، كما يقول سيجمون من Banner Witcoff. “نظرًا لأن مثل هذه الاستخدامات لا تجعل نفسها واضحة بالضرورة، فلا يمكنك معرفة ما إذا كان الموظف، على سبيل المثال، يستخدم الذكاء الاصطناعي التوليدي لكتابة بريد إلكتروني، ناهيك عما إذا كان قد قدم معلومات سرية عند القيام بذلك. وهذا يعني أن الشركات يمكن أن تتعرض للمخاطر المرتبطة بالذكاء الاصطناعي حتى لو لم تكن قد اعتمدت أي ذكاء اصطناعي على المستوى الرسمي.
إميلي بولر، الشريك المؤسس في بولر القانونية، يتساءل ماذا سيحدث إذا أصبحت منصة GenAI التي تستخدمها الشركة غير متاحة.
“لا أحد يعرف ما الذي سيحدث في القضايا المختلفة التي تم رفعها ضد الشركات التي تقدم منصات الذكاء الاصطناعي، ولكن أحد السيناريوهات المحتملة هو أن OpenAI والشركات الأخرى في هذا المجال يتعين عليها تدمير LLM التي أنشأتها لأن LLMs و/أو يقول بولر في مقابلة عبر البريد الإلكتروني: “إن مخرجات شهادات الماجستير في القانون هذه ترقى إلى مستوى انتهاك حقوق الطبع والنشر على نطاق واسع”. “وعلى نحو متصل، ماذا يحدث لبيانات شركتك إذا أفلست منصة الذكاء الاصطناعي التوليدية التي تستخدمها؟ يمكن لشركة أخرى شراء هذه البيانات في إجراءات الإفلاس وقد لا يكون لشركتك رأي.
هناك نقطة أخرى يجب أخذها في الاعتبار وهي ما إذا كانت منصة الذكاء الاصطناعي التوليدية يمكنها استخدام بيانات الشركة لتحسين برامج LLM الخاصة بها، وإذا كان الأمر كذلك، ما إذا كانت هناك أي حماية ضد تسرب المعلومات السرية للشركة إلى طرف ثالث. وتقول إن هناك أيضًا سؤال حول كيف ستضمن المنظمات أن الموظفين لا يعتمدون على الهلوسة الناتجة عن الذكاء الاصطناعي في عملهم.
حان الوقت لتحديث السياسات
يوصي Bracewell’s Chin بإجراء تدقيق قبل إنشاء سياسة أو تحديثها بحيث يكون من الواضح كيف ولماذا يستخدم الموظفون GenAI، ولأي غرض وما يحاولون تحقيقه.
“يجب أن تساعدك عملية التدقيق على فهم الأسئلة حول من وماذا ولماذا ومتى وأين ومن ثم وضع أفضل الممارسات [in place] — يمكنك استخدامه، ولا يمكنك استخدامه، يمكنك استخدامه مع هذه القيود المعينة،” كما يقول تشين. “التعليم مهم حقًا أيضًا.”
جيسون رايبورن، شريك في قسم التقاضي بمكتب محاماة بول هاستينغزيقول إن النقطة الأساسية هي أن يتفاعل مدراء تكنولوجيا المعلومات والمديرين التنفيذيين حقًا مع حالات الاستخدام المحددة لـ GenAI داخل صناعتهم الخاصة ويفهموها لتقييم المخاطر، إن وجدت، التي قد تنشأ بالنسبة لمؤسساتهم.
“كما هو الحال مع استخدام التكنولوجيا داخل أي مؤسسة كبيرة، فإن التنفيذ الناجح ينطوي على تقييم دقيق ومحدد للتكنولوجيا، وسياق الاستخدام، وآثارها الأوسع بما في ذلك أطر الملكية الفكرية، والأطر التنظيمية، والثقة، والأخلاق، والامتثال، يقول رايبورن في مقابلة عبر البريد الإلكتروني. “تحتاج السياسات حقًا إلى أن تكون مصممة وفقًا لاحتياجات المنظمة، ولكن على الأقل، يجب أن تتضمن سياسة “GenAI في مكان العمل” بحيث يكون هناك وضوح بشأن ما يعتبره صاحب العمل استخدامًا مناسبًا وغير مناسب لأغراض العمل. ”
زارا واتسون يونغ، المؤسس المشارك والرئيس التنفيذي لشركة واتسون ويونغ تقول شركة محاماة الملكية الفكرية إنه يجب على مجلس الإدارة والرئيس التنفيذي والمديرين التنفيذيين مناقشة كيفية تأثير GenAI على استراتيجيات الملكية الفكرية الخاصة بهم بانتظام.
يقول واتسون في مقابلة عبر البريد الإلكتروني: “يجب أن تحدد هذه المحادثات الثغرات المحتملة في السياسات الحالية، وأن تبقي الجميع على اطلاع بالتحولات في المشهد القانوني، وأن تضمن فهم الفريق للفروق الدقيقة في تأثير الذكاء الاصطناعي على قوانين حقوق الطبع والنشر والعلامات التجارية”. “وتحظى المناقشات مع المحامين بنفس القدر من الأهمية، مع التركيز على تطوير سياسات قوية للملكية الفكرية لاستخدام الذكاء الاصطناعي، وضمان الامتثال وتنفيذ استراتيجيات الإنفاذ لحماية حقوق الشركة.”
وفي غياب لوائح ومعايير ممارسة ملموسة، يجب على الشركات تطوير سياساتها الخاصة بناءً على كيفية استخدامها للذكاء الاصطناعي التوليدي. وفقًا لـPoler Legal، يجب تقسيم هذه السياسات إلى نوعين، بحيث تتناول جانبي عملية الذكاء الاصطناعي التوليدية: جمع البيانات والتدريب وتوليد المخرجات.
“يجب أن تكون سياسات جمع البيانات والتدريب واضحة بشأن كيفية استخدام البيانات وما هي البيانات، وما إذا كانت مشاركة طرف ثالث جزءًا من تلك العملية، وعملية فحص البيانات ومراقبتها، وكيفية تخزين البيانات، وكيف تقوم الشركة يقول بولر: “إنها تحمي تلك البيانات وتأمينها”. “أكبر المخاوف هي الخصوصية والأمن والانتهاكات. ويجب أن تكون هذه السياسات محدثة مع جميع اللوائح، وخاصة فيما يتعلق بالاستخدام الدولي.
يمكن للشركات التي تستخدم مجموعات البيانات والنماذج الخاصة بها فحص البيانات والنماذج ومراقبتها والتحكم فيها بشكل أفضل. ومع ذلك، يتعين على الشركات التي تستخدم مجموعات بيانات ونماذج تابعة لجهات خارجية أن تبذل العناية الواجبة بشأنها وأن تضمن الشفافية والأمن والامتثال القانوني والاستخدام الأخلاقي، مثل إزالة التحيز.
“يجب أن تتمحور سياسات توليد المخرجات حول المراقبة. يقول بولر: “يجب على الشركات تطوير سياسات تحتوي على كيفية إجراء المراقبة فيما يتعلق بمخاوف الخصوصية والملكية الفكرية”. “تحتاج هذه السياسات إلى أن تحتوي على تعليمات وإجراءات حول كيفية تنفيذ المخرجات قبل استخدامها في النهاية مع قوائم مرجعية للمعايير المهمة للكشف عن المعلومات السرية وحمايتها كملكية فكرية.”
يقول سيجمون من Banner Witcoff إنه يجب على الشركات وضع سياسات تحقق توازنًا دقيقًا بين فائدة الأدوات الممكّنة للذكاء الاصطناعي ومخاطر المسؤولية التي تشكلها. على سبيل المثال، يجب تثبيط الموظفين بشدة عن استخدام أي أدوات خارجية للذكاء الاصطناعي لم يتم اختبارها بشكل كامل والموافقة عليها من قبل صاحب العمل.
“تشكل مثل هذه الأدوات خطر انتهاك حقوق الطبع والنشر إذا، على سبيل المثال، تولد محتوى مخالفًا وخطر فقدان المعلومات السرية مثل إذا كشف الموظف عن معلومات سرية للذكاء الاصطناعي ويتم تخزين تلك المعلومات أو استخدامها للتدريب المستقبلي أو ما شابه ذلك. “، يقول سيغمون. “وهذا يعني بدوره أنه إذا قررت شركة ما استخدام إحدى أدوات الذكاء الاصطناعي، فيجب عليها أن تفهم تلك الأداة بعمق: كيف تعمل، وما هي مجموعة البيانات التي تم استخدامها لتدريبها، ومن يتحمل المسؤولية في حالة حدوث انتهاك لحقوق الطبع والنشر و/أو في حالة حدوث بيانات حساسة يتم ترشيحه، و [more]”.
الخط السفلي
لقد تجاوز اعتماد GenAI واستخدامه في مجال حرائق الغابات الإدارة السليمة للمخاطر. يحتاج القادة التنظيميون إلى العمل بشكل متماسك لضمان أن استخدام GenAI يصب في مصلحة الشركة وأن المخاطر والمسؤوليات المحتملة يتم فهمها وإدارتها وفقًا لذلك.
تحقق لمعرفة ما إذا كانت سياسات شركتك محدثة. إذا لم يكن الأمر كذلك، فإن الوقت المناسب لبدء التحدث داخليًا ومع المحامي هو الآن.