الأمن السيبراني

درس في الباذنجانيات والدفاعات ضد إساءة استخدام محتوى GenAI


أصبحت ملكية المحتوى الأصلي والتحكم فيه، فضلاً عن الثقة في صحة ما يظهر على الإنترنت، موضع شك بعد ظهور الذكاء الاصطناعي التوليدي (GenAI) في الشوارع.

في حين قدمت التكنولوجيا نوعًا من إضفاء الطابع الديمقراطي على إنتاج المحتوى، إلا أنها أثارت أيضًا حفيظة المبدعين الذين تم استخدام موادهم الأصلية لتدريب GenAI دون موافقتهم. علاوة على ذلك، يستمر إنتاج الصور والمواد الأخرى عبر GenAI في تصعيد عدم التصديق حول صحة كل المحتوى الرقمي. علاوة على ذلك، يمكن أن يؤدي ذلك إلى تغذية حملات الدعاية وتشويه السمعة.

يواجه المدافعون عن GenAI معركة مع المبدعين حول التحكم في المحتوى بينما يواجهون أيضًا مطالب الجمهور بالأصالة.

تجمع المدافعين

عندما يتعلق الأمر بالتحكم في المحتوى، يبدو أن هناك تكتيكين كبيرين لمنع الذكاء الاصطناعي من التغذية بالبيانات: حظر الروبوتات من مواقع الويب أو محتوى “سمم” لإرباك الذكاء الاصطناعي.

إحدى طرق تقييد الكشط تتضمن بروتوكول استبعاد الروبوتات، والتي يمكن تضمينها في ترميز مواقع الويب لإرشاد الروبوتات وبرامج الزحف إلى أجزاء الموقع التي يمكنهم أو لا يمكنهم الاطلاع عليها. يفترض هذا أن منشئي الروبوتات يهتمون بالامتثال لهذه البروتوكولات الطوعية.

قد تتدخل شبكات توزيع المحتوى مع موارد الكشف عن الروبوتات. على سبيل المثال، يقول Cloudflare لمستخدميه يمكنهم تحديد أنواع الروبوتات التي يريدون السماح بها أو حظرها من الزحف إلى مواقع الويب الخاصة بهم، بما في ذلك برامج الزحف الخاصة بالذكاء الاصطناعي.

متعلق ب:طومسون رويترز حول استخدام GenAI لزيادة القوى العاملة المهنية

القشط: قضية قديمة مع مخاوف جديدة

ديفيد سينيكال، مهندس المنتج الرئيسي، الاحتيال وسوء الاستخدام، مع تقنيات أكاماييقول إن عملية تجريف الروبوتات السابقة، بطبيعة الحال، لم تكن متقدمة كما رأينا اليوم وتطورت إلى أدوات أكثر تعقيدًا حيث تم تعيين مهندسين ماهرين لتطويرها بشكل أكبر. ويقول: “لقد كانت تعتمد بشكل أساسي على بعض النصوص البرمجية المتقدمة التي يكتبها شخص ما لتقليد الطريقة التي تبدو بها الطلبات الواردة من متصفح عادي”.

وفي الآونة الأخيرة، شملت الجهود المبذولة لتوفير ذكاء الأعمال عملية جمع البيانات التي يتم إجراؤها بشكل متكرر عن طريق مسح المواقع الإلكترونية، كما يقول سينيكال. “يمكنهم استخدام الذكاء الاصطناعي الأكثر تقدمًا وربما الذكاء الاصطناعي المولد لمعالجة تلك البيانات حتى يتمكنوا من توفير المعلومات التي يرسلونها إلى عملائهم.”

بالإضافة إلى عدم معرفة الشركات بما يتم فعله بالبيانات أو التأثير طويل المدى الذي قد يحدثه الاستخلاص على عملياتها واستراتيجياتها، يقول إن الروبوتات نفسها يمكن أن تسبب بعض مشكلات الاستقرار، وتحرف فهم معدلات تحويل المستخدم، وتؤثر على النتيجة النهائية للمؤسسة .

قد يكون هناك سباق تسلح برمجي يختمر على جبهة الكشط. البرامج مثل كودورو من وضع البيض قيد التطوير لمنع كاشطات الذكاء الاصطناعي بشكل فعال. عروض داتادوم برامج الحماية من الخدش لإحباط نماذج اللغة الكبيرة.

متعلق ب:Selipsky في AWS re: اختراع تأمين البيانات في عالم GenAI

الباذنجانية: إجراء مضاد للسم لـ GenAI

بالنسبة لأولئك الذين يريدون ردع GenAI عن تغذية محتواهم الأصلي، فإن فريق ظل الليل في جامعة شيكاغو أدوات لإحباط الجهود المبذولة لاستخدام أعمال الفنانين. يُعد التزجيج إجراءً دفاعيًا لإحباط تقليد الأسلوب بينما يعد Nightshade إجراءً هجوميًا “مسمومًا” لتعطيل عملية الكشط دون موافقة.

بن واي تشاو، أستاذ علوم الكمبيوتر في نيوباور بجامعة شيكاغو، وهو قائد في فريق Nightshade، عمل في أنظمة الأمن والتعلم الآلي. أثناء العمل على مشروع بائس إلى حد ما لمعرفة ما سيحدث إذا قام شخص ما بتدريب نماذج التعرف على الوجه غير المصرح بها بناءً على وسائل التواصل الاجتماعي والبصمة المتزايدة للجميع على الإنترنت. “بينما كنا نستعد لوضع اللمسات الأخيرة على ورقتنا البحثية، اندلعت مقالة نيويورك تايمز حول Clearview.ai وكيف كان ذلك يحدث بالفعل”، كما يقول، مشيرًا إلى الضجة المتعلقة بالخصوصية التي أعقبت استخدام تطبيق القانون لهذه التكنولوجيا لملاحقة المجرمين المشتبه بهم.

ونتيجة لذلك، حظي المشروع الذي كان يعمل عليه تشاو بقدر لا بأس به من اهتمام وسائل الإعلام بالإضافة إلى اهتمام الجمهور الذي أراد تنزيل الأداة، فوكس، كتب الفريق بشكل أساسي للتعتيم على صور السيلفي لتعطيل نماذج التعرف على الوجه المستندة إلى الذكاء الاصطناعي. Fawkes هي إشارة إلى قناع Guy Fawkes الذي اشتهر بفضل الروايات المصورة والأفلام “V for Vendetta”.

متعلق ب:من النقاط إلى الصور: كيف ستغير GenAI الشركات

بعد فترة وجيزة من ظهور فوكس على الرادار، تواصل الفنانون في ديسمبر 2022 لمعرفة ما إذا كان من الممكن استخدامه لحماية الفن. يقول تشاو: “في ذلك الوقت، كنا جاهلين تمامًا بشأن هذا الأمر برمته الذي كان يحدث في مجال توليد الصور، ولذلك كنا في حيرة شديدة”.

لقد تغير كل ذلك عندما تصدرت برامج Midjourney وبرامج صور GenAI الأخرى عناوين الأخبار وجذبت انتباه الجماهير.

عاود الفريق الاتصال بالفنانين الذين تواصلوا معهم، ثم تمت دعوتهم للانضمام إلى قاعة المدينة عبر الإنترنت التي استضافتها جمعية مفهوم الفن. يقول تشاو: “لقد كان الأمر مثيرًا للدهشة حقًا”. “لقد كان هناك أكثر من 500 فنان محترف، على ما أعتقد، في مكالمة Zoom واحدة، يتحدثون بصراحة عن كيف قلب الذكاء الاصطناعي حياتهم رأسًا على عقب، وعطل عملهم، وسرقة أساليبهم الفنية، وارتدائها بشكل أساسي مثل الجلود دون إذنهم. “.

خلال جلسة البلدية، سأل الفنانين عما إذا كانوا مهتمين بأداة تقنية لحماية أعمالهم. رفضت إحدى الردود الأولية الفكرة، راغبة في رؤية قوانين ولوائح وحلول قوية وطويلة الأجل لمعالجة المشكلة. يقول تشاو: “أعتقد أن ذلك جاء من جريج روتكوفسكي، الذي كان أحد أشهر الفنانين الذين تم استهدافهم بهذه الطريقة”. تتم الإشارة إلى Rutkowski عالي التردد في مطالبات GenAI لإنتاج صور تستمد من أعماله الأصلية.

ويقول تشاو إن هناك فنانين آخرين على المكالمة، مثل كارلا أورتيز، كانوا أكثر تقبلاً لاستكشاف أداة تقنية لحماية فنهم. يقول تشاو: “بعد تلك المكالمة، تواصلت مع كارلا وحاولت معها فهم نوع الأدوات التي قد تكون ذات معنى”. “لقد صممنا ما أصبح في نهاية المطاف Glaze.”

وقد أدى ذلك إلى إجراء اختبارات ودراسات على المستخدمين، ووضع الأداة أمام حوالي 1200 فنان محترف لمعرفة التعديلات التي قد تطرأ على عملهم والتي قد يتحملونها لنشر وسائل حماية Glaze. يقول تشاو إن Glaze يركز على حماية أعمال الفنان الفردية دون التأثير على النماذج الأساسية لـ GenAI.

وأعلن الفريق عن توفر لعبة Glaze في شهر مارس الماضي للتحميل، وبحلول صيف 2023 وصلت إلى مليون عملية تنزيل. وسرعان ما تبع ذلك إصدار خدمة الويب، وبدأ الفريق في العمل على الأداة اللاحقة – Nightshade.

يقول تشاو: “كان الفنانون بحاجة إلى شيء ما للرد على تجريف المحتوى غير الأخلاقي وغير المرخص لأغراض التدريب”. Nightshade عبارة عن حبة سم صغيرة جدًا يمكن وضعها في الفن بحيث يفسد التدريب التراكمي على هذا النوع من العينات GenAI. “بمجرد أن يصل الأمر إلى نقطة معينة، فإنه يبدأ فعليًا في تعطيل كيفية تدريب نماذج الذكاء الاصطناعي، وكيفية تعلمهم حول الارتباط بين المفاهيم والإشارات المرئية والميزات والنماذج التي تبدأ في الانهيار.”

ويقول إن الإصدار الأول من Nightshade أصبح متاحًا في شهر يناير وشهد حوالي 250 ألف عملية تنزيل خلال الأيام الخمسة الأولى.

في حين أن Glaze عبارة عن آلية دفاعية على نطاق أصغر للأفراد، فإن Nightshade تهدف إلى الاستخدام المتزايد لنماذج التدريب التي تعتمد على الذكاء الاصطناعي والتي يمكنها الحصول على الأعمال الفنية من أي مصدر. يقول تشاو: “هذا شيء، حتى الآن، لم يكن هناك حل واحد له”. “إذا كنت مالك محتوى – سواء كنت فنانًا أو شركة ألعاب أو استوديو أفلام – فلن تتمتع بأي حماية على الإطلاق ضد أي شخص سيأخذ المحتوى الخاص بك ويطلقه في طور الإنتاج . لذا، لا يهم إذا كنت من شركة ديزني أو شركة ألعاب أو فنانًا هاوًا عازبًا بدوام جزئي. كل شيء هو نفسه.

ويقول إن قوائم إلغاء الاشتراك موجودة ظاهريًا لإبقاء المحتوى بعيدًا عن GenAI، لكنها اختيارية وربما لا يزال يتم تجاهلها. “إنه أمر غير واقعي على الإطلاق.” على سبيل المثال، يقول تشاو إن إحدى شركات GenAI قد تطلب جميع المعلومات حول صورة لا ينبغي الزحف إليها، وسيتعين على الفنان ببساطة أن يأمل ألا يستخدم الصورة على أي حال.

ويقول: “لا يوجد أي شيء على الإطلاق يفرض ذلك”. “يمكنهم حرفيًا أن يستديروا، وينزلوا صورتك، ويضعوها في خط أنابيب التدريب الخاص بهم، ولا يمكنك إثبات أي شيء.”

ويقول إن Nightshade مصمم لإعطاء حقوق الطبع والنشر بعض الأسنان. إذا استوعب الذكاء الاصطناعي ما يكفي من السم الرقمي، فقد يسيء فهم شكل القطة، وبدلاً من ذلك يقوم بإنشاء صور خيالية بحوافر البقر ويعتقد أنها خلقت قطًا. يقول تشاو: “نأمل في مرحلة ما أن يفكروا فعليًا في ترخيص المحتوى المخصص للتدريب ودفع المال للأشخاص مقابل عملهم بدلاً من مجرد الاستيلاء عليه وسرقته لأغراض تجارية”.

هناك مجموعة كبيرة من معجبي ومستخدمي GenAI، بما في ذلك أولئك الذين يعتبرون أنفسهم فنانين باستخدام المطالبات لإنتاج الصور – تعتمد الصور على التدريب من الأعمال الأصلية. وفي حين يؤكد أنصار GenAI أن الباذنجان يمكن هزيمته في نهاية المطاف، فإن تشاو يرحب بتطوير المزيد من “السموم” من قبل الآخرين لجعل العمل مع الفنانين أكثر جدوى بشكل جماعي.

ويقول: “في مرحلة ما، ستستمر تكلفة اكتشاف ومحاولة إزالة هذه الأنواع من السموم في النمو، وسترتفع جدًا لدرجة أن ترخيص المحتوى سيكون أرخص في الواقع”. “المغزى هنا لا يعني أننا نحاول فقط كسر هذه النماذج. هذا ليس الهدف النهائي. الهدف النهائي هو جعل التدريب على المحتوى غير المرخص وغير المرخص أمرًا مكلفًا للغاية، مما يدفع الأشخاص إلى السير في الاتجاه الآخر – حيث سيدفع الأشخاص فقط مقابل المحتوى المرخص. أعتقد أن هذا أمر جيد للجميع.”

البحث عن قياس للحقيقة بين السراب الرقمي

قد يكون من المستحيل استبعاد صور GenAI تمامًا، ولكن يمكن اتخاذ تدابير إضافية لتحديد المحتوى المرئي الذي يتم إنتاجه من خلال هذه الوسائل. على سبيل المثال، بيانات اعتماد محتوى أدوبي هي طبقة معلومات للصور الرقمية. تشير Adobe إلى بيانات اعتماد المحتوى كنوع من “ملصق التغذية” للإشارة إلى إنشاء وتعديل الصور المنشورة عبر الإنترنت.

شاركت شركة Adobe أيضًا في تأسيس مبادرة أصالة المحتوى وتقول أنها كانت تعمل مع التحالف من أجل مصدر المحتوى والأصالة للمساعدة في وقف المعلومات الخاطئة التي تنبع من الصور الرقمية المعدلة. وفقًا لشركة Adobe، قدمت Microsoft بيانات اعتماد المحتوى لجميع الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي والتي يتم إنتاجها من خلال Bing Image Creator. سيضيف ذلك تفاصيل مثل وقت وتاريخ إنشاء الصورة. هناك أيضًا خطط، وفقًا لشركة Adobe، لشركة Microsoft لدمج بيانات اعتماد المحتوى في Microsoft Designer، وهو تطبيق لتصميم الصور مدعوم بالذكاء الاصطناعي.

المخاوف المتصاعدة بشأن الأصالة ووصول الروبوت إلى المحتوى، على الأقل، وصلت إلى آذان بعض مطوري GenAI. تقدم OpenAI علامات مائية رقمية على الصور تم إنشاؤها من خلال مواردها للإشارة إلى إنشائها من خلال الذكاء الاصطناعي كجزء من الدفعة لإحياء الثقة في المحتوى الرقمي. في العام الماضي، أتاحت OpenAI لمواقع الويب طريقة للقيام بذلك إلغاء الاشتراك في السماح لـ GTBot بالزحف إلى المواقع، مما يوفر طريقة لمنع سرقة المحتوى والبيانات والتعليمات البرمجية لتدريب الذكاء الاصطناعي.

ومع ذلك، مع بناء GenAI على القدرة على استيعاب البيانات والتعليمات البرمجية لإنتاج المحتوى عبر المطالبات، فإن لعبة شد الحبل للوصول إلى المحتوى الأصلي والتحكم فيه قد تكون محورية لمستقبل التكنولوجيا.





Source link

زر الذهاب إلى الأعلى