الأمن السيبراني

حبة دواء مريرة لـGenAI بينما يخطف الباذنجان الأضواء


لا تزال التقاضي وتنظيم الذكاء الاصطناعي في أيامها الأولى، لكن بعض الأطراف بدأت بالفعل في ارتكاب جرائم نشطة لحماية المواد التي لا تريد أن يتم استخلاصها لتدريب النماذج لمحاكاة عملهم.

يستمر الزخم في التراكم عبر وسائل التواصل الاجتماعي وفي عناوين الأخبار لإجراء نقاش ساخن حول برامج مثل Nightshade، التي تقدم عناصر في المحتوى لتعطيل قدرة الذكاء الاصطناعي على فهم ما تبحث عنه. لقد كان هذا البرنامج المجاني متاحة للفنانين لاستخدامها، مما يوفر لهم طريقة “لتسميم” عملهم وتثبيط GenAI عن التدريب على إبداعاتهم.

بحسب موقع VentureBeat، هذا المشروع من مختبر الرمال في جامعة شيكاغو تستفيد من الذكاء الاصطناعي الخاص بها لإحباط GenAI عن طريق إضافة علامة إلى الصور التي تخدع نماذج الذكاء الاصطناعي وتجعلها تعتقد أنها ترى شيئًا مختلفًا.

من الطبيعي أن يعترض بعض مؤيدي المحتوى الذي يتم إنتاجه عبر الذكاء الاصطناعي على ما يعتبرونه ضررًا لمساحتهم. وفي الوقت نفسه، أشار المبدعون الذين لا يريدون أن يحاكي الذكاء الاصطناعي أعمالهم إلى أنهم يقومون بإجراء تغييرات على المواد الخاصة بهم – وأن إضافة مثل هذه العناصر إلى صورهم هو اختيارهم.

يشمل النقاش حول استخدام الأعمال الأصلية لتدريب GenAI الأعمال الحديثة دعوى قضائية رفعتها صحيفة نيويورك تايمز ضد OpenAI ومايكروسوفت، حيث قد تتم مناقشة قانون الملكية الفكرية وحقوق الطبع والنشر. هناك تكهنات بأن الدعوى القضائية قد تتوقف، إن لم تكن تقتل OpenAI. ردًا على ذلك، كتبت شركة OpenAI في تدوينة أنها تدعم الصحافة لكنها لم يعتقد أن التقاضي له ميزة.

متعلق ب:نيل ديجراس تايسون يتحدث عن البيانات السيئة وتقدير الذكاء الاصطناعي

تلقي هذه الحلقة من DOS Wn’t Hunt نظرة على الجهود الاستباقية للتدخل في الذكاء الاصطناعي، وما هو على المحك بالنسبة للأطراف المتعارضة، وكيف يمكن أن تكون خصوصية البيانات أيضًا جزءًا من المناقشة.

استمع إلى البودكاست الكامل هنا.





Source link

زر الذهاب إلى الأعلى