ما هي خطورة البيانات؟ | تعريف من TechTarget
ما هي خطورة البيانات؟
خطورة البيانات هي قدرة مجموعة من البيانات على جذب التطبيقات والخدمات والبيانات الأخرى. يمكن اعتبار قوة الجاذبية، في هذا السياق، بمثابة الطريقة التي يتم بها جذب البرامج والخدمات ومنطق الأعمال إلى البيانات بالنسبة إلى كتلتها، أو كمية البيانات. كلما زادت كمية البيانات، كلما زاد عدد التطبيقات والخدمات والبيانات الأخرى التي سيتم جذبها إليها وسحبها إلى مستودعها. بحيرات البيانات و مستودعات البيانات هما مثالان رئيسيان على خطورة البيانات.
خطورة البيانات لها جانب إيجابي وجانب سلبي. الجانب الإيجابي هو أن مجموعات البيانات ذات الجاذبية العالية تجتذب المزيد من البيانات، والتحليلات الحديثة لها فائدة أكبر عندما تتوفر وفرة من البيانات – ومن هنا جاء المصطلح البيانات الكبيرة. علاوة على ذلك، تميل مجموعات البيانات الكبيرة جدًا إلى أن تكون مفيدة عبر نطاق أوسع من التطبيقات. ومن ناحية أخرى، كلما زادت كمية البيانات، زادت صعوبة الحفاظ عليها وتكاليفها.
لماذا تعتبر خطورة البيانات مهمة؟
خطورة البيانات مهمة لعدة أسباب. إن النمو المتعمد والمخطط جيدًا في خطورة مجموعات البيانات يمكن أن يعزز بشكل كبير فائدتها وقيمتها. ويمكن أن يكون لها أيضًا تأثير هابط يتمثل في زيادة دقة وقابلية تطبيق التحليلات التي قد تسفر عنها البيانات.
ومن المهم أيضًا مراقبة مدى خطورة مجموعات البيانات المتزايدة للحد من التأثيرات السلبية، للتأكد من أن البيانات لن تصبح غير عملية للغاية بحيث لا يمكن الاحتفاظ بها.
من الناحية العملية، يؤثر نقل البيانات إلى مسافة أبعد وبشكل متكرر عبء العمل الأداء، لذلك فمن المنطقي أن يتم تجميع البيانات وأن تكون التطبيقات والخدمات المرتبطة بها موجودة في مكان قريب. وهذا هو أحد الأسباب وراء إنترنت الأشياء (إنترنت الأشياء) يجب استضافة التطبيقات في أقرب مكان ممكن من مكان إنشاء البيانات التي تستخدمها وتخزينها. وبالتالي، فإن زيادة خطورة البيانات هي مسألة تكوينها وتخزينها بطريقة تعمل على تحسين فائدتها وإمكانية الوصول إليها.
غالبًا ما يستخدم التقارب المفرط لتوضيح مفهوم خطورة البيانات. في البنية التحتية شديدة التقاربيتم دمج موارد الحوسبة والشبكات والمحاكاة الافتراضية بشكل وثيق مع تخزين البيانات داخل صندوق أجهزة سلعة. كلما زادت كمية البيانات، وزادت البيانات الأخرى المرتبطة بها، زادت قيمة البيانات للتحليلات.
يعد مطورو ومديرو التطبيقات السحابية كبيرة الحجم وأنظمة إنترنت الأشياء من بين متخصصي تكنولوجيا المعلومات الذين يحافظون على وعي شديد بأهمية البيانات ويعملون بنشاط على تنمية مصادر البيانات من خلال التكوينات التي تعمل على تحسينها. تعمل مصادر البيانات المُحسّنة للجاذبية العالية على تحقيق التوازن بين الحد الأقصى من المنفعة والعوائد المتناقصة للصيانة المرهقة.
الآثار المترتبة على خطورة البيانات
يمكن أن تكون خطورة البيانات صديقًا أو عدوًا. إذا لم تتم مراقبته والتخطيط له بعناية، فمن الممكن أن يصبح الأخير بسهولة. تميل أكبر مشكلتين إلى زيادة زمن الوصول وتقليل إمكانية النقل.
يجب أن تكون مجموعات البيانات الكبيرة جدًا بشكل عام قريبة من التطبيقات التي تستخدمها، خاصة في عمليات النشر المحلية والسيناريوهات التي تستخدم مسارات عمل معقدة. عندما تكون التطبيقات بعيدة عن مراكز البيانات التي تستضيف البيانات التي تحتاجها، يزداد زمن الوصول ويتأثر الأداء.
لهذا السبب، مقدمي الخدمات السحابية غالبًا ما تكون الخيار الصحيح لاستضافة مجموعات البيانات التي من المحتمل أن تحقق خطورة عالية. فالبيانات المستضافة في بحيرات البيانات، على سبيل المثال، تتوسع بسهولة أكبر مع نموها، مما يقلل من المضاعفات التي يمكن أن تنشأ مع النمو السريع. يمكن إدارة البيانات السحابية بشكل عام بشكل فعال لتحقيق التوازن بين الإنتاجية وعبء العمل، على الرغم من أن هذا قد يصبح مكلفًا.
كلما أصبحت مجموعة البيانات أكبر، زادت صعوبة نقلها إذا أصبح ذلك ضروريًا. رسوم الخروج من التخزين السحابي غالبًا ما تكون مرتفعة، وكلما زاد عدد البيانات التي تخزنها المؤسسة، زادت تكلفة نقلها، إلى الحد الذي قد يكون فيه التنقل بين الأنظمة الأساسية غير اقتصادي. لذا، يجب أخذ خطورة البيانات في الاعتبار عند اختيار البيئة المضيفة للبيانات. سيكون من الحكمة وضع خطط للترحيل، حتى لو لم يكن من المتوقع حدوث ترحيل في أي وقت قريب، ويجب أن تعكس هذه الخطط الحجم النهائي لمجموعة البيانات، وليس حجمها الحالي.
هناك أيضًا مشكلة تبعيات التطبيقات التي تصل إلى مجموعة البيانات، والتي سيتعين عليها تغيير هذا الوصول في حالة الترحيل؛ كلما زاد عدد التطبيقات، زادت الحاجة إلى تعديلات الوصول.
الذكاء الاصطناعي (منظمة العفو الدولية) وتطبيقات إنترنت الأشياء تمثل أيضًا تحديات تتعلق بثقل البيانات. وتشير فوريستر إلى أن المصادر والتطبيقات الجديدة – بما في ذلك التعلم الاليأو الذكاء الاصطناعي أو الأجهزة الطرفية أو إنترنت الأشياء – تخاطر بخلق خطورة البيانات الخاصة بها، خاصة إذا فشلت المؤسسات في التخطيط لنمو البيانات.
يشكل نمو البيانات على حافة المؤسسة تحديًا عند تحديد موقع الخدمات والتطبيقات ما لم تتمكن الشركات من تصفية البيانات أو تحليلها في الموقع أو ربما أثناء النقل. من المرجح أن تكون مركزية تلك البيانات مكلفة، ومهدرة إذا لم تكن هناك حاجة إلى الكثير منها.
كيفية إدارة خطورة البيانات
غالبًا ما تكون إدارة خطورة البيانات الضخمة أمرًا صعبًا ولكنها تستحق الجهد المبذول. يعد الحرص على إبقاء التطبيقات ومجموعات البيانات قريبة، وفي مكان مشترك في مكان العمل، مثالاً على ذلك. غالبًا ما تكون عمليات نشر البيانات السحابية حكيمة، نظرًا لقدرة معظم الخدمات السحابية على توسيع نطاق الأداء وضبطه بسهولة.
ويمكن اتخاذ خطوات أخرى لإدارة خطورة البيانات بشكل جيد. تعد معايير وسياسات إدارة البيانات المحددة جيدًا خطوة إيجابية، حيث تضمن الاستخدام السليم لمجموعات البيانات المعنية وتنظم الوصول إليها بشكل فعال. كما تعزز الإدارة الجيدة للبيانات تكامل البيانات، وهو مصدر قلق خاص عند استخدام البيانات توليد التحليلات.
قوي مراقبة البيانات كما يعزز إدارة خطورة البيانات، مما يضمن المساءلة والمسؤولية الهادفة عن البيانات.
يعد تكامل البيانات المخطط والمنفذ جيدًا أيضًا ميزة لإدارة خطورة البيانات. عندما يمكن دمج مجموعات البيانات المتباينة بشكل فعال في مصدر بيانات واحد، يتم تبسيط كل من الوصول والصيانة، ويمكن تقليل الأخطاء المحتملة. غالبًا ما توفر البنية التحتية الداعمة لبحيرات البيانات فرصة لمثل هذا التكامل.
تاريخ خطورة البيانات
صاغ خبير تكنولوجيا المعلومات ديف ماكروري هذا المصطلح لأول مرة خطورة البيانات في عام 2010 كقياس للطريقة الفيزيائية التي تجذب بها الأجسام ذات الكتلة الأكبر بشكل طبيعي الأجسام ذات الكتلة الأقل.
ووفقا لماكروري، فإن جاذبية البيانات تنتقل إلى السحابة. ومع نقل المزيد والمزيد من بيانات الأعمال الداخلية والخارجية إلى السحابة أو إنشاؤها هناك، تحليلات البيانات أصبحت الأدوات أيضًا تعتمد على السحابة بشكل متزايد. ويفرق شرحه للمصطلح بين خطورة البيانات التي تحدث بشكل طبيعي والتغيرات المماثلة التي تنشأ من خلال قوى خارجية مثل التشريعات والخنق والتسعير المتلاعب، والذي يشير إليه ماكروري باسم خطورة البيانات الاصطناعية.
في عام 2020، أصدر ماكروري “مؤشر خطورة البيانات“، وهو تقرير يقيس كثافة البيانات ويقيسها ويتنبأ بها فوربس جلوبال 2000 الشركات عبر 53 مترو و 23 صناعة. يتضمن التقرير صيغة في انتظار الحصول على براءة اختراع لحجم البيانات ومنهجية تعتمد على آلاف سمات تواجد شركات Global 2000 في كل موقع، إلى جانب المتغيرات الخاصة بكل موقع بما في ذلك ما يلي:
- الناتج المحلي الإجمالي.
- سكان.
- عدد الموظفين.
- البيانات التكنولوجية.
- إنفاق تكنولوجيا المعلومات.
- متوسط النطاق الترددي والكمون.
- تدفقات البيانات.
الأخيرة “مؤشر جاذبية البيانات 2.0“يواصل التقرير فحص انتشار البيانات العالمية وارتباطها بالناتج المحلي الإجمالي عبر أكثر من 190 دولة و500 منطقة حضرية.
تعرف على كيفية التغلب على التحديات مثل خطورة البيانات ومتى نشر البنية السحابية.