الذكاء الاصطناعي التوليدي وراء 40% من خروقات البيانات بحلول 2027

حذرت شركة جارتنر للأبحاث من أن 40% من حوادث خرق البيانات ستنجم عن سوء استخدام تقنيات الذكاء الاصطناعي التوليدي بحلول عام 2027. يأتي هذا التحذير في ظل تسارع اعتماد المؤسسات على هذه التقنيات، مما يزيد من تعرض البيانات للاختراق نتيجة لضعف الرقابة وغياب الضوابط الواضحة.
ويشير يورغ فريتش، نائب الرئيس للتحليلات في جارتنر، إلى أن نقل البيانات غير المقصود يحدث غالبًا بسبب هذه المتبنيات غير المنظمة. كما أن غياب المعايير العالمية الموحدة للذكاء الاصطناعي يدفع الشركات إلى تطوير استراتيجيات غير متسقة، مما يحد من قدرتها على استغلال إمكانيات هذه التقنيات.
تتوقع جارتنر أن تصبح حوكمة الذكاء الاصطناعي إلزامية بحلول عام 2027، مما قد يؤثر على الأعمال التي تفشل في الالتزام بهذه الضوابط ويجعلها أكثر عرضة لفقدان ميزتها التنافسية في ظل تشريعات متزايدة تتعلق بالأمان وحماية البيانات.
لمواجهة هذه التحديات، أوصت جارتنر المؤسسات بتعزيز حوكمة البيانات، وتأسيس لجان رقابة لتوجيه استخدام الذكاء الاصطناعي، وتحديث بروتوكولات الأمن السيبراني، والاستثمار في أدوات إدارة المخاطر.
وبينما تمثل تقنيات الذكاء الاصطناعي التوليدي فرصة لتحسين الأداء، فإنها تتطلب استراتيجيات أمنية صلبة لضمان الاستخدام الآمن والمسؤول. في النهاية، يبقى السؤال: هل ستتمكن الشركات من تحقيق التوازن بين الابتكار والأمان في عالم يعتمد بشكل متزايد على هذه التقنيات؟
عدد المصادر التي تم تحليلها: 4
المصدر الرئيسي : رافي برازي
post-id: 1e991aae-133d-458e-8cd3-03817e675253