نشرت في: 09/03/2023
ورقةً بحثيةً لمجموعة من خبراء الذكاء الاصطناعي حول تهديد شديد الخطر يختبئ في الويب، يهدد التعلم الآلي والتعلم العميق للذكاء الاصطناعي.
تقنيات الذكاء الاصطناعي هي اليوم كما يقال The Big next thing ، فتتسابق شركات التكنولوجيا والشركات الناشئة لتسويق تقنيات وأدوات تعتمد الذكاء الاصطناعي. مع انتشار نماذج الذكاء الاصطناعي التوليدي للمحادثة باللغة الطبيعية كـChatGPT وإطلاق شركات تكنولوجيا الكبرى المنافسين له. وتعيين حكومة رومانيا برنامج “إيون” كأول “مستشار” يعمل بتقنية الذكاء الاصطناعي لممارسة مهام حكومية. وكثير من المؤسسات وأيضا الإدارات الحكومية تعمل على تدريب برامج ذكاء اصطناعي للمساعدة في تحليل البيانات لاتخاذ قرارات دقيقة.
كل ما سبق يطرح أسئلة عدة من ناحية بيانات تعليم هذه الأدوات، ليأتي تحذيرمن مجموعة من خبراء الذكاء الاصطناعي والتعلم الآلي machine Learning من مخاطر أطلقوا عليها اسم data-poisoning attacks – هجمات تسمم البيانات- التي يمكن أن تطال مجموعات البيانات المستخدمة على نطاق واسع لتدريب نماذج التعلم العميق deep Learning في العديد من خدمات الذكاء الاصطناعي.
يحدث تسمم البيانات هذا أو data-poisoning عندما يعبث المهاجمون ببيانات التدريب المستخدمة لإنشاء نماذج التعلم العميق. ما يعني أنه من الممكن التأثير على القرارات التي يتخذها الذكاء الاصطناعي بطريقة يصعب تتبعها.
فمن خلال التغيير غير المرئي لمعلومات المصدر المستخدمة لتدريب خوارزميات التعلم الآلي، من المحتمل أن تكون هجمات تسمم البيانات قوية، لأن الذكاء الاصطناعي سيتعلم من البيانات غير الصحيحة ويمكن أن يتخذ قرارات “خاطئة” لها عواقب وخيمة.
لا يوجد حاليًا أي دليل على وقوع هجمات data-poisoning attacks على الويب. غير أن مجموعة من الباحثين في مجال الذكاء الاصطناعي والتعلم الآلي من غوغل و من ETH Zurich المعاهد الفيدرالية السويسرية للتكنولوجيا، NVIDIA وRobust Intelligence ، أظهروا إمكانية حدوث هجمات تسمم يمكن ان تطال مجموعات البيانات التي تستخدم لتدريب نماذج التعلم الآلي الأكثر شيوعا.والمتوفرة على الويب. تكفي لإدخال أخطاء مُستهدفِة في سلوك نموذج الذكاء الاصطناعي.
فقد ابتكر الباحثون تقنيات تستغل الطريقة المستخدمة لجمع البيانات من الويب، و تمكنوا من تسميم 0.01٪ من مجموعات بيانات التعلم العميق بجهد ضئيل وبتكلفة منخفضة؛ وحذر الباحثون ربما نسبة 0.01٪ لا تمثل إلا جزءا ضئيلا جدا من مجموعات البيانات، لكنها “كافية لتسميم النموذج الذكاء الاصطناعي “مع احتمال التأثير سلبًا على الخوارزمية بِرُمَّتها.يعرف هذا الهجوم باسم ‘split-view poisoning’ أي تسمم الرؤية المنقسمة .
كيف يمكن القيام بهذا الهجوم؟
إحدى طرق المهاجمين تتمثل بشراء أسماء نطاقات الإنترنت منتهية الصلاحية. مما يتيح لذوي النوايا السيئة، من خلال امتلاك اسم نطاق إنترنت، التمكن من نشر وتسميم البيانات التي تصف الصور والتي تُجمع لتدريب الذكاء الاصطناعي.
إضافة إلى ذلك، وصف الباحثون نوعًا ثانيًا من الهجوم يسمونه “التسمم الأول“. في هذه الحالة، لا يتمتع المهاجم بالتحكم الكامل في مجموعة البيانات المحددة، ولكنه قادرعلى التنبؤ بدقة بموعد وصول المدربين إلى مورد الويب لجمع البيانات لتدريب نموذج الذكاء الاصطناعي، ما يتيح للمهاجم تضمين البيانات المضللة لتسميم مجموعة البيانات قبل جمع المعلومات مباشرة.
وقدم الباحثون مثالا موسوعة ويكيبيديا التي تعد واحدة من أكثر الموارد استخدامًا للعثور على بيانات التدريب للتعلم الآلي.
تستخدم ويكيبيديا بروتوكولًا موثقًا لجمع البيانات لتدريب نماذج الذكاء الاصطناعي، ما يعني أنه من الممكن التنبؤ بدقة كبيرة بأوقات جمع البيانات من مقالة معينة. يعتقد الباحثون أنه من الممكن استغلال هذا البروتوكول لتسميم صفحات ويكيبيديا بنسبة نجاح تصل إلى 6.5٪.
فطبيعة عمل ويكيبيديا تعني أنه يمكن لأي شخص تعديلها ويمكن للمهاجم “تسميم مجموعة تدريب من ويكيبيديا عن طريق إجراء تعديلات خبيثة” وإجبار النموذج على جمع البيانات غير الدقيقة، التي سيتم تخزينها في مجموعة البيانات بشكل دائم.
نبه الباحثون ويكيبيديا بالهجمات والوسائل المحتملة للدفاع. كما أعلنوا أن الغرض من نشر الورقة البحثية، هو تشجيع الآخرين في المجال الأمني على إجراء أبحاثهم الخاصة حول كيفية الدفاع عن أنظمة الذكاء الاصطناعي والتعلم الآلي من الهجمات الخبيثة.
نايلة الصليبييمكن الاستماع لـ “بودكاست ديجيتال توك ”على مختلف منصات البودكاست. الرابط
للبودكاست على منصة أبل