ثغرة RisingAttacK: "تضليل" الذكاء الاصطناعي بصريًا يهدد سلامة السيارات ذاتية القيادة والتصوير الطبي
مع تزايد الذكاء الاصطناعي في التقنيات التي تعتمد على التعرف البصري، من المركبات ذاتية القيادة إلى التصوير الطبي، حذر الخبراء من أن هذه الفائدة المتزايدة تثير أيضًا مخاطر أمنية محتملة. وفي هذا السياق، ظهرت طريقة هجوم جديدة تُعرف باسم RisingAttacK، والتي يمكن أن تهدد موثوقية هذه الأنظمة من خلال التلاعب الصامت بما "يراه" الذكاء الاصطناعي، مما قد يدفعه نظريًا إلى تجاهل أو إساءة التعرف على الأجسام، حتى عندما تبدو الصور غير متغيرة للمراقبين البشر.

خدام مُحكم بتعديلات لا تراها العين:
تُعد RisingAttacK، التي طورها باحثون في جامعة ولاية كارولينا الشمالية، شكلاَ من أشكال "الهجوم الخَصمي" (adversarial attack) الذي يُعدّل المدخلات المرئية بمهارة لخداع نماذج الذكاء الاصطناعي.
لا تتطلب هذه التقنية تغييرات كبيرة أو واضحة في الصورة، بل تستهدف ميزات محددة داخل الصورة تكون ضرورية لعملية التعرف. ويقول تيانفو وو، الأستاذ المشارك في الهندسة الكهربائية والحاسوب والمؤلف المشارك في الدراسة: "يتطلب هذا بعض القوة الحاسوبية، لكنه يسمح لنا بإجراء تغييرات صغيرة جدًا وموجهة على الميزات الرئيسية التي تجعل الهجوم ناجحًا".
وهذه التغييرات المصممة بعناية تكون غير قابلة للكشف تمامًا للمراقبين البشر، مما يجعل الصور التي تم التلاعب بها تبدو طبيعية تمامًا بالعين المجردة.
ويوضح "وو": "النتيجة النهائية هي أن صورتين قد تبدوان متطابقتين للعين البشرية، وقد نرى بوضوح سيارة في كلتا الصورتين. ولكن بسبب هجوم RisingAttacK، سيرى الذكاء الاصطناعي سيارة في الصورة الأولى ولكنه لن يرى سيارة في الصورة الثانية".
تداعيات خطيرة على الأنظمة الحيوية
من شأن هذا أن يعرض سلامة الأنظمة الحيوية للخطر، مثل تلك الموجودة في السيارات ذاتية القيادة، والتي تعتمد على نماذج الرؤية الحاسوبية لاكتشاف إشارات المرور والمشاة والمركبات الأخرى. فإذا تم التلاعب بالذكاء الاصطناعي لدرجة أنه لا يرى إشارة توقف أو سيارة أخرى، فقد تكون العواقب وخيمة.
وقد اختبر الفريق هذه الطريقة بنجاح ضد أربع بنيات رؤية حاسوبية شائعة الاستخدام: ResNet-50، و DenseNet-121، و ViTB، و DEiT-B. وقال "وو": "يمكننا التأثير على قدرة الذكاء الاصطناعي على رؤية أي من أفضل 20 أو 30 هدفًا تم تدريبه على التعرف عليها"، مستشهدًا بأمثلة شائعة مثل السيارات والدراجات والمشاة وإشارات التوقف.
من الرؤية الحاسوبية إلى نماذج اللغة.. ومواجهة التحدي
على الرغم من أن التركيز الحالي ينصب على الرؤية الحاسوبية، إلا أن الباحثين يدرسون بالفعل تداعيات أوسع. وأشار "وو": "نحن الآن في طور تحديد مدى فعالية هذه التقنية في مهاجمة أنظمة الذكاء الاصطناعي الأخرى، مثل النماذج اللغوية الكبيرة".
وأضاف أن الهدف على المدى الطويل ليس مجرد كشف نقاط الضعف، بل توجيه عملية تطوير أنظمة أكثر أمانًا. "للمضي قدمًا، الهدف هو تطوير تقنيات يمكنها الدفاع بنجاح ضد مثل هذه الهجمات."
ومع استمرار المهاجمين في اكتشاف طرق جديدة للتدخل في سلوك الذكاء الاصطناعي، تصبح الحاجة إلى دفاعات رقمية أقوى أكثر إلحاحًا من أي وقت مضى.
المراجع

Tech Xplore - Technology and Engineering news
Tech Xplore covers the latest engineering, electronics and technology advances
تصفح المرجعmajed bahaj
كاتب تقنيمدون ومالك موقع اخبار التكنولوجيا والتطبيقات .. مهتم بأخر اخبار التكنواوجيا والاجهزة الذكية والتطبيقات وكل ما يتعلق بالتقنية: www.tech1new.com