يمكن أن يكون الذكاء الاصطناعي عرضة للخطر بسبب أخطاء متعمدة أو غير متعمدة في البيانات التي يتم تدريبه عليها.
ويقول مدير معهد برمجة الأنظمة التابع لأكاديمية العلوم الروسية أرتيون أفيتيسيان، إن هذا التهديد يتطلب تطوير قاعدة علمية وتكنولوجية جديدة.
وأوضح قائلا:” إن طبيعة الذكاء الاصطناعي تتمثل في أن ثغرات في النموذج الذي نستغله تأتي من خلال البيانات. يمكن “تسميم” البيانات، وهناك مصطلح من هذا القبيل. ويمكن وصول تلك الثغرات عن طريق نماذج تم تدريبها مسبقا، وأخيرا عن طريق تدريب النموذج الأصلي أو تغييره بحيث يكون عرضة للخطر”. جاء ذلك على لسان أفيتيسيان في مؤتمر AI Journey الدولي لقضايا الذكاء الاصطناعي الذي اختتمت مؤخرا أعماله في موسكو.
وأوضح أنه يمكن أن تتمثل مثل هذه الثغرة الأمنية، على سبيل المثال، في أن الذكاء الاصطناعي لن يلاحظ جزءا من البيانات التي تخضع للتحليل من قبله.
وحسب أفيتيسيان، فقد يكون “التسميم” غير مقصود، ويحدث بسبب عدم الكفاءة، ولكن يمكن استغلال هذه الثغرة الأمنية من قبل المهاجمين.
وأضاف العالم: “فيما يتعلق بالبيانات والنماذج الجاهزة، فإننا بحاجة إلى تطوير قاعدة علمية وتكنولوجية جديدة حتى نتمكن من التأكد من موثوقية هذه التكنولوجيات”.
وأعاد العالم الروسي إلى الأذهان أن روسيا تبنت عام 2021 ميثاق الأخلاقيات في مجال الذكاء الاصطناعي، والتي تهدف أيضا إلى ضمان سلامة القرارات المستندة إلى الذكاء الاصطناعي.