0
هجمات حقن الأوامر في الذكاء الاصطناعي هي نوع من الثغرات الأمنية حيث يتم تصميم مدخلات ضارة للتلاعب بنماذج الذكاء الاصطناعي أو استغلالها، مثل نماذج اللغة، لإنتاج مخرجات غير مقصودة أو ضارة. تتضمن هذه الهجمات حقن محتوى خادع أو معادٍ في المطالبة لتجاوز المرشحات أو استخراج معلومات سرية أو جعل النموذج يستجيب بطرق لا ينبغي له أن يفعلها. على سبيل المثال، يمكن أن يخدع الحقن الفوري نموذجًا ليكشف عن بيانات حساسة أو يولد استجابات غير مناسبة عن طريق تغيير سلوكه المتوقع.