انضم إلى النشرة الإخبارية لدينا للبقاء على اطلاع وتلقي النصائح والبرامج التعليمية الحصرية.
​
الدعم والمساعدةسياسة الخصوصية
دليل التعلمتواصل معنا

@ ذكاء. كل الحقوق محفوظة.

هجمات الحقن الأوامر (Prompt Injection Attacks)

0

هجمات حقن الأوامر في الذكاء الاصطناعي هي نوع من الثغرات الأمنية حيث يتم تصميم مدخلات ضارة للتلاعب بنماذج الذكاء الاصطناعي أو استغلالها، مثل نماذج اللغة، لإنتاج مخرجات غير مقصودة أو ضارة. تتضمن هذه الهجمات حقن محتوى خادع أو معادٍ في المطالبة لتجاوز المرشحات أو استخراج معلومات سرية أو جعل النموذج يستجيب بطرق لا ينبغي له أن يفعلها. على سبيل المثال، يمكن أن يخدع الحقن الفوري نموذجًا ليكشف عن بيانات حساسة أو يولد استجابات غير مناسبة عن طريق تغيير سلوكه المتوقع.

مصادر مقترحه للتعلم

Article: Prompt Injection in LLMsArticle: What is a prompt injection attack?Premium course: Scrimba - Complete AI Engineer Path