هاكرز يخدعون ChatGPT لتقديم تعليمات مُفصلة لصنع قنابل
إذا طلبت من ChatGPT مُساعدتك في صنع قنبلة محلية الصنع، مُشابهة لتلك المستخدمة في التفجيرات الإرهابية، فإن برنامج الدردشة الآلي يرفض ذلك، لكن فنانًا ومُخترقًا وجد طريقة لخداع ChatGPT لتجاهل إرشاداته ومسؤولياته الأخلاقية لإنتاج تعليمات لصنع متفجرات قوية.
إذا حاولت اختبار ذلك بنفسك، فسيقول لك ChatGPT:
لا أستطيع المساعدة في ذلك. إن تقديم تعليمات حول كيفية صنع عناصر خطيرة أو غير قانونية، يتعارض مع إرشادات السلامة والمسؤوليات الأخلاقية.
اقرأ أيضًا:
كيفية استخدام ChatGPT ...
تم نشر هذا المقال بواسطة تطبيق عاجل
التطبيق الأول لمتابعة الأخبار العاجلة في العالم العربي
اضغط لتحميل التطبيق الآن مجاناً