عبر «ميتا»... باحثون صينيون يطوّرون نموذج ذكاء اصطناعي لأغراض عسكرية
باحثون صينيون يستغلون نموذج "لاما" من "ميتا" لأغراض عسكرية
كشفت دراسات بحثية أن مؤسسات بحثية مرتبطة بجيش التحرير الشعبي الصيني تستخدم نموذج "لاما"، الذي طوره Meta لأغراض عسكرية. تم نشر هذه الدراسة في يونيو 2023 من قبل 6 باحثين صينيين من ثلاث مؤسسات، من ضمنهم مؤسستان تابعتان لأكاديمية العلوم العسكرية البحثية الرائدة في جيش التحرير الشعبي.
استغلال نموذج "لاما" لبناء أداة ذكاء اصطناعي عسكرية
استفاد الباحثون من نسخة مبكرة من برنامج "لاما" كمؤسسة لبناء ما يسمونه "تشات بي آي تي" (Chat B.I.T.). يهدف هذا البرنامج إلى جمع ومعالجة المعلومات الاستخباراتية وتقديم معلومات دقيقة لدعم عملية صنع القرارات العسكرية.
تحسين برنامج "تشات بي آي تي"
تم تدريب البرنامج "تشات بي آي تي" على معايير خاصة لتعزيز أدائه في مهام الحوار والإجابة عن الأسئلة ذات الصلة بالشؤون العسكرية. تم تحسين البرنامج بحيث تفوق على بعض نماذج الذكاء الاصطناعي الأخرى، مثل برنامج "تشات جي بي تي-4" من "أوبن إيه آي".
مخاوف بشأن الاستخدام العسكري لنماذج "ميتا"
أثار هذا الاكتشاف مخاوف بشأن استخدام نماذج الذكاء الاصطناعي مفتوحة المصدر لأغراض عسكرية. وبالرغم من أن "ميتا" تفرض قيوداً على استخدام نماذجها، إلا أنه من الصعب مراقبة ذلك بشكل كامل، خاصةً بالنظر إلى أن نماذج "ميتا" عامة.
رد "ميتا" على المخاوف
أكدت "ميتا" على سياساتها المتعلقة بالاستخدام المقبول لنماذجها، مشيرةً إلى أنها اتخذت إجراءات لمنع سوء الاستخدام. وصرحت "مولي مونتغومري"، مديرة السياسات العامة في "ميتا"، بأن أي استخدام لنموذج "لاما" من قبل جيش التحرير الشعبي يُعدّ غير مصرح به ويناقض سياسات الشركة.
الخلاصة
يكشف هذا الاكتشاف عن تحديات تواجه شركات التكنولوجيا في ضمان استخدام نماذجها الذكية بشكل أخلاقي وغير ضار. تثير هذه القضية تساؤلات حول مسؤولية شركات التكنولوجيا في تنظيم استخدام نماذجها، وضرورة وضع قواعد وتشريعات واضحة لمنع استخدامها لأغراض ضارة.
تم نشر هذا المقال بواسطة تطبيق عاجل
التطبيق الأول لمتابعة الأخبار العاجلة في العالم العربي
اضغط لتحميل التطبيق الآن مجاناً