يقدم البحث نافذة جديدة على نطاق حالات الاستخدام غير المشروعة المحتملة لآلاف عمليات نشر نماذج اللغة الكبيرة مفتوحة المصدريقدم البحث نافذة جديدة على نطاق حالات الاستخدام غير المشروعة المحتملة لآلاف عمليات نشر نماذج اللغة الكبيرة مفتوحة المصدر

نماذج الذكاء الاصطناعي مفتوحة المصدر عرضة لإساءة الاستخدام الإجرامي، يحذر الباحثون

2026/01/30 15:15

قال الباحثون يوم الخميس 29 يناير إن المتسللين والمجرمين الآخرين يمكنهم بسهولة السيطرة على أجهزة الكمبيوتر التي تشغل نماذج اللغة الكبيرة مفتوحة المصدر خارج الضوابط والقيود الخاصة بمنصات الذكاء الاصطناعي الرئيسية، مما يخلق مخاطر أمنية ونقاط ضعف.

قال الباحثون إن المتسللين يمكنهم استهداف أجهزة الكمبيوتر التي تشغل نماذج اللغة الكبيرة وتوجيهها لتنفيذ عمليات البريد العشوائي أو إنشاء محتوى تصيد احتيالي أو حملات تضليل، متجاوزين بروتوكولات الأمان الخاصة بالمنصة.

يقدم البحث، الذي أجرته بشكل مشترك شركات الأمن السيبراني SentinelOne و Censys على مدار 293 يومًا وتمت مشاركته حصريًا مع رويترز، نافذة جديدة على نطاق حالات الاستخدام غير المشروعة المحتملة لآلاف عمليات نشر نماذج اللغة الكبيرة مفتوحة المصدر. وقال الباحثون إن هذه تشمل القرصنة وخطاب الكراهية والتحرش والمحتوى العنيف أو الدموي وسرقة البيانات الشخصية وعمليات الاحتيال عبر الإنترنت أو الاحتيال، وفي بعض الحالات مواد الاعتداء الجنسي على الأطفال.

وفقًا للباحثين، بينما توجد آلاف من أنواع نماذج اللغة الكبيرة مفتوحة المصدر، فإن جزءًا كبيرًا من نماذج اللغة الكبيرة على المضيفين القابلين للوصول عبر الإنترنت هي أنواع من Llama من Meta و Gemma من Google DeepMind وغيرها. في حين أن بعض النماذج مفتوحة المصدر تتضمن ضوابط أمان، حدد الباحثون مئات الحالات التي تمت فيها إزالة الضوابط بشكل صريح.

قال خوان أندريس غيريرو-سادي، المدير التنفيذي لأبحاث الاستخبارات والأمن في SentinelOne، إن محادثات صناعة الذكاء الاصطناعي حول ضوابط الأمان "تتجاهل هذا النوع من القدرة الفائضة التي يتم استخدامها بوضوح لجميع أنواع الأشياء المختلفة، بعضها مشروع، وبعضها إجرامي بشكل واضح". شبّه غيريرو-سادي الوضع بـ"جبل جليدي" لا يتم حسابه بشكل صحيح عبر الصناعة ومجتمع المصادر المفتوحة.

الدراسة تفحص مطالبات النظام

قام البحث بتحليل عمليات النشر العامة لنماذج اللغة الكبيرة مفتوحة المصدر المنشورة من خلال Ollama، وهي أداة تسمح للأشخاص والمؤسسات بتشغيل إصداراتهم الخاصة من نماذج اللغة الكبيرة المختلفة.

تمكن الباحثون من رؤية مطالبات النظام، وهي التعليمات التي تحدد كيفية تصرف النموذج، في حوالي ربع نماذج اللغة الكبيرة التي لاحظوها. من بين تلك، حددوا أن 7.5٪ يمكن أن تمكّن من نشاط ضار محتمل.

حوالي 30٪ من المضيفين الذين لاحظهم الباحثون يعملون من الصين، وحوالي 20٪ في الولايات المتحدة.

قالت راشيل آدامز، الرئيس التنفيذي ومؤسس المركز العالمي لحوكمة الذكاء الاصطناعي، في رسالة بريد إلكتروني إنه بمجرد إصدار النماذج المفتوحة، تصبح المسؤولية عما يحدث بعد ذلك مشتركة عبر النظام البيئي، بما في ذلك المختبرات الأصلية.

قالت آدامز: "المختبرات ليست مسؤولة عن كل إساءة استخدام لاحقة (يصعب توقعها)، لكنها تحتفظ بواجب رعاية مهم لتوقع الأضرار المتوقعة وتوثيق المخاطر وتوفير أدوات التخفيف والتوجيه، خاصة بالنظر إلى القدرة غير المتكافئة على الإنفاذ العالمي".

رفض المتحدث باسم Meta الرد على الأسئلة حول مسؤوليات المطورين في معالجة المخاوف حول إساءة استخدام النماذج مفتوحة المصدر وكيفية الإبلاغ عن المخاوف، لكنه أشار إلى أدوات Llama Protection الخاصة بالشركة لمطوري Llama، ودليل Meta Llama للاستخدام المسؤول الخاص بالشركة.

قال رام شانكار سيفا كومار، قائد فريق Microsoft AI Red Team، في رسالة بريد إلكتروني إن Microsoft تعتقد أن النماذج مفتوحة المصدر "تلعب دورًا مهمًا" في مجموعة متنوعة من المجالات، ولكن "في الوقت نفسه، نحن واضحون في أن النماذج المفتوحة، مثل جميع التقنيات التحويلية، يمكن أن يسيء استخدامها الخصوم إذا تم إصدارها دون ضمانات مناسبة".

قال إن Microsoft تجري تقييمات ما قبل الإصدار، بما في ذلك العمليات لتقييم "المخاطر للسيناريوهات المعرضة للإنترنت والمستضافة ذاتيًا وسيناريوهات استدعاء الأدوات، حيث يمكن أن يكون إساءة الاستخدام مرتفعة". تراقب الشركة أيضًا التهديدات الناشئة وأنماط إساءة الاستخدام. "في النهاية، يتطلب الابتكار المفتوح المسؤول التزامًا مشتركًا عبر المبدعين والمنفذين والباحثين وفرق الأمان".

لم تستجب Ollama لطلب التعليق. لم تستجب Google التابعة لـ Alphabet وAnthropicللأسئلة. – Rappler.com

إخلاء مسؤولية: المقالات المُعاد نشرها على هذا الموقع مستقاة من منصات عامة، وهي مُقدمة لأغراض إعلامية فقط. لا تُظهِر بالضرورة آراء MEXC. جميع الحقوق محفوظة لمؤلفيها الأصليين. إذا كنت تعتقد أن أي محتوى ينتهك حقوق جهات خارجية، يُرجى التواصل عبر البريد الإلكتروني service@support.mexc.com لإزالته. لا تقدم MEXC أي ضمانات بشأن دقة المحتوى أو اكتماله أو حداثته، وليست مسؤولة عن أي إجراءات تُتخذ بناءً على المعلومات المُقدمة. لا يُمثل المحتوى نصيحة مالية أو قانونية أو مهنية أخرى، ولا يُعتبر توصية أو تأييدًا من MEXC.