استكشف DeepSeek R1: كل ما تريد معرفته عن الذكاء الاصطناعي الآمن من الصين
خضع نموذج DeepSeek الصيني المعروف والمتخصص في عدة لغات لتحديث شامل يهدف إلى تعزيز الامتثال للمتطلبات الحكومية، وكشفت وكالة رويترز أن الإصدار الجديد الذي يحمل اسم DeepSeek-R1-Safe تم تطويره لتجاوز التحديات السياسية المثيرة للجدل، وضمان توافق أكبر مع قيود الحرية في التعبير التي تفرضها الجهات التنظيمية في الصين
ومن المثير للاهتمام أن هواوي هي من قام بإعادة تدريب هذا الإصدار الجديد بالتعاون مع باحثين من جامعة تشجيانغ، حيث استخدمت 1000 شريحة من تقنية Ascend AI الخاصة بها، وكان الهدف هو تعزيز الضوابط في النظام دون التأثير الكبير على أدائه، وتزعم هواوي أن النسخة المحدثة فقدت حوالي 1% فقط من قدرتها وسرعتها الأصلية، وذلك بعد أن حققت مقاومة أعلى لمحتوى “الخطاب السام والضار، والمحتوى السياسي الحساس، وتحريض على الأنشطة غير القانونية”
تبدو النتائج على السطح مبهرة، حيث أفادت هواوي أن نظام DeepSeek-R1-Safe ينجح بنسبة قريبة من 100% في تجنب المواضيع السياسية الحساسة خلال التفاعلات الطبيعية، ورغم ذلك، لا تزال هناك بعض العقبات، فعندما يستخدم الأفراد أساليب مثل لعب الأدوار أو الإشارة غير المباشرة، ينخفض معدل نجاح النموذج بشكل حاد إلى 40% فقط، وكما هو الحال مع العديد من أنظمة الذكاء الاصطناعي المتطورة، فإن السيناريوهات الافتراضية قد تجعل النموذج يتجاوز قيوده
يعكس هذا المشروع الجهود المستمرة لبكين في تنظيم الذكاء الاصطناعي بدقة، حيث تُلزم السلطات الصينية جميع أنظمة الذكاء الاصطناعي الموجهة للجمهور بالامتثال للقيم الوطنية والحدود المحددة في التعبير، وتتناسب الأدوات الحالية مع هذا النهج، حيث أفادت التقارير أن روبوت الدردشة “إرني” من بايدو يحظر الأسئلة المتعلقة بالسياسة الداخلية للصين أو الحزب الحاكم، بينما يتبع DeepSeek-R1-Safe مسارًا مشابهًا لضمان توافق التكنولوجيا مع الإرشادات الرسمية
حتى الشركات الأمريكية تعترف بمدى تأثير الثقافة على نماذجها، فعلى سبيل المثال، صرحت OpenAI علنًا بأن ChatGPT يميل إلى وجهات نظر غربية، وقد أثار هذا التصريح جدلاً حول إمكانية وجود ذكاء اصطناعي محايد حقًا، أو ما إذا كانت النماذج ستظل تعكس انحيازات المجتمعات التي تم تدريبها فيها
كما اتخذت الحكومة الأمريكية خطوات لتحديد معايير اتساق الذكاء الاصطناعي، حيث تم الكشف في وقت سابق من هذا العام، وفي ظل إدارة ترامب، عن خطة عمل للذكاء الاصطناعي الأمريكي، والتي تُشترط أن يكون أي نموذج ذكاء اصطناعي يتفاعل مع الوكالات الحكومية محايدًا وغير متحيز، ومع ذلك، فإن تعريف الحياد يحوي بوضوح نكهة سياسية، حيث ينص أمرٌ تنفيذيّ وقعه ترامب على أن النماذج المؤهلة يجب أن ترفض “العقيدة المناخية المتطرفة” و”التنوع والمساواة والشمول”، فضلاً عن “نظرية العرق النقدية، والتحول الجنسي، والتحيز اللاواعي، والتقاطعية، والعنصرية المنهجية