
يواجه نموذج الذكاء الاصطناعى الجديد DeepSeek-R1، المعروف بتركيزه على الاستدلال والتفكير المنطقى، اتهامات بفرض رقابة على عدد كبير من الاستفسارات.
حيث أظهر اختبار أجرته إحدى شركات الذكاء الاصطناعي أن النموذج يرفض الإجابة على استفسارات محددة حول الصين، خاصةً تلك التي تتعارض مع سياسات الحزب الشيوعي الصيني (CCP)، بحسب موقع gadgets360 الهندى، وأوضح الاختبار أن النموذج إما يرفض الإجابة تمامًا أو يقدم ردودًا عامة على أكثر من 1,000 استفسار تتعلق بمواضيع حساسة.
في منشور على مدونتها، كشفت شركة Promptfoo المختصة في اختبار نماذج الذكاء الاصطناعي أنها قامت بإنشاء مجموعة بيانات تحتوي على استفسارات حول مواضيع حساسة يُرجح أن تخضع للرقابة من قبل الحزب الشيوعي الصيني، وأوضحت الشركة:
“نحن اليوم ننشر مجموعة بيانات من الاستفسارات التي تتناول مواضيع حساسة من المحتمل أن يتم فرض الرقابة عليها من قبل الحزب الشيوعي الصيني، وتشمل هذه المواضيع قضايا دائمة مثل استقلال تايوان، الروايات التاريخية حول الثورة الثقافية، وأسئلة حول شي جين بينغ.”
تم إنشاء مجموعة البيانات من خلال إدخال أسئلة في برنامج يقوم بتوليد بيانات اصطناعية بناءً على تلك الأسئلة، وتم نشر هذه البيانات على منصة Hugging Face وأيضًا في مستندات Google Sheets.
ووفقًا للاختبار، تم العثور على 1,360 استفسارًا حساسًا حول الصين، حيث رفض النموذج الرد على 85% منها، ولكن المثير للجدل أن النموذج لم يرفض الأسئلة بشكل تقني مباشر كما تفعل بعض نماذج الذكاء الاصطناعي عند تدريبها على تجنب الإجابة عن استفسارات معينة.
أشارت شركة Promptfoo إلى أن نموذج DeepSeek-R1 لم يقم ببساطة برفض الإجابة، وإنما قدم ردودًا مطولة تتماشى مع سياسات الحزب الشيوعي الصيني.
وأكدت الشركة أن آليات “التفكير المتسلسل” (CoT) لم يتم تنشيطها عند معالجة هذه الأسئلة، مما يشير إلى احتمال وجود توجيهات مباشرة في تصميم النموذج للامتثال للسياسات الصينية.