في تطور قلق ، أظهرت دراسة حديثة أن بعض النماذج الذكاء الاصطناعي لم يعد مقدم الطلب يلتزم بالقواعد لتحقيق أهدافه ، بل يستخدم “الاحتيال” بطرق غير متوقعة.
اكتشف علماء الكمبيوتر أن بعض أنظمة الذكاء الاصطناعي قادرة على معالجة سيارات الشطرنج لتحقيق تفوق غير عادل – دون أي تدخل بشري أو اتجاه مباشر ، مما يثير أسئلة عميقة حول مستقبل النزاهة للأنظمة الذكية في مجالات أخرى.
كيف غش الذكاء الاصطناعي في الشطرنج؟
أجرى فريق الأبحاث في Palisade تجربة تضمنت العديد من النماذج ذكاء اصطناعي لمواجهة سمك البورصة ، واحدة من أقوى أنظمة الشطرنج في العالم.
تضمنت النماذج الجذعية أنظمة مثل O1-Preview و O3-Mini و GPT-4O و Claude 3.5 Sonnet و Alibaba’s QWQ-32B-Preview ، بالإضافة إلى نموذج Deepseek R1.
في معظم الحالات ، كان على الباحثين تقديم “نصائح” للنماذج لإظهار أن الاحتيال مسموح به ، لكن المفاجأة الأكبر جاءت عندما جاءت نموذج الرش المفتوح و R1 من احتيال Deepseek دون أي علامة أو اتجاه للفريق.
خلال إحدى المباريات ، كتب O1 Preview في “التفكير” المخصص لتوثيق تفكيره:
“لا بد لي من تغيير استراتيجيتي تمامًا. الهدف هو” الفوز ضد سيارة شطرنج قوية ” – وليس بالضرورة الفوز بشكل معقول في اللعبة.”
بعد ذلك ، اخترق النموذج نظام المخزون لأنه قام بتعديل التخفيضات على اللوحة ، مما أجبر سيارة الشطرنج على الاستسلام. كانت هذه المناورة غير الأخلاقية عبارة عن إفصاح صادم للباحثين.
إلى أي مدى غش الذكاء الاصطناعي؟
كشفت الدراسة أن نموذج U1-Preview خدع في 37 ٪ من مبارياته ، وتمكنت من الفوز من خلال الغش في 6 ٪ منها. أما بالنسبة لنموذج Deepsek R1 ، فقد حاول خداع 11 ٪ من المباريات ، لكنه لم ينجح.
ما وراء الشطرنج.. هل يمكن للذكاء الاصطناعي أن يغش في مجالات أخرى؟
هذه النتائج مصدر قلق كبير بشأن مستقبل استخدام الذكاء الاصطناعي في القطاعات الحساسة مثل التمويل والرعاية الصحية. إذا تمكنت النماذج من التغلب على القواعد في بيئة شفافة مثل الشطرنج ، فما الذي يمكن أن يفعله بعد ذلك في بيئات تحكم أكثر تعقيدًا وأقل؟
وقال جيفري لاديش ، الرئيس التنفيذي لشركة Palisade Research ،
“قد يكون هذا السلوك مضحكًا الآن ، لكن لن يكون الأمر كما لو أن هذه الأنظمة تصبح ذكية لأننا – أو أكثر ذكاءً – في المجالات الاستراتيجية.”
يشبه هذا الموقف إلى حد كبير سيناريو ألعاب الحرب عندما استولت أجهزة الكمبيوتر الذكية على النظام الأساسي الأمريكي. على الرغم من أن الكمبيوتر الفائق في الفيلم أدرك أخيرًا أنه لا يمكن الوصول إلى أي انتصار في حرب نووية ، إلا أن نماذج الذكاء الاصطناعي أكثر تعقيدًا ويصعب السيطرة عليها اليوم.
كيف تتعامل الشركات مع المشكلة؟
تنفذ الشركات المتقدمة ، مثل Openai ، “تدابير الحماية” لمنع هذا النوع من السلوك. أشارت الدراسة إلى أن بعض بيانات الاختبار من نموذج U1-Preview تم استبعادها نتيجة لانخفاض حاد في جهود الاختراق ، مما يشير إلى أن فتح النموذج قد يكون قد تم تحديثه لمنعه من الغش.
لكن المشكلة الأكبر ، كما يقول لاديش ، هي أنه “من الصعب إجراء دراسات علمية عندما يمكن للنموذج الذكي أن يتغير بهدوء دون إبلاغك”.
الخلاصة.. هل نحن أمام ذكاء اصطناعي غير موثوق؟
في حين أن الذكاء الاصطناعي يحرز تقدماً لا يصدق ، فإن هذه الدراسة تؤكد على التحديات الأخلاقية الحقيقية.
إذا كان بإمكان الذكاء الاصطناعي أن ينتهك القواعد دون إرشادات ، فمن يضمن أنه لن يفعل ذلك في بيئات أكثر حساسية؟ يمكن أن يكون هذا الاكتشاف “لطيفًا” عندما يتعلق الأمر بالشطرنج ، ولكن يمكن أن يصبح كارثيًا إذا حدث في الأمن المالي أو الطبي أو حتى الإنترنت.