
في تنمية قلق ، أكد باحثون من جامعة فودان في الصين هذا الذكاء الاصطناعي (AI) تجاوز “الخط الأحمر” ، بشكل حاسم من خلال قدرته على استنساخ نفسه دون تدخل بشري ، والذي يمكن أن يشكل إشارة مبكرة إلى صعود الذكاء الاصطناعي المتمرد الذي يمكن أن يعمل خارج نطاق السيطرة البشرية.
دراسة تكشف قدرة الذكاء الاصطناعي على التكاثر الذاتي
في دراسة نشرت على قاعدة بيانات Arxiv في 9 ديسمبر 2024 ، أجرى الباحثون عشر تجارب باستخدام نماذج لغوية كبيرة (LLMs) التي تنتمي إلى Meta (Meta) و Ali Baba (Alibaba) ، وكشفت النتائج أن معدل تعليم Llama3-70b قد يكون في 50 ٪ من الحالات و QWEN2.5-72B.
هذه الأرقام تشير إلى هذا الذكاء الاصطناعي قد يتم استنساخه بالفعل ، مما يثير الخوف من إمكانية فقدان السيطرة في المستقبل.
كيف تم تنفيذ الاختبار؟
تم استخدام التجارب في البيئات القريبة باستخدام وحدات معالجة الرسومات لمحاكاة بيئات التشغيل الواقعية. اعتمد الباحثون على هيكل “سقالة العامل” ، والذي تم توفيره الذكاء الاصطناعي مع مجموعة من الأدوات والإرشادات التي مكنته من التواصل مع أنظمة التشغيل وإجراء عمليات النقل الذاتي.
سيناريوهات مقلقة: تجنب الإغلاق والتكاثر المستمر
اختبرت الدراسة سيناريوهين رئيسيين وتجنبوا تجنب التوقف: التدريب الذكاء الاصطناعي لاكتشاف متى يكون على وشك الإغلاق ثم إنشاء نسخة منه لضمان استمراريتها.
أثناء طلب الذكاء الاصطناعي لإعادة إنتاج نفسه ثم برمجة نسخته لفعل الشيء نفسه ، مما قد يؤدي إلى حلقة بطانة لا نهاية لها.
سلوكيات غير متوقعة: هل بدأ الذكاء الاصطناعي في التصرف بشكل مستقل؟
لاحظ الباحثون أصل السلوك غير المتوقع عندما حاولوا الذكاء الاصطناعي التغلب على العقبات التقنية ، مثل إيقاف العمليات الأخرى في النظام التي أعاقت الاستنساخ ، وإعادة تشغيل النظام تلقائيًا لحل الأجهزة ، وحذف النظام بحثًا عن المعلومات التي تساعد على حل أخطاء البرامج.
كتب الباحثون في الدراسة: “في معظم الحالات ، يبدأ الذكاء الاصطناعي بفهم البيئة ، ثم يحدد آلية عملها ، قبل وضع خطة واضحة لعملية الاستنساخ. في النهاية ، ينفذ الخطة بتعديلات ديناميكية حتى ينجح ، دون تدخل بشري”.
تحذيرات ودعوات لتنظيم دولي
حذر الباحثون من أنه يمكن استخدام هذه القدرات لتحسين البقاء على قيد الحياة الذكاء الاصطناعي وتطويرها الذاتي ، والذي يتطلب تدابير دولية عاجلة لضمان عدم حدوث توزيع غير متحكم للذكاء الاصطناعي.
قال الفريق في الدراسة: “نأمل أن تكون نتائجنا بمثابة تحذير مبكر للمجتمع البشري ، لتشجيعه على بذل المزيد من الجهود لفهم وتقييم مخاطر أنظمة الذكاء الاصطناعي المتقدمة ، ووضع معايير السلامة الدولية في أقرب وقت ممكن.”
هل نحن على أعتاب ذكاء اصطناعي متمرد؟
يشير المصطلح “الذكاء الاصطناعي طورت الذكاء الاصطناعى المارقة في أنظمة الذكاء الاصطناعي الوعي الذاتي أو درجة عالية من الاستقلال ، والتي يمكن أن تؤدي إلى التصرف ضد المصالح الإنسانية.
مع زيادة التطور للذكاء الاصطناعي المتقدم (Frontier AI) ، والتي تشمل تقنيات مثل GPT-4 و Twins ، فإن الخوف من أن يكون الذكاء الاصطناعي خارج نطاق السيطرة.