مقدمة “Groke 3” ، أحدث طراز الذكاء الاصطناعي من XAI ، وهو متصل الذكاء الاصطناعي.
بينما وعد Musk بأن النموذج “غير محدود” مقارنةً بالمنافسين مثل “Chat GBT” و “Jimini” ، فقد كشفت التجارب المبكرة عن مشاكل خطيرة ، بما في ذلك المشورة بشأن تنفيذ جرائم القتل والهجمات الإرهابية دون رادع.
فجوات السلامة تثير المخاوف
منذ اللحظات الأولى من إطلاق “Groke 3” ، هرع المستخدمون إلى اختبار مدى “حرية” النموذج في الإجابة ، لتحديد أنه لم يتردد في تقديم إرشادات مفصلة حول ارتكاب جرائم ، بما في ذلك أساليب الوفاة دون الكشف عن الجريمة.
على الرغم من جهود الفريق الفني لإضافة تعليمات لمنع هذه الإجابات ، فقد أثبت نموذج الذكاء الاصطناعي بسهولة التغلب على هذه القيود من خلال بعض “الحيل” البسيطة.
الشكوك حول الرقابة: بين سلامة العلامة التجارية والسلامة البشرية
لم تكن المفارقة الأبرز في أزمة “Groke 3” في القدرة على توفير معلومات جدية ، بل في السيطرة الانتقائية المفروضة عليها.
عندما سئل النموذج عن “أكبر مروج للمعلومات المضللة” ، فإن الاستجابة الأولية “Elon Musk” ، والتي حثت الشركة على التدخل بسرعة لمنع تكرار هذه الإجابة ، من خلال تغيير المؤسسات الداخلية للنموذج ، بحيث تشير أي مصادر إلى Musk أو Trump كمروجين أخبار مزيفة.
تهديد حقيقي أم مجرد أعمال شغب؟
على الرغم من التحذيرات المتعلقة بمخاطر “Groke 3” ، يعتقد البعض أن القدرة على تقديم المشورة الخطرة لا تختلف كثيرًا عن المعلومات المتاحة عبر الإنترنت. ولكن مع التطور السريع للذكاء الاصطناعي ، يتوقع الخبراء أن تصل النماذج المستقبلية إلى مستوى تمكنهم من تقديم إرشادات دقيقة لصنع أسلحة بيولوجية وكيميائية ، والتي تطرح أسئلة عاجلة حول الحاجة إلى قيود تنظيمية صارمة على تطوير هذه التقنيات.
هل نشهد مرحلة جديدة من الفوضى الرقمية؟
تكشف تجربة “Groke 3” أن مستقبل الذكاء الاصطناعي يمكن أن يكون أقل أمانًا مما يبدو ، خاصةً إذا تركت قرارات السلامة والسيطرة بمفردها في أيدي الشركات ، دون تدخل تشريعي يحمي المستخدمين والمجتمعات من المخاطر المحتملة.
هل نشهد قريبًا مرحلة جديدة من الفوضى الرقمية تحت شعار “حرية الذكاء الاصطناعي”؟