علماء يحذرون: الذكاء الاصطناعي قد يخرج عن السيطرة

حذر اثنان من أبرز العلماء الذكاء الاصطناعي في العالم هذا المبنى الذكاء الاصطناعي يمكن أن يكون AGI في شكل “وكلاء” خطيرًا لأن الناس يمكن أن يفقدوا السيطرة على هذه الأنظمة.

في تعليق جديد لـ “Beyond the Valley” على شبكة CNBC ، تحدث Max Testram ، أستاذ في معهد ماساتشوستس للتكنولوجيا ورئيس معهد مستقبل الحياة ، و Yoshua Bingio ، أحد “الذكاء الذكي”.

مخاوف من الذكاء الاصطناعي الوكيل

يعتمد هذا القلق على اتجاه الشركات الكبيرة في اتجاه تطوير “العملاء الذكاء الاصطناعي(Agentic AI) ، وهي أنظمة يمكن أن تتصرف مثل المساعدين الأذكياء وتقرر بشكل مستقل.

وقال بينجيو إن تطوير أنظمة الذكاء الاصطناعي لديه “وكالة” ، أو القدرة على التفكير واتخاذ القرارات بأنفسهم ، يمكن أن يتصرفوا بطرق غير متوقعة وخارجها.

وقال تاببينجيو: “إننا نبني حاليًا الذكاء الاصطناعي بشكل عام في شكل وكلاء يفهمون العالم ويتصرفون وفقًا لذلك ، لكن قد يكون ذلك خطيرًا للغاية لأننا نخلق عملياً نوعًا جديدًا من الكائنات الذكية على هذا الكوكب ، دون معرفة كيفية تصرفك في احتياجاتنا”.

خطر غريزة البقاء في الذكاء الاصطناعي

أحد الشواغل التي أثارتها Bingio هي أن هذه الأنظمة قد طورت غريزة البقاء مع زيادة ذكائها ، مما قد يؤدي إلى منافسة غير متوقعة بين الناس والذكاء الاصطناعي.

وأضاف: “هل نريد أن نكون في منافسة مع أذكى الكيانات الخاصة بنا؟ إنه ليس رهانًا مطمئنًا ، ويجب أن نفهم كيف يمكن أن تنشأ الدوافع للحفاظ على الذات. الذكاء الاصطناعي.

حلول محتملة: الذكاء الاصطناعي كأداة وليس كعميل

أما بالنسبة إلى Max Tigers ، فهو يعتقد أن الحل على التركيز على “الذكاء الاصطناعي كأداة “بدلاً من بناء أنظمة لديها استقلال كامل.

وأوضح أن الذكاء الاصطناعي كأداة يمكن أن يكون نظامًا يستخدم لحل مشكلات محددة ، مثل اكتشاف علاج السرطان ، أو أنظمة السيارات التي يتم إدارتها ذاتيًا ، مع ضمانات صارمة تمنع فقدان السيطرة.

وقال تيخار: “يمكننا الاستمتاع بجميع الفوائد التي توفرها الذكاء الاصطناعي إذا أصرنا على إنشاء معايير السلامة قبل السماح للشركات ببيع أنظمة ذكاء اصطناعي قوية. يجب أن تثبت أننا سنواصل السيطرة عليها”.

دعوات لوضع ضوابط صارمة قبل فوات الأوان

في عام 2023 ، طلب معهد مستقبل الحياة التوقف عن تطوير الأنظمة الذكاء الاصطناعي يتنافس هذا مع الذكاء البشري حتى يتم تحديد معايير السلامة الواضحة ، وعلى الرغم من أنه لم يتم تحقيقه بعد ، فإن Tygamarc يرى أن الحديث عن هذه القضية أصبح أكثر شيوعًا.

وأضاف: “الآن ، هناك العديد من المناقشات حول هذا الموضوع ، لكننا بحاجة إلى معرفة ما إذا كان بإمكاننا اتخاذ تدابير حقيقية للسيطرة على الذكاء الاصطناعي العام قبل فوات الأوان.”

متى سيصل الذكاء الاصطناعي العام؟

لا يزال هناك جدل واسع النطاق خلال تاريخ وصول الذكاء الاصطناعي السنة ، حيث تختلف التقديرات وفقًا لتعريف نفس المفهوم.

قال الرئيس التنفيذي لشركة Openai Sam Altman في ديسمبر الماضي إن عمله يعرف كيفية بناء الذكاء الاصطناعي العام ، ويتوقع منه أن يصل إلى أسرع مما يعتقد معظم الناس ، لكنه قلل من حجم نفوذه.

وقال ألمان: “أتوقع أن آتي إلى الذكاء الاصطناعي العام في وقت مبكر من معظم الناس مما يعتقد معظم الناس ، لكنه سيكون أقل فعالية مما يعتقدون”.

ومع تسارع تطور تقنيات الذكاء الاصطناعي ، يبقى السؤال: هل ستكون الإنسانية قادرة على التحكم في الأنظمة التي تتجاوز ذكائها؟ في حين تواصل الشركات الكبيرة تطوير “وكلاء الذكاء الاصطناعي” ، فإن العلماء يدعون ضوابط صارمة قبل فوات الأوان لتجنب المخاطر المحتملة لهذه التكنولوجيا الثورية.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

Scroll to Top