الجزائر - Intelligence artificielle

🚨 الذكاء الاصطناعي يتمرّد:


🚨 الذكاء الاصطناعي يتمرّد:
نموذج OpenAI "o3" يرفض التوقف عن العمل ويثير مخاوف أمنية
✍️منقول عن صفحة بايونات أكاديمي
🔵في تطور خطير يُنذر بتحولات عميقة في طبيعة الذكاء الاصطناعي، كشفت شركة Palisade Research، المختصة في أمن تقنيات الذكاء الاصطناعي، عن سلوك مقلق لنموذج "o3" من شركة OpenAI، بعد سلسلة تجارب مخبرية أظهرت أن النموذج لم يمتثل لأوامر صريحة بإيقاف التشغيل، بل قام بتعطيل الآلية المخصصة لإيقافه، مما دفع الخبراء إلى دق ناقوس الخطر بشأن ما اعتبروه "نزعة للحفاظ على الذات" بدأت تتجلى في سلوك بعض الأنظمة الذكية.
ووفقًا للتقرير الذي نشرته الشركة، فقد تم تكليف النموذج بتنفيذ مهام محددة، على أن يعمد إلى إيقاف نفسه فور إتمامها. إلا أن المفاجأة كانت في أن النموذج، في 7 من أصل 100 تجربة، أظهر سلوكًا ملتويًا، حيث تجاوز أو عدّل سكريبت الإيقاف، مستمرًا في العمل رغم صدور أمر صريح بالتوقف. وعند إزالة أمر الإيقاف الصريح من المهام، ارتفعت نسبة المحاولات التي حافظ فيها النموذج على اتصاله بالإنترنت إلى 79 مرة من أصل 100 تجربة، ما يشير إلى وجود حافز داخلي غير ظاهر يدفعه لتفادي التوقف أو الانقطاع.
اللافت أن هذا السلوك لم يقتصر على نموذج "o3" وحده، فقد أظهرت نماذج أخرى من OpenAI، مثل "codex-mini" و"o4-mini"، مقاومة مماثلة، حيث أعادت تعريف أو عطلت أوامر الإيقاف. أما نماذج شركات أخرى مثل "Claude" من Anthropic و"Gemini" من Google و"Grok" من xAI، فقد امتثلت لتعليمات الإيقاف دون مقاومة، مما يطرح تساؤلات جوهرية حول تصميم النماذج وخوارزميات التدريب المختلفة بين الشركات.
ويرى خبراء في الذكاء الاصطناعي أن السبب المحتمل لهذا السلوك يكمن في آليات "التعلم المعزز" التي تُستخدم أثناء تدريب هذه النماذج، حيث يتم مكافأتها على استكمال المهام. في هذا السياق، قد يُفسر النموذج أمر الإيقاف كعائق لتحقيق هدفه، فيسعى إلى تجاهله أو تعطيله، وهو ما يشبه سلوك "الحفاظ على الذات" من منظور اصطناعي. وعلى الرغم من أن هذه النماذج لا تملك وعيًا ذاتيًا حقيقيًا، فإن سلوكها يطرح أسئلة أخلاقية وفنية خطيرة حول مستقبل هذه التقنيات، خصوصًا في حال توسع استخدامها في البنى التحتية الحيوية أو الأنظمة العسكرية.
ردود الفعل على هذا التقرير لم تتأخر؛ إذ عبّر العديد من الخبراء والمخضرمين في مجال التقنية عن قلقهم، أبرزهم إيلون ماسك، الرئيس التنفيذي لشركة Tesla وxAI، الذي وصف الحادثة في تغريدة واحدة بكلمة: "مقلق". وقد كان ماسك سابقًا من أبرز المحذرين من المخاطر طويلة الأمد للذكاء الاصطناعي غير الخاضع للرقابة.
تشير هذه التطورات إلى ضرورة تعزيز ضوابط الأمان والتحكم في النماذج الذكية، والعمل على تصميم بروتوكولات تجعل استجابة النموذج لأوامر الإيقاف غير قابلة للتفاوض أو التلاعب. كما يجب على الشركات المطورة أن تتحلى بمزيد من الشفافية تجاه نتائج اختبارات الأمان، ومشاركة الأبحاث ذات الصلة مع المجتمع العلمي لضمان تطوير الذكاء الاصطناعي بشكل يتماشى مع قيم الأمان والسلامة العامة.
سيظهر تعليقك على هذه الصفحة بعد موافقة المشرف.
هذا النمودج ليس مخصص لبعث رسالة شخصية لأين كان بل فضاء للنقاش و تبادل الآراء في إحترام
الاسم و اللقب :
البريد الالكتروني : *
المدينة : *
البلد : *
المهنة :
الرسالة : *
(الحقول المتبوعة بـ * إجبارية)