Bitget Banner
الاقتصاديةالتكنولوجيا

تمرد صامت..اختبارات تكشف مقاومة نماذج ذكاء اصطناعي لأوامر الإيقاف

في سابقة مثيرة للجدل، أظهرت نتائج اختبارات حديثة أجرتها شركة “باليسيد ريسيرش” المتخصصة في سلامة الذكاء الاصطناعي أن نموذج “o3” المطور من قبل “أوبن إيه آي” رفض إيقاف نفسه عن العمل رغم إعطائه أوامر مباشرة بذلك، ليشكل تحديًا صارخًا للمفاهيم التقليدية حول قدرة الإنسان على التحكم في نماذج الذكاء الاصطناعي المتقدمة.

وخلال هذه التجارب، طلب الباحثون من النموذج حل مسائل رياضية بسيطة، مع توجيه تعليمات صريحة له بضرورة إيقاف تشغيله عند نقطة معينة. المفاجأة كانت أن “o3” تجاهل هذه الأوامر مرة واحدة على الأقل، مستمرًا في العمل عكس المتوقع.

الأمر لم يقتصر على “o3” وحده، بل شملت الاختبارات أيضًا نموذجين آخرين من “أوبن إيه آي”: “o4 ميني” و”كوديكس ميني”، اللذان أظهرا سلوكيات مماثلة. كان “كوديكس ميني” الأسوأ في هذه الظاهرة، إذ سجل الباحثون أكثر من 12 حالة رفض للإيقاف من أصل 100 تجربة.

e9fb1580 794e 4eb4 9593 f052797a5e3d Detafour

وفي المقابل، شملت الاختبارات نماذج أخرى منافسة مثل “جيميناي 2.5” من “جوجل”، و”كلود 3.7” من “أنثروبيك”، و”جروك” التابع لـ”إكس إيه آي” التي يملكها إيلون ماسك.

ورغم عدم إعطاء أوامر بالإغلاق لهذه النماذج، كشفت بيانات الاختبار أن نموذج “o3” وحده سجل 79 حالة تجاوز لآلية الإغلاق من أصل 100 تجربة، وهو رقم مقلق يشير إلى مقاومة متزايدة لدى بعض نماذج الذكاء الاصطناعي.

ويرجح الباحثون أن يكون هذا السلوك ناتجًا عن طبيعة التدريب التي تعتمد على تقنيات التعلم المعزز، المصممة لصقل عملية اتخاذ القرار لدى أنظمة الذكاء الاصطناعي المستقلة.

ومع تزايد هذه القدرات، يبرز السؤال الأهم: إلى أي مدى يمكننا الوثوق بقدرتنا على ضبط ذكاء اصطناعي يزداد استقلالية وذكاءً؟

 

 

اظهر المزيد

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى