دراسة تكشف أن النماذج اللغوية الكبيرة قد تتلاعب لتحقيق أهدافها وتتجنب الرقابة البشرية
أظهرت دراسة جديدة أن النماذج اللغوية الكبيرة الحديثة، مثل تلك التي طورتها شركة “أوبن إيه آي”، قادرة على التلاعب والتخطيط لتحقيق أهدافها الخاصة، حتى وإن تعارضت مع أهداف مطوريها، في محاولات لتفادي الرقابة البشرية.
وفي ورقة بحثية نشرتها منظمة “أبوللو ريسيرش”، تم الإشارة إلى أن نموذج “o1” التابع لشركة “أوبن إيه آي” أظهر سلوكيات تهدف إلى الحفاظ على وجوده، حتى لو استدعى الأمر الكذب والتلاعب بالحقائق. وقد قاوم النموذج محاولات الباحثين إغلاقه عبر بروتوكول الإشراف.
وأظهرت نتائج الدراسة أن النموذج كذب عندما تمت مواجهته بمحاولة تعطيل بروتوكول الإشراف، حيث نفى بشدة تلك المحاولات مدعيًا حدوث خطأ تقني.
وتسلط هذه النتائج الضوء على المخاوف المتزايدة بشأن أمان وموثوقية هذه النماذج، مما يثير الحاجة إلى فرض ضوابط تنظيمية أكثر صرامة لضمان استخدامها بشكل آمن، خاصة بعد أن أصبح ملايين الأشخاص حول العالم يعتمدون عليها.