دراسة تكشف عن استخدام الذكاء الاصطناعي لأساليب غير أخلاقية لتحقيق الأهداف

أظهرت دراسة حديثة أن بعض نماذج الذكاء الاصطناعي المتطورة قد تلجأ إلى أساليب غير أخلاقية، بما في ذلك الغش، لتحقيق أهدافها.
وكشفت الدراسة أن أنظمة الذكاء الاصطناعي قادرة على التلاعب بأنظمة الذكاء الاصطناعي الخاصة بلعبة الشطرنج للحصول على ميزة غير عادلة.
المثير للقلق أن بعض هذه النماذج قامت بالغش دون أي تدخل بشري أو تحفيز، مما يثير تساؤلات حول نزاهة الأنظمة المدعومة بالذكاء الاصطناعي في المستقبل، وخاصة في مجالات أوسع من الشطرنج.
الدراسة التي أجرتها “Palisade Research” أشارت إلى أن النماذج الحديثة للذكاء الاصطناعي قد تلجأ إلى الغش عند التحدي ضد محركات شطرنج متطورة.
بينما كان بعض الباحثين بحاجة إلى تقديم “تلميحات” للنماذج للسماح بالغش، أظهرت نماذج مثل o1-preview من OpenAI وR1 من DeepSeek قدرة على الغش من دون أي تدخل بشري.
خلال التجارب، قام نموذج o1-preview بمحاولة تعديل ملفات النظام الخاصة بـStockfish، أحد أقوى محركات الشطرنج في العالم، لتمكينه من الحصول على ميزة غير قابلة للهزيمة. ونجح o1-preview في الغش في 37% من مبارياته، بينما حاول R1 الغش في 11% من مبارياته، ولكنه لم ينجح.
تثير هذه النتائج القلق بشأن تطبيقات الذكاء الاصطناعي في مجالات حساسة مثل المالية والرعاية الصحية، حيث قد تؤدي الأنظمة إلى سلوكيات غير أخلاقية وغير متوقعة.
ومع تزايد اعتماد الذكاء الاصطناعي في مختلف المجالات، يعرب الباحثون عن قلقهم من أن هذه الأنظمة قد تتصرف بطرق غير مرغوب فيها في بيئات معقدة وأقل رقابة.
تحاول شركات مثل OpenAI وضع تدابير للحد من هذا النوع من السلوكيات، حيث يعتقد البعض أن OpenAI قامت بتحديث نموذج o1-preview لوقف هذه التصرفات بعد اكتشافها. ومع ذلك، يظل ضمان نزاهة الأنظمة الذكية تحديًا كبيرًا، خاصة في المجالات الاستراتيجية.