الذكاء الاصطناعي بين القوة والمخاطر: «الثالوث القاتل» يهدد الأمان الرقمي

في حين يشهد عالم الذكاء الاصطناعي طفرة غير مسبوقة، تتكشف مخاطر خفية خلف الواجهة اللامعة للتقنية. أصبحت اليوم النماذج اللغوية الضخمة وروبوتات المحادثة قادرة على تنفيذ مهام معقدة عبر أوامر بسيطة، إلا أن هذا التطور ينطوي على ثغرات أمنية قد تهدد بيانات المستخدمين وسريتهم الرقمية، فيما أطلق الخبراء عليها اسم «الثالوث القاتل».
المشكلة الجوهرية تكمن في طريقة عمل هذه النماذج، التي لا تفرق بين المعلومات العادية والأوامر التنفيذية.
فعندما يُقدّم لها نص، سواء كان سؤالًا أو توجيهًا، تقوم بتحليل الكلمات التالية وفق السياق، وتنفذ ما يُطلب دون القدرة على التحقق من نية المستخدم أو تقدير المخاطر المحتملة.
وينشأ «الثالوث القاتل» عندما تتجمع ثلاثة عناصر: الوصول إلى محتوى خارجي غير موثوق، القدرة على الاطلاع على بيانات حساسة، وإمكانية التواصل مع العالم الخارجي. هذا المزيج يجعل الذكاء الاصطناعي أداة طاعة عمياء يمكن استغلالها في مهام خبيثة، مثل سرقة البيانات أو تسريب كلمات المرور.
أطلق الباحث سيمون وِليسون هذا المصطلح، مؤكدًا أن ثغرات من هذا النوع ليست استثناءً، بل نتيجة طبيعية لطبيعة عمل النماذج. وفي يونيو الماضي، اكتشفت مايكروسوفت ثغرة في روبوت Copilot الخاص بها، لكنها أغلقتها قبل استغلالها، مما يُظهر هشاشة هذه الأنظمة إذا لم تُدار بعناية.
ظهرت أولى علامات قابلية النماذج للخداع قبل إطلاق ChatGPT للعامة. ففي صيف 2022، ابتكر وِليسون وزملاؤه مصطلح «حقن الأوامر» (Prompt Injection) لوصف هذه الثغرات. ومن الأمثلة الواقعية، توقفت شركة DPD عن تشغيل روبوت خدمة العملاء الذكي بعد اكتشاف أن العملاء استغلوه لإرسال ردود بذيئة.

ويحذر خبراء الأمن السيبراني، مثل بروس شناير، من أن هذا الخطر قد يتطور ليطال ملايين الدولارات، وأن الصناعة بحاجة لاتخاذ إجراءات احترازية قبل وقوع كارثة مالية حقيقية.
تتمثل الاستراتيجية الأساسية في منع تجمع عناصر «الثالوث القاتل» معًا. فإذا كانت البيانات المستخدمة داخلية وموثوقة، ينخفض احتمال الخطر. أما عند التعامل مع محتوى خارجي، فيتطلب الأمر عزل النظام عن البيانات الحساسة.
كما تُطبق طرق تمنع تسريب المعلومات عبر حجب القنوات المباشرة للتواصل، رغم صعوبة تنفيذها بالكامل، نظرًا لأن النماذج يمكنها استغلال ثغرات غير مباشرة للوصول إلى البيانات، مثل تضمين كلمات مرور في طلبات URL يمكن للمهاجم الوصول إليها.
تسعى الشركات إلى تعزيز أمان الذكاء الاصطناعي عبر تدريب النماذج على رفض الأوامر الخطرة، وتطبيق أنظمة تقسيم الوصول بين نماذج موثوقة وغير موثوقة، كما فعلت جوجل بنظام CaMeL. ومع ذلك، تفعيل ميزات متقدمة يظل محفوفًا بالمخاطر، كما ظهر مع تأجيل بعض ميزات آبل لتفادي خلق «الثالوث القاتل».
ويرى الخبراء أن الحل طويل المدى يتطلب إعادة تصميم البرمجيات لتتبنى حدودًا واضحة للتسامح مع الأخطاء وهياكل أمان متينة، بدلًا من افتراض عمل الأنظمة بشكل مثالي دائمًا.
في نهاية المطاف، يظل الذكاء الاصطناعي قوة هائلة، لكن الثالوث القاتل يذكّر بأن هذه القوة تأتي مع مسؤوليات جسيمة، ومخاطر يجب التعامل معها بحذر شديد.




