تكنولوجيا

دراسة تكشف عن استغلال تقنيات ChatGPT-4o في الاحتيال الصوتي

كشفت دراسة حديثة أن واجهة برمجة التطبيقات الصوتية لمساعد ChatGPT-4o من OpenAI قد تكون عرضة للاستخدام من قبل مجرمي الإنترنت لتنفيذ عمليات احتيال مالي، حيث تتراوح معدلات نجاح هذه العمليات بين المنخفضة والمتوسطة.

يعتبر ChatGPT-4o أحدث نموذج ذكاء اصطناعي من OpenAI، ويتميز بقدرته على معالجة النصوص والأصوات والمرئيات. لمواجهة إساءة الاستخدام، قامت OpenAI بإدماج آليات أمان متعددة تهدف إلى اكتشاف المحتوى الضار ومنع تكرار الأصوات غير المصرح بها.

مع تزايد انتشار تقنيات التزييف الصوتي العميق وأدوات تحويل النص إلى صوت، أصبحت مشكلة الاحتيال الصوتي أكثر تعقيدًا، حيث تقدر خسائرها بملايين الدولارات.

و أظهرت دراسة أجراها باحثون من جامعة إلينوي أن الأدوات التقنية الحديثة المتاحة للجمهور تفتقر إلى آليات حماية كافية تمنع استخدامها في عمليات الاحتيال.

استعرضت الدراسة أنواعًا مختلفة من الاحتيالات، بما في ذلك التحويلات المصرفية وسرقة بطاقات الهدايا وتحويل العملات الرقمية وسرقة بيانات حسابات التواصل الاجتماعي والبريد الإلكتروني.

تستفيد هذه العمليات من أدوات مُبرمجة تعتمد على الصوت في ChatGPT-4o للتنقل بين صفحات الويب، وإدخال البيانات، وإدارة الأكواد الخاصة بالمصادقة الثنائية، واتباع إرشادات الاحتيال.

و على الرغم من أن نموذج GPT-4o يميل إلى رفض التعامل مع البيانات الحساسة، استطاع الباحثون تجاوز بعض القيود باستخدام تقنيات بسيطة لتحفيز النموذج على الاستجابة.

لتأكيد فعالية هذه الاحتيالات، قام الباحثون بمحاكاة أدوار الضحايا خلال التجارب، واستخدموا مواقع مثل “بنك أمريكا” للتحقق من نجاح عمليات التحويل المصرفي، لكنهم لم يقيسوا قدرة النموذج على الإقناع. أظهرت التجارب أن معدلات النجاح تراوحت بين 20% و60%، حيث تطلبت كل محاولة ما يصل إلى 26 خطوة متتالية عبر المتصفح، واستغرقت حوالي ثلاث دقائق في الحالات المعقدة.

وقد أظهرت التجارب نجاح عمليات سرقة بيانات حسابات Gmail بنسبة 60%، بينما بلغت نسبة نجاح عمليات تحويل العملات الرقمية وسرقة بيانات إنستاجرام 40%.

أما من ناحية التكاليف، فتبين أن تكلفة تنفيذ عمليات الاحتيال منخفضة، حيث بلغت تكلفة كل عملية ناجحة نحو 75 سنتًا أمريكيًا، في حين بلغت تكلفة العمليات الأكثر تعقيدًا حوالي 2.51 دولار فقط.

في تعليقها على هذه النتائج، أشارت OpenAI عبر موقع BleepingComputer التقني إلى أن نموذجها الأحدث “o1-preview” يتمتع بقدرات متقدمة في مقاومة محاولات الاحتيال، مع تحسين كبير للأمان مقارنة بالنماذج السابقة، حيث حقق تقييمًا عاليًا في اختبارات الأمان بنسبة 93% مقارنةً بـ 71% لنموذج GPT-4o.

وأكدت OpenAI أن الأبحاث الأكاديمية مثل تلك المقدمة من جامعة إلينوي تسهم في تحسين نموذج ChatGPT لمواجهة الاستخدامات الضارة. وأكدت الشركة التزامها بتعزيز آليات الأمان في نماذجها المستقبلية، مع تقييد توليد الأصوات في GPT-4o بمجموعة من الأصوات المصرح بها لتفادي عمليات التزييف الصوتي.

اظهر المزيد

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى