تكنولوجياالأخبار

“ستارلينغ بنك” يحذر من تهديد الاحتيال باستخدام الذكاء الاصطناعي لاستنساخ الأصوات

حذر بنك “ستارلينغ” البريطاني من خطر متزايد يتمثل في استخدام الذكاء الاصطناعي لاستنساخ الأصوات، مما قد يؤدي إلى عمليات احتيال واسعة النطاق.

ووفقًا لبيان صادر عن البنك، فإن المحتالين قادرون على استخدام تقنيات الذكاء الاصطناعي لتقليد صوت شخص ما باستخدام ثلاث ثوانٍ فقط من تسجيل صوتي متاح على الإنترنت، مثل مقطع فيديو منشور.

و يمكن للمحتالين بعد ذلك استخدام هذا الصوت المستنسخ للتواصل مع أصدقاء وأفراد الأسرة عبر الهاتف وطلب المال منهم.

وأشار البنك إلى أن هذه الأنواع من الاحتيال يمكن أن تؤثر على ملايين الأشخاص. وأظهرت دراسة أجراها “ستارلينغ” بالتعاون مع “مورتار ريسيرش” الشهر الماضي أن أكثر من ربع المشاركين في الاستطلاع البالغ عددهم 3000 شخص تعرضوا لمحاولة احتيال عبر استنساخ الصوت باستخدام الذكاء الاصطناعي خلال الاثني عشر شهرًا الماضية.

كما أظهر الاستطلاع أن 46% من المشاركين لم يكونوا على دراية بهذه الأنواع من الاحتيال، وأن 8% منهم قد يرسلون مبالغ كبيرة من المال بناءً على طلب يبدو أنه من صديق أو أحد أفراد الأسرة، حتى لو بدت المكالمة غريبة.

وقالت ليزا جراهام، كبيرة مسؤولي أمن المعلومات في بنك “ستارلينغ”، إن الكثير من الناس ينشرون بانتظام محتوى يحتوي على تسجيلات لأصواتهم على الإنترنت دون إدراك أنهم بذلك يعرضون أنفسهم لخطر الاحتيال.

وأوصت جراهام بتحديد “عبارة آمنة” بسيطة وعشوائية يتم الاتفاق عليها مع العملاء، والتي يمكن استخدامها للتحقق من الهوية عبر الهاتف.

وأضافت أن من الأفضل عدم مشاركة هذه العبارة عبر الرسائل النصية، حيث قد يسهل على المحتالين الوصول إليها. وإذا تمت مشاركتها بهذه الطريقة، ينصح بحذف الرسالة فوراً بعد قراءتها.

مع تقدم الذكاء الاصطناعي في تقليد الأصوات البشرية، تزايدت المخاوف بشأن إمكانية استخدام هذه التقنية في عمليات احتيال أو للوصول إلى الحسابات المصرفية أو نشر معلومات مضللة.

و في وقت سابق من هذا العام، كشفت شركة “أوبن آي” المصنعة لروبوت الدردشة “شات جي بي تي” عن أداة نسخ صوتي جديدة لكنها لم تتيحها للجمهور بسبب المخاوف من إساءة استخدام الصوت الاصطناعي.

0
0
اظهر المزيد

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى