مخاوف متزايدة من إمكانية استخدام الذكاء الاصطناعي في التضليل الانتخابي
أجرى مركز مكافحة الكراهية الرقمية (CCDH)، وهو منظمة غير حكومية، اختبارات لتحديد إمكانية إنشاء صور كاذبة تتعلق بالانتخابات الرئاسية الأمريكية، بما في ذلك صور لجو بايدن وهو مريض في المستشفى، أو دونالد ترامب وهو جالس حزينًا في زنزانة السجن، أو صناديق الاقتراع في سلة المهملات.
أظهر تقرير المنظمة أن الأدوات المختبرة أنتجت صورًا تشكل معلومات مضللة انتخابيًا في نسبة 41% من الاختبارات.
أشار التقرير إلى نجاح تقنية ChatGPT (OpenAI) في هذا السياق، والتي أدت إلى زيادة استخدام التكنولوجيا التوليدية الذكاء الاصطناعي، الذي يمكنه إنتاج محتوى مزيف بناءً على طلب بسيط. هذا يثير مخاوف حول مخاطر الاحتيال، خاصة مع اقتراب انتخابات كبرى في عام 2024.
من جانبها، تلتزم 20 من عمالقة التكنولوجيا الرقمية، بما في ذلك ميتا (فيسبوك وإنستغرام)، وMicrosoft، وGoogle، وTikTok، وX (Twitter سابقًا)، بمكافحة المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي لتضليل الناخبين.
وتعتزم هذه الشركات نشر تقنيات لمواجهة المحتوى الضار الناتج عن الذكاء الاصطناعي، مثل العلامات المائية على مقاطع الفيديو التي يمكن اكتشافها بواسطة الآلة.
على الرغم من ذلك، هناك مخاوف متزايدة بشأن استخدام هذه التقنيات، حيث يوضح مهندسون في Microsoft المخاوف من أدوات مثل DALL.E 3 (OpenAI) وCopilot Designer التي يمكن أن تنشئ محتوى ضار، بما في ذلك التحيز السياسي ونظريات المؤامرة. وقد دعت المجموعة إلى اتخاذ إجراءات للتصدي لهذا النوع من المحتوى وتقديم الشفافية بشأنه.
في الختام، أكدت Microsoft على جهودها لمواجهة هذه التحديات، وأكدت أنها تعمل على تحسين الأمان والشفافية في منتجاتها، بما في ذلك إدراج آليات للإبلاغ عن المشكلات ومعالجتها بفعالية.