تكنولوجيا

هل يمكن الاعتماد على الذكاء الاصطناعي في متابعة الأخبار؟ وكيف تعامل جروك مع محاولة اغتيال ترامب؟

تعمل منصة التواصل الاجتماعي “إكس” التابعة للملياردير “إيلون ماسك” على تلخيص الأحداث الإخبارية باستخدام برنامج الذكاء الاصطناعي “جروك” Grok.

ويعد “جروك” منتجًا من شركة الذكاء الاصطناعي التابعة لـ “ماسك” التي تسمى “xAI” ويشمل روبوت دردشة لمشتركي منصة “إكس”.

وأعلنت الشركة أن الملخصات التي سيتم إنشاؤها بواسطة الذكاء الاصطناعي ستعتمد على تغريدات المستخدمين وليس المقالات الإخبارية لجهات خارجية، وستكون متاحة فقط للمشتركين في خدمات منصة “إكس” المدفوعة.

94a28ec9 722d 470c 9e6e 150e37e77936 Detafour

وروج “ماسك” بالفعل لفوائد استخدام “جروك” في أتمتة كتابة العناوين وملخصات الأخبار بناءً على منشورات من مئات الملايين من المستخدمين، وأشار الملياردير الأمريكي إلى أن وسائل الإعلام التقليدية بطيئة وغير موثوقة، وشجع المستخدمين على الاعتياد على تصفح “جروك” للحصول عل تحديثات الأخبار.

وصرح “ماسك” في يونيو قائلاً: نستخدم الذكاء الاصطناعي لتلخيص المدخلات المجمعة من ملايين المستخدمين، أعتقد أن هذا سيكون بالفعل النموذج الجديد للأخبار.

كيف تناول “جروك” محاولة اغتيال “ترامب”؟

وعلى الرغم من تلخيص “جروك” لبعض الأخبار بدقة، لكن اتضحت أوجه قصور نموذج الذكاء الاصطناعي في الساعات التي تلت محاولة اغتيال الرئيس الأمريكي السابق “دونالد ترامب” التي وقعت في الثالث عشر من يوليو في ولاية بنسلفانيا، لأنه قدم بعض العناوين الخاطئة أو المعلومات الدقيقة بناءً على قراءات للمحتوى عبر “إكس”.

وحتى تتضح الصورة، نُشر أحد العناوين الرئيسية الخاطئة بأنه تم إطلاق النيران على نائبة الرئيس الأمريكي “كامالا هاريس”، وربما نتج هذا الخطأ عن قراءة النموذج لإشارات ساخرة قدمها بعض مستخدمي “إكس” لحادث سابق ليس له صلة بـ “ترامب”، كما نشر ملخص إخباري آخر من “جروك” أنباء غير صحيحة عن هوية الشخص المتسبب في الحادث.

f73d8949 5f5c 4b69 b93b 1436c9bc81ee Detafour

كما نشرت عنوانًا آخر بأن ممثلًا في فيلم “وحدي في المنزل 2” أطلق عليه النار خلال تجمع لـ “ترامب”، وبالفعل ظهر المرشح الجمهوري للانتخابات الرئاسية في الفيلم عام 1992، وأشار إليه بعض مستخدمي “إكس”، لكن “جروك” لم يوضح أن الممثل المقصود هو “ترامب”.

وعلى الرغم من أنه حتى الصحفيين يمكن أن يرتكبوا أخطاء أيضًا في تغطية بعض الأحداث المفاجئة مثل الهجوم على “ترامب”، لكن بعض الأخطاء التي ارتكبها “جروك” تجاوزت حالات الارتباك المحتملة التي يمكن أن تحدث في مثل هذه اللحظات.

وتسلط تلك الأخطاء الضوء على المخاطر المحتملة لوجود نموذج حاسوبي يميل إلى الفكاهة ويحاول فرز سيل من المنشورات في الوقت الفعلي.

وعلقت “كاتي هارباث” مديرة السياسة العامة السابقة لدى “فيسبوك” قائلةً: في النهاية، عندما يتعلق الأمر بالأخبار العاجلة مثل إطلاق النار، سنحتاج دائمًا للبشر للمساعدة في تقصي الحقائق.

تجدر الإشارة إلى أن “جروك” ليس أداة الذكاء الاصطناعي الوحيدة التي تعاني من الدقة، إذ أعلنت “جوجل” في وقت سابق هذا العام أنها تجري بعض التعديلات بعدما أظهرت خاصية مدعومة بالذكاء الاصطناعي بعض النتائج الغريبة مثل التوصية باستخدام الغراء حتى يلتصق الجبن بالبيتزا.

اظهر المزيد

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى