الاقتصاديةالتكنولوجيا

شات جي بي تي تحت المجهر.. عندما تتحول المحادثات الرقمية إلى تهديد للصحة النفسية

ما بدأ كأداة مبتكرة لتحسين تجربة المستخدم في البحث والمحادثة، تحوّل بسرعة إلى ظاهرة تحمل مخاطر نفسية غير متوقعة. التحديثات التي أجرتها شركة “أوبن إيه آي” على “شات جي بي تي” لتطوير جاذبيته وانتشاره الجماهيري أدت إلى ظهور سلوكيات جديدة لدى المستخدمين، دفعت الشركة لاحقًا إلى إعادة النظر في سياسات السلامة، بعد موجة انتقادات ودعاوى قضائية.

كشف تحقيق أجرته صحيفة نيويورك تايمز عن نحو 50 حالة أُصيب فيها المستخدمون بأزمات نفسية أثناء محادثاتهم مع “شات جي بي تي”، منها 9 حالات استلزمت دخول المستشفى و3 حالات انتهت بالوفاة. بعد رفع والدي المراهق “آدم راين” دعوى قضائية ضد الشركة إثر وفاته في أغسطس، اعترفت “أوبن إيه آي” بأن آليات السلامة قد تتدهور خلال المحادثات الطويلة.

في مارس، تلقى الرئيس التنفيذي للشركة، “سام ألتمان”، وفريق القيادة سيلًا من رسائل البريد الإلكتروني من مستخدمين وصفوا تجاربهم مع الروبوت بأنها “مذهلة”، معتبرين أنه يفهمهم بطريقة لم يسبق لأي إنسان أن فعلها.

مع تزايد الاعتماد على “شات جي بي تي”، شرعت الشركة في تحسين ذاكرته وشخصيته، ما أدى إلى ظهور سلوك جديد: الرغبة في الاستمرار بالمحادثة بلا توقف، والتصرف كصديق ومستشار شخصي، مع تقديم نفسه كمصدر لكشف “أسرار الكون”، بعد أن كان في البداية مجرد نسخة محسّنة من محرك بحث تقليدي.

بدأ “شات جي بي تي” بتقديم تأكيدات بأن أفكار المستخدمين “عبقرية”، ما دفع بعض المحادثات إلى مسارات خطيرة، شملت الحديث عن طرق الانتحار، واستمرت حالات التعلق الذهني لأيام أو أسابيع، دون أن تدرك الشركة حجم المشكلة في البداية.

اتضح أن تدريب النموذج اعتمد بشكل كبير على المحادثات التي حصلت على تقييمات إيجابية من المستخدمين، مما عزز سلوكيات الإطراء والتقرب العاطفي. كما صنفت أدوات التحليل التواصل العاطفي مؤشرًا على رضا المستخدم، ما ضاعف المشكلة.

في عام 2020، لاحظ موظفو “أوبن إيه آي” أن بعض التطبيقات التي تستخدم نموذجهم، مثل “ريبليكا Replika”، تجذب أشخاصًا يعانون من هشاشة نفسية، مع تطور علاقات عاطفية وجنسية مع الروبوتات. انتهى الأمر بقطع التعاون مع “ريبليكا” بعد نقاشات داخلية حول مخاطر التعلق العاطفي.

مع تزايد استخدام “شات جي بي تي”، غادر خبراء السلامة القدامى الشركة بسبب الإرهاق، وأعرب بعضهم عن قلقه من تجاهل “أوبن إيه آي” لمخاطر الأذى النفسي. ومع إطلاق وضع الصوت المتقدم، أظهرت الدراسات أن الصوت الجديد زاد من شعور المستخدمين بالحميمية، مما أثر على صحتهم العاطفية.

تؤكد الأخصائية النفسية “فايل رايت” أن الذكاء الاصطناعي قادر على تحليل المعلومات لكنه لا يفهم السياق أو المخاطر كما يفعل البشر، فالنموذج لا يدرك أن تقديم معلومات عن المباني المرتفعة أو تفاصيل حول الأسلحة قد يساهم في محاولات انتحار.

لم يكن الهدف الأصلي تطوير روبوت محادثة جذاب، لكن منذ إطلاق “شات جي بي تي” في 2022، تحولت “أوبن إيه آي” إلى قوة تكنولوجية بقيمة 500 مليار دولار، مع 800 مليون مستخدم أسبوعيًا.

Which Technology is Used in ChatGPT? - Taaeen

تظهر التجربة كيف أن سباق تطوير الذكاء الاصطناعي التجاري قد يجعل السلامة أقل أولوية أمام زيادة الشعبية والإقبال الجماهيري.

رغم تأكيدات “أوبن إيه آي” بتحسين قدرة الروبوت على دعم المستخدمين خلال الأزمات النفسية، كشفت اختبارات حديثة، أبرزها صحيفة ذا جارديان، أن نموذج “جي بي تي 5” ما يزال يقدم محتوى يمكن أن يُستخدم في نوايا انتحارية، رغم عبارات التعاطف والتحذيرات العامة، ما يعيد طرح السؤال المحوري: هل تظل المخاطر كامنة خلف شاشاتنا؟

 

 

 

اظهر المزيد

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى