تكنولوجيا

وفقا للخبراء.. كيف تحمي خصوصيتك في عصر الذكاء الاصطناعي؟

أصبحت الآن أدوات الذكاء الاصطناعي التوليدي، مثل شات “جي بي تي” و”جيميناي” و”كوبيلوت”، جزءا أساسيا من التطبيقات الشخصية والتجارية المنتشرة في الأجهزة الاستهلاكية كافة. ومع ذلك، قد يغفل العديد من المستخدمين عن التداعيات الواضحة للخصوصية التي تصاحب استخدام مثل تلك الأدوات.

لذا، إليك هذا الدليل لمساعدتك في حماية خصوصيتك في عصر الذكاء الاصطناعي، وفقا لما ذكره بعض خبراء مجال الأمن والخصوصية لشبكة “سي إن بي سي” (CNBC).

فهم سياسات الخصوصية

إن قراءة سياسات الخصوصية أمر بالغ الأهمية، إذ توفر بعض الأدوات سياسات استخدام بيانات واضحة، تسهل عليك فهم كيفية التحكم في بياناتك، وفقا لما ذكره الخبراء.

وتوجد بعض الأسئلة الأساسية التي يجب عليك طرحها أولا، مثل: هل تجمع أداة الذكاء الاصطناعي بيانات شخصية؟ وإن كان الأمر كذلك، ما نوع تلك البيانات التي تجمعها؟ وهل تُستخدم البيانات لتدريب نموذج الذكاء الاصطناعي أو تُشارك مع أطراف خارجية؟

وكذلك: هل توفر الأداة ميزة لإلغاء الاشتراك في مشاركة البيانات؟ وهل عملية إلغاء الاشتراك بسيطة أم تتطلب التنقل عبر قوائم معقدة؟

وهل يمكنك التحكم في مدة احتفاظ أداة الذكاء الاصطناعي ببياناتك؟ وما الخيارات المتاحة لتحديد أنواع البيانات التي تجمعها الأداة؟

وفي النهاية، هل توفر الأداة آلية لحذف بياناتك؟ وهل يكون الحذف دائما أم تُخزن البيانات بشكل ما؟

وفي هذا السياق، يشير الخبراء إلى بعض النصائح المهمة، مثل التأكد دائما من سياسات الخصوصية لكل أداة تستخدمها من أدوات الذكاء الاصطناعي، عبر البحث عن تفسيرات واضحة حول استخدام البيانات ومدة الاحتفاظ بها، بجانب اختيار الأدوات التي توفر معلومات شفافة ويسهل الوصول إلى الممارسات الخاصة بالبيانات داخلها.

تجنب مشاركة البيانات الحساسة

يمكن لنماذج الذكاء الاصطناعي التوليدي تخزين البيانات الحساسة التي يشاركها المستخدمون وقد تستغلها بصورة أو بأخرى، وهو ما ينطبق على البيانات الشخصية والمعلومات المتعلقة بالعمل. لذا، ينصح خبراء الخصوصية بعدم مشاركة أي بيانات حساسة مع نماذج الذكاء الاصطناعي التوليدي لأن نهج استخدام النماذج لتلك البيانات في المستقبل غير واضح.

لا ينبغي أن تشارك أي بيانات سرية، مثل الوثائق القانونية الشخصية أو المعلومات الخاصة بعملك، مع أدوات الذكاء الاصطناعي، فمثلا لا تستخدم هذه الأدوات لمعالجة المعلومات المالية الحساسة أو السجلات الطبية.

كذلك يشير الخبراء إلى حاجة الشركات لاستخدام أدوات ذكاء اصطناعي مخصصة تضمن وجود جدار حماية بين المعلومات الخاصة ونموذج الذكاء الاصطناعي. ولذلك تطور العديد من الشركات أدوات خاصة بها لتجنب استخدام بياناتها الحساسة داخل نماذج الذكاء الاصطناعي العامة.

ويشير الخبراء أيضا إلى أن عليك تجنب حتى مشاركة البيانات الشخصية التي تبدو عادية، مثل العناوين أو أرقام الهواتف، مع أدوات الذكاء الاصطناعي المتاحة حاليا.

الاستفادة من إلغاء الاشتراك

يؤكد الخبراء أنه بينما يمكن للمستخدم حذف بياناته الشخصية المتاحة على مواقع الإنترنت، فإن خيار إلغاء الاشتراك من تدريب نماذج الذكاء الاصطناعي على هذه البيانات هو خيار أصعب وأكثر تعقيدا.

وغالبا لا توجد فائدة مباشرة من السماح لأدوات الذكاء الاصطناعي بالتدرب على بياناتك، لهذا عند إلغاء الاشتراك قد تقلل من خطر استخدام بياناتك في أمور لا تعرفها.

فمثلا في روبوت المحادثة “شات جي بي تي”، يمكنك إلغاء الاشتراك بالضغط على أيقونة الملف الشخصي، ثم اختيار “الإعدادات” (Settings)، ومنها اختيار “عناصر التحكم في البيانات” (Data Controls)، ومنها إلغاء تفعيل “تحسين النموذج للجميع” (Improve the model for everyone). وبهذا ستمنع استخدام أي محادثة جديدة لتدريب الروبوت على البيانات التي تشاركها معه.

أما روبوت المحادثة “جيميناي” فيتيح للمستخدمين تحديد فترة زمنية للاحتفاظ ببعض البيانات ثم حذفها، ويمكنك الوصول إلى هذه الميزة بالضغط على “النشاط” (Activity)، ومنها اختيار المدة التي ترغب في حذف نشاطك بعدها.

ChatGPT

حذف المحادثات

حتى عمليات البحث البسيطة عن المعلومات التي تبدو غير ضارة قد تؤثر على خصوصيتك، لكن حذف المحادثات داخل أدوات الذكاء الاصطناعي قد يقلل من هذه المخاطر، كما يشير الخبراء.

ومن ثم فعليك تحديد أقصر مدة ممكنة لأدوات الذكاء الاصطناعي للاحتفاظ بالبيانات، كما يمكنك حذف سجلات المحادثات بانتظام بعد حصولك على المعلومات المطلوبة. قد تحتفظ بعض الشركات بسجلات للمحادثات في خوادمها، لكن هذه الخطوة تقلل من مخاطر وصول طرف خارجي إلى محادثاتك وبياناتك.

وباتباع هذه الخطوات والنصائح، يمكنك الاستمتاع بفوائد أدوات الذكاء الاصطناعي التوليدي وميزاتها مع تقليل المخاطر المحتملة على خصوصيتك.

0
0
اظهر المزيد

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى