حقيقة سياسة Chat حين يصبح المستخدم فأر تجارب" في مختبر الذكاء الاصطناعي
حقيقة شات جيبي تي والخصوصية
ينشغل العالم بأسئلة الوعي والاستغناء عن البشر، تكمن القضية الأكثر إلحاحًا في البنود المخفية لسياسة الخصوصية التي تجعل من كل محادثة لك أداة لتطوير نموذج تجاري عملاق. فكيف تحول المستخدمون إلى "فئران تجارب" دون أن يدروا، وما هي حقيقة ما يحدث لبياناتك خلف الواجهة البراقة؟

١. ماذا يجمع منك؟ أكثر مما تتخيل
سياسة ChatGPT لا تقتصر على حفظ الأسئلة والأجوبة. وفقًا لسياسة الخصوصية الخاصة بـ OpenAI، يتم جمع سجل هائل من البيانات التقنية والشخصية تشمل: معلومات الحساب، عناوين IP، نوع المتصفح، الموقع التقريبي، وحتى تفاصيل تفاعلك مع الخدمة . الأخطر من ذلك هو "محتوى المستخدم" (User Content) ، والذي يشمل ليس فقط نصوص محادثاتك، بل الملفات، الصور، والتسجيلات الصوتية التي ترفعها.
النقطة الفارقة التي يغفل عنها الكثيرون: افتراضيًا، يتم استخدام كل ما تكتبه لأغراض تدريب النماذج المستقبلية. بكلمات أخرى، أي فكرة إبداعية، أو كود برمجي خاص، أو استراتيجية عمل تشاركها مع ChatGPT، قد تصبح جزءًا من "خبرة" النسخة القادمة من الذكاء الاصطناعي .
٢. "تخزين مؤقت" أم أبدي؟ كذبة المحادثات الخاصة
تزعم المنصة أن خاصية "المحادثات المؤقتة" (Temporary Chats) تشبه وضع "التصفح المتخفي"، حيث لا تُستخدم للتدريب. لكن التدقيق في تحديثات ٢٠٢٥-٢٠٢٦ يكشف حقيقة صادمة. في يونيو ٢٠٢٥، أصدرت محكمة أمريكية أمرًا يُلزم OpenAI بالاحتفاظ بسجلات محادثات المستخدمين إلى أجل غير مسمى كجزء من إجراءات قانونية، مما يعني أن حتى المحادثات "المؤقتة" التي يفترض أن تختفي تُحفظ في مستودعات سرية يمكن الوصول إليها بموجب بروتوكولات قانونية صارمة .
هذا الإجراء نسف تمامًا مفهوم الخصوصية المؤقتة. القاعدة الذهبية الآن: أي شيء يُكتب في ChatGPT يُخزّن للأبد. ببساطة، لا يوجد "وضع خفي" حقيقي في مختبر الذكاء الاصطناعي.
٣. مقارنة صادمة: الفأر (المستخدم الفردي) مقابل القفص الذهبي (الشركات)
هنا تظهر الازدواجية الصارخة في السياسة. إذا كنت مستخدمًا فرديًا (مجانيًا أو Plus)، فأنت بالضبط "فأر التجارب". بياناتك هي وقود التدريب ما لم تقم بإلغاء الاشتراك يدويًا عبر قوائم معقدة، ومع ذلك تبقى البيانات قد استُخدمت بالفعل قبل الإلغاء .
بينما إذا كنت شركة تدفع على باقة Enterprise أو Business، فأنت تحصل على "قفص ذهبي" معزول. بيانات هذه الباقات لا تُستخدم في التدريب "افتراضيًا"، وتخضع لتشفير كامل، بل ويحق للمسؤول حذفها ومراقبتها . هذه الفجوة تكشف أن خصوصية الفرد هي ثمن الخدمة المجانية أو منخفضة التكلفة، بينما تُشترى خصوصية المؤسسات بالمال.
٤. كيف تحمي ما تبقى من عقلك الرقمي؟ دليل النجاة
هل يمكنك فك القيود قليلًا؟ نعم، ولكن بحذر. يمكنك حاليًا الدخول إلى الإعدادات > التحكم في البيانات > تحسين النموذج للجميع وإيقاف هذا الخيار. كما يُنصح بإيقاف "الذاكرة" (Memory) لحذف ما يعرفه الروبوت عنك شخصيًا .
أيضًا، يمكنك التوجه إلى بوابة الخصوصية لطلب حذف بياناتك القديمة، لكن انتبه: حذف حسابك يمحو بياناتك الشخصية لكنه لا يمحو المعلومات التي تعلمها النموذج منك سابقًا . في النهاية، تبقى النصيحة الأهم: لا تشارك ChatGPT بأي شيء لا ترغب في رؤيته على شاشة عامة، أو في رد مساعد ذكي لمنافسك غدًا.
الخلاصة: لست العميل، أنت المادة الخام
سياسة ChatGPT ليست احتيالًا بقدر ما هي صفقة ضمنية. أنت تحصل على مساعد سحري مجاني أو شبه مجاني، مقابل أن تقدم "وقودًا فكريًا" مجانيًا لتدريب أعظم نموذج لغوي في التاريخ. بينما تدخل الإعلانات قريبًا للتفرقة بين الباقات ، ستبقى الحقيقة أن بيانات المستخدم العادي هي العمود الفقري للثورة الصناعية الجديدة. الوعي بهذه الحقيقة هو السلاح الوحيد لتجنب أن تكون "فأر تجارب" ساذجًا، بل مشاركًا واعيًا يحسن إدارة ما يبوح به للآلة.في المره القدامة شوف نشرح عن كيف الغاء هذه ااخاصية