خصوصية الذكاء الاصطناعي وتعرض البيانات الشخصية للتتبع
ذكاء اصطناعي

خصوصية الذكاء الاصطناعي 2026: ChatGPT وClaude وGemini بعد طلب أنثروبيك للهوية

13 دقائق قراءة

Photo: cottonbro studio

النقاط المغطاة في المقال

لو كنت انتقلت إلى Claude هربًا من تتبع Google وسياسات OpenAI، فعندك خبر ثقيل: أنثروبيك بدأت يوم 16 أبريل 2026 تطلب من بعض المستخدمين جواز سفرهم أو هويتهم الوطنية قبل الاستمرار. ومع أن الشركة تقول إنها تستهدف فقط الحسابات المشبوهة، السؤال الحقيقي أكبر: ما مستوى خصوصية الذكاء الاصطناعي فعلًا في 2026، ومن بين ChatGPT وClaude وGemini أقلهم ضررًا لخصوصيتك؟

هذا المقال يضع الثلاثة على طاولة واحدة بالأرقام الحقيقية: ماذا يحفظون، ولأي مدة، ومتى يسمحون لموظف بشري بقراءة محادثاتك، وكيف توقف كل هذا في أقل من خمس دقائق. لن نقول "كلهم سيئون" ولا "كلهم آمنون"؛ سترى فروقًا جوهرية تحدد مع أي منصة تترك بياناتك الحساسة. لو مشيت على المقال إلى النهاية، ستعرف بالضبط أي زر تضغط في كل منصة ليقل تعرضك للتتبع بنسبة تتجاوز 80%، ومتى تكون خطة Business هي الحل الوحيد لحفظ خصوصية الذكاء الاصطناعي فعلًا.

أنثروبيك تطلب هويتك: ماذا حصل فعلًا في 16 أبريل؟

جهاز التحقق البيومتري يرمز لطلب أنثروبيك التحقق من الهوية في Claude

يوم 16 أبريل 2026، أعلنت أنثروبيك عن ميزة التحقق من الهوية داخل Claude، بالشراكة مع منصة Persona (نفس البنية التحتية التي تستخدمها البنوك الرقمية في إجراءات KYC). الميزة ليست إلزامية للجميع: الشركة تقول إنها "تنطبق على عدد محدود من الحالات التي نرصد فيها نشاطًا يشير إلى سلوك احتيالي أو مسيء".

ردّة الفعل في مجتمع المستخدمين كانت حادة، ووصف بعضهم القرار بأن "أنثروبيك قدّمت هدية مجانية لـ ChatGPT وGemini". منتديات Reddit وHacker News امتلأت في أقل من 48 ساعة بمنشورات تشرح كيفية إنشاء حساب جديد بسلوك "عادي" تجنّبًا لظهور الطلب.

ما يُقبل هو هوية حكومية أصلية ومادية فقط: جواز سفر، رخصة قيادة، أو بطاقة هوية وطنية. الشركة ترفض صراحةً الصور الممسوحة ضوئيًا، لقطات الشاشة، الهويات الرقمية على التطبيقات، والبطاقات الطلابية أو المؤقتة. في بعض الحالات تطلب سيلفي حي عبر الكاميرا. العملية تستغرق أقل من خمس دقائق حسب أنثروبيك.

وثائقك لا تصل إلى خوادم أنثروبيك؛ تحتفظ بها Persona، ووُعد المستخدمون أن هذه المعلومات لن تُستخدم لتدريب النماذج ولن تُشارك مع طرف ثالث لأغراض تسويقية. Persona نفسها شركة KYC أمريكية معتمدة، تخدم عملاء مثل Square وDoorDash وRobinhood وBrex، ولها برنامج امتثال SOC 2 Type II.

لو أردت السياق الكامل عن أحدث نماذج الشركة، راجع مراجعة Claude Opus 4.7 بالأرقام. الخلاصة هنا: Claude لم يصر مراقبة جماعية، لكنه ابتعد خطوة عن شعار "الخصوصية أولًا" الذي استخدمه ضد المنافسين. السؤال الذي تتركه أنثروبيك للمستخدم: هل ثقتك بـ Persona أعلى من ثقتك بخطر استخدام الخدمة بلا تحقق؟

من يدرّب نموذجه على محادثاتك؟ الإجابة الصادمة

مهندس أمن سيبراني يفحص كود على شاشات رمزًا لسياسات تدريب نماذج الذكاء الاصطناعي

هنا تظهر الفروق الخطرة بين المنصات الثلاث. ChatGPT يُفعّل خيار التدريب على محادثاتك افتراضيًا في الحسابات الشخصية المجانية وPlus. يعني: لو سجّلت دخول ولم تفتح الإعدادات، فكل ما تكتبه قابل للاستخدام في تدريب GPT-5 والنماذج القادمة.

لإيقاف التدريب في ChatGPT: Settings ← Data Controls ← Improve the model for everyone ← Off. الخيار موجود لكنه مدفون داخل قوائم فرعية، وهذا بحد ذاته قرار تصميم واضح من OpenAI. على هاتف iPhone وAndroid التطبيق يُظهر الخيار نفسه داخل Settings، لكن بعض المستخدمين أبلغوا أن التعديل لا يُزامَن فورًا مع الويب ويحتاج تسجيل خروج ثم دخول مجددًا ليُفعَّل.

Claude غيّر سياسته في أغسطس 2025 وأصبح أيضًا يطلب من المستخدم قرار "أوافق أو لا أوافق" حول استخدام محادثاته للتدريب. الموعد النهائي للاختيار كان 8 أكتوبر 2025، ومن لم يختر اعتُبر رافضًا افتراضيًا.

من وافق تُحفظ بياناته حتى 5 سنوات كاملة، ومن رفض يبقى الحد الأقصى 30 يومًا. هذه فترة طويلة للغاية مقارنة بما يتوقعه المستخدم العادي من "مساعد ذكي". الطريق لتعديل القرار: Claude.ai ← Settings ← Privacy ← Help improve Claude.

Gemini يعمل بمنطق مختلف: البيانات تُدار من خلال إعدادات Gemini Apps Activity، وأي محادثة راجعها موظف بشري تبقى محفوظة حتى ثلاث سنوات كاملة حتى لو حذفتها أنت من التطبيق.

في 14 أبريل 2026، أطلقت Google ميزة "Personal Intelligence" عالميًا (ما عدا المنطقة الاقتصادية الأوروبية وبريطانيا وسويسرا)، وهي تربط Gemini بـ Gmail وDrive وCalendar وMaps. الميزة اختيارية (opt-in) لكل تطبيق على حدة، وGoogle تقول إنها لا تدرّب على بيانات Gmail أو Photos مباشرة. رغم ذلك، ربط حسابك بهذه الخدمات يفتح فرصة لوصول بشري للمحتوى ضمن دورة المراجعة. لمزيد من الصورة الكاملة عن النظام البيئي لـ Google AI، راجع دليل Gemini 3.

الحسابات التجارية قصة مختلفة: تُوفّر ChatGPT Team وEnterprise، وClaude for Work وClaude Enterprise، وGemini for Workspace خصوصية أعلى، كلها لا تستخدم المحادثات للتدريب افتراضيًا. هذا الفرق الجوهري بين استخدامك الشخصي واستخدام شركتك، ويفسّر لماذا ترى شركات مثل Samsung وApple وBoeing تمنع موظفيها من استخدام النسخ المجانية بينما تشتري اشتراكات Enterprise للفرق الحساسة.

خصوصية الذكاء الاصطناعي بالأرقام: جدول المقارنة الحقيقي

قفل نحاسي يرمز لحماية خصوصية الذكاء الاصطناعي ومدة الاحتفاظ بالبيانات

الجدول التالي يلخّص ما يحصل لمحادثاتك فعليًا بعد إرسالها. الأرقام مأخوذة من سياسات الخصوصية الرسمية للشركات الثلاث حتى أبريل 2026.

جدول مقارنة خصوصية الذكاء الاصطناعي الرسمي

العنصرChatGPTClaudeGemini
تدريب افتراضينعمحسب اختياركنعم (قابل للإيقاف)
مدة الاحتفاظ30 يومًا بعد الحذف30 يومًا أو 5 سنوات18 شهرًا
بعد الحذف30 يومًا مراقبةلا تدريب3 سنوات بالمراجعة
التحقق من الهويةلاحالات محددةحساب Google
مفتاح الإيقافData ControlsPrivacyApps Activity
الوضع المؤقتTemporaryIncognito72 ساعة

قراءة سريعة للأرقام

ChatGPT أخطر افتراضيًا. التدريب مُفعّل عليك ابتداءً. لو لم تفتح الإعدادات، بياناتك في طابور التدريب.

Gemini أسوأ في مدة الاحتفاظ. 18 شهرًا هي القيمة الافتراضية. والأكثر إزعاجًا أن المحادثات التي راجعها موظف بشري تبقى ثلاث سنوات كاملة.

Claude يقع في المنتصف: أقصر احتفاظ عند رفض التدريب. لكن طلب الهوية الجديد يضع سؤالًا شرعيًا عن الخصوصية المادية.

لماذا تختلف أرقام الاحتفاظ عن وعود الإعلانات؟

الشركات الثلاث تسوّق لنفسها بعبارات مثل "محادثاتك خاصة" و"لا نبيع بياناتك". هذه العبارات صحيحة تقنيًا لكنها مضللة عمليًا. لا أحد من الثلاثة يبيع البيانات لأطراف ثالثة، صحيح.

لكن كلهم يحتفظون بها لأشهر أو سنوات لأغراض المراجعة الأمنية، والتصحيح التقني، والتدريب المستقبلي. الفرق بين "بيع" و"استخدام داخلي طويل المدى" في الحياة العملية ضيّق جدًا، خصوصًا عندما يصل موظف بشري إلى محادثاتك لتحسين النموذج.

القاعدة الأهم للتعامل مع هذه المنصات وحماية خصوصية الذكاء الاصطناعي لبياناتك: افترض أن كل سطر تكتبه يُقرأ لاحقًا من شخص لا تعرفه، واتخذ قراراتك بناءً على ذلك. هذا الافتراض ليس مبالغة؛ هو ما تنص عليه سياسات الخصوصية الرسمية لو قرأتها بحروفها الكاملة.

القضية المرفوعة ضد OpenAI من The New York Times أجبرت الشركة في مايو 2025 على حفظ كل المحادثات بأمر قضائي، حتى التي طلب المستخدمون حذفها، لحين انتهاء النزاع. مكاتب المحاماة الكبرى في الولايات المتحدة بدأت تنبه موظفيها بأن أي نقاش حساس مع chatbot يمكن أن يُستدعى كدليل في قضايا الاكتشاف القانوني (e-discovery).

حين يتحول الحذف إلى وهم

هذه قصة مهمة للمستخدم العربي: ما تحذفه من واجهة التطبيق لا يعني أنه محذوف من خوادم الشركة. OpenAI في محكمة فيدرالية نيويوركية أقرّت أنها احتفظت بنسخ خلفية من محادثات طلب المستخدمون حذفها، لأن أمر التقاضي ألزمها بذلك.

Google أيضًا تملك سلطة الاحتفاظ بالبيانات بموجب أمر قانوني، وسياسة Gemini Apps Activity تنص صراحة أن "الحذف من التطبيق لا يشمل النسخ المحفوظة لأسباب قانونية أو أمنية". Anthropic تطبّق القاعدة نفسها تحت ما يسمى Legal Hold.

كيف تحمي محادثاتك في أقل من خمس دقائق

لابتوب يعرض شاشة مزود بروكسي ضمن إعدادات حماية الخصوصية في الذكاء الاصطناعي

قبل أي شيء، القاعدة الذهبية: لا تكتب في أي روبوت دردشة ما لا ترغب بقراءته في قاعة محكمة. القاضي الفيدرالي Jed Rakoff في قضية United States v. Heppner بنيويورك فبراير 2026 حكم صراحة بأن محادثات Claude الاستهلاكية التي ينشئها الموكل بنفسه دون توجيه محاميه لا يحميها امتياز السرية بين المحامي والعميل. طبّق القاعدة نفسها على الأسرار الطبية، المعلومات البنكية، وأي وثيقة مهنية حساسة.

خطوات ChatGPT

افتح Settings من الزاوية السفلية اليسرى، ادخل قسم Data Controls، ثم أوقف مفتاح Improve the model for everyone. للمحادثات الحساسة، استخدم Temporary chat من زر النقاط الثلاث فوق صندوق الكتابة، وهو يمسح المحادثة تلقائيًا ولا يُحفظ في السجل. لمراجعة شاملة لخطط ChatGPT وما يتضمنه كل منها، راجع دليل أسعار ChatGPT 2026.

خطوات Claude

من Claude.ai ادخل Settings، ثم Privacy، ثم عطّل خيار Help improve Claude. للمحادثات الحساسة فعّل Incognito chats، وهو يستثنى تلقائيًا من التدريب حتى لو كان الخيار العام مفعّلًا. إذا ظهر طلب التحقق من الهوية ولست مرتاحًا لتسليم جواز سفرك، افتح حسابًا جديدًا بسلوك استخدام عادي، أو انتقل إلى خطة Claude for Work التي لا تمر بهذه العملية أصلًا.

خطوات Gemini

ادخل myactivity.google.com واختر Gemini Apps Activity. غيّر فترة الحذف التلقائي من 18 شهرًا إلى 3 أشهر (أقصر خيار ممكن). لو أردت إيقافًا كاملًا، اضغط Turn off وستحتفظ Google ببياناتك 72 ساعة فقط لأغراض تشغيلية قبل الحذف.

وبما أن ميزة "Personal Intelligence" تربط Gemini اختياريًا بـ Gmail وDrive، راجع أيضًا قسم Apps connections واقطع الاتصال بأي خدمة لا تريد لـ Gemini أن يقرأها. لمقارنة أشمل بين الخدمات الثلاث وكيف تستخدم كل منها في مكانه، راجع دليل التخصص بين ChatGPT وClaude وGemini. ولو تهمك خصوصية تطبيقات المحادثة عمومًا، مقالنا عن خصوصية واتساب بعد اتهامات ماسك ودوروف يشرح الصورة الأكبر.

خصوصية الذكاء الاصطناعي في الخليج ومصر: ما يخص المستخدم العربي

السياسة الفنية للشركات الثلاث موحّدة عالميًا، لكن الإطار القانوني يختلف من بلد لآخر. في السعودية، قانون حماية البيانات الشخصية PDPL صدر في سبتمبر 2023 وأصبح نافذًا بالكامل في سبتمبر 2024، وألزم الشركات الأجنبية التي تخدم مستخدمين سعوديين بالإفصاح عن معالجة بياناتهم. حتى أبريل 2026، لم تُعلن OpenAI أو Anthropic أو Google عن امتثال كامل لـ PDPL.

في الإمارات، قانون حماية البيانات الاتحادي UAE PDPL رقم 45 لسنة 2021 يضع قواعد مشابهة، مع استثناءات لدبي وأبوظبي اللتين تعملان بقوانين منطقة حرة مستقلة (DIFC وADGM). أي شركة تستخدم ChatGPT Enterprise وتتعامل مع بيانات سكان الإمارات تحتاج غالبًا إلى مراجعة قانونية قبل مشاركة معلومات شخصية.

في مصر، قانون حماية البيانات رقم 151 لسنة 2020 أصبح ساري المفعول، وصدرت لائحته التنفيذية بقرار وزير الاتصالات رقم 81 لسنة 2025 في نوفمبر 2025. لم يظهر بعد تطبيق فعلي يطال الشركات الثلاث، والمستخدم المصري عمليًا معتمد على سياسات عامة دون تكييف محلي.

نقطة أخرى: اشتراكات ChatGPT Plus وClaude Pro وGemini Advanced تتطلب بطاقات دفع دولية، وكثير من المستخدمين يستخدمون VPN لتفادي قيود الإقليم على بعض الميزات. VPN لا يغيّر سياسة الاحتفاظ في حسابك؛ ما يغيّره فقط هو العنوان الظاهر للخدمة.

لو كنت ترغب بتقليل البصمة الرقمية عمومًا، مقالنا أفضل VPN للخليج 2026 يشرح الخيارات التي تدعم No-Logs فعليًا. واستخدام بريد إلكتروني منفصل مخصص للاشتراكات الذكية (غير بريدك الأساسي) يقطع الربط التلقائي بين محادثاتك وبقية حياتك الرقمية.

حوادث حقيقية كشفت هشاشة خصوصية الذكاء الاصطناعي

النظرية شيء والواقع شيء آخر. في مارس 2023، تسرّبت محادثات ChatGPT بسبب خطأ في مكتبة Redis وأصبح بإمكان مستخدمين عشوائيين رؤية عناوين محادثات غيرهم. الحادثة دفعت OpenAI لإغلاق الخدمة لساعات وإخطار المستخدمين في أوروبا امتثالًا لـ GDPR. الدرس: حتى الشركات الكبرى تملك نقاط فشل بسيطة تكشف بياناتك.

في مايو 2023، شركة Samsung منعت موظفيها من استخدام ChatGPT بعد أن سرّب أحدهم كود مصدري سري لأشباه الموصلات بمحاولته تصحيح خطأ برمجي. Apple وBoeing وGoldman Sachs وVerizon اتخذت القرار نفسه. أصبحت هذه القرارات مرجعية للشركات الخليجية التي تضع اليوم سياسات مشابهة لموظفيها.

قضية NYT vs OpenAI وأثرها على حذف البيانات

في ديسمبر 2023، رفعت صحيفة The New York Times دعوى قضائية ضد شركة OpenAI بتهمة التدريب على محتواها المحمي. في 13 مايو 2025، أصدرت القاضية Ona Wang أمرًا يلزم OpenAI بالاحتفاظ بكل سجلات المحادثات، حتى المحذوفة وحتى المؤقتة. استمر الأمر ساريًا أشهرًا، مما يعني أن ملايين المحادثات التي اعتقد أصحابها أنها محذوفة ظلت محفوظة على خوادم OpenAI.

في ديسمبر 2024، فرضت هيئة حماية البيانات الإيطالية Garante غرامة بقيمة 15 مليون يورو على OpenAI بسبب معالجة بيانات المستخدمين دون أساس قانوني كافٍ تحت GDPR، مع إلزامها بحملة توعية عامة عبر الإعلام الإيطالي لستة أشهر. القرار أصبح مرجعًا لكل هيئات الخصوصية الأوروبية.

أما القصة الأكثر إزعاجًا، ففي 2024 اكتشف باحثو الأمن أن نماذج مثل GPT-3.5 يمكن خداعها لإعادة كتابة محتوى تدريبها الأصلي بتقنية "الهجمات الاستخراجية". ببساطة: جزء من رسائلك قد يُنتَج نصًا لمستخدم آخر في المستقبل. Google وAnthropic تعترفان بهذا الخطر في وثائق البحث الداخلية، وكلاهما يستخدم تقنيات Differential Privacy للحد منه، لكن الضمان ليس مطلقًا.

الخلاصة: اعتبر كل ما تكتبه في روبوت دردشة رسالة عامة مؤجلة النشر. قد لا تنشر أبدًا، وقد تنشر غدًا بسبب خطأ تقني أو أمر قضائي أو هجوم خصومي. هذا التصور يساعدك في تقييم كل سؤال قبل إرساله.

أفضل خصوصية الذكاء الاصطناعي للمستخدم العربي: توصيتنا الصريحة

لا توجد إجابة واحدة حول أفضل خصوصية الذكاء الاصطناعي، والنصيحة تختلف حسب نوع المحتوى. للمحادثات العامة غير الحساسة، Claude مع تفعيل رفض التدريب وIncognito chats يبقى الأقل ضررًا: 30 يومًا فقط للاحتفاظ، ولا تدريب، ولا ربط تلقائي بحساب بريدك أو تقويمك.

للعمل والاستشارات المهنية، خطط Business/Enterprise في أي من الثلاثة تحل المشكلة: لا تدريب افتراضيًا، وسياسات احتفاظ أوضح. ChatGPT Business (المعروف سابقًا باسم Team) بـ 25 دولارًا شهريًا لكل مستخدم مع الاشتراك السنوي هو الأرخص في هذه الفئة. Claude Enterprise تحول في 2026 إلى نموذج هجين بـ 20 دولارًا لكل مقعد شهريًا إضافة إلى رسوم استخدام. Google Workspace Business Standard يوفر Gemini للشركات ابتداءً من 14 دولارًا لكل مستخدم شهريًا بالاشتراك السنوي.

للمستخدم الذي يستخدم نظام Google يوميًا (Gmail، Drive، Calendar، Docs)، Gemini منطقي وعملي لكنه الأكثر جرأة في الاحتفاظ بالبيانات. لو قبلت هذا المقابل، على الأقل قلّص Gemini Apps Activity إلى 3 أشهر وراجع Apps connections شهريًا.

للبحث التقني والكود، Claude لا يزال الأدق حسب اختبارات SWE-bench Verified الأخيرة، وخصوصيته أفضل من المنافس الأمريكي. للمهام الإبداعية مثل كتابة المحتوى بالعربية، يتفوق ChatGPT قليلًا في فهم اللهجات المحلية، لكن Claude Opus 4.7 يقترب منه في الفصحى.

إذا وصلك طلب التحقق من الهوية من أنثروبيك ولست مرتاحًا لتسليم بياناتك لشركة KYC أمريكية: هذا قرارك. لكن اعلم أن Persona تعالج البيانات في أنظمة معزولة، والبديل (ChatGPT بإعدادات افتراضية) يدرّب على محادثاتك بدون حتى أن يسألك.

التوصية السريعة في ثلاث جمل

الأفضل للخصوصية عمومًا: Claude مع إيقاف التدريب ووضع Incognito. الأسوأ افتراضيًا: ChatGPT المجاني بدون أي تعديل، لأن التدريب مفعّل عليك وأنت لا تدري. الأكثر تعقيدًا: Gemini، بسبب ربطه التلقائي بحسابك في Google ومدة احتفاظه الطويلة. لو عندك دقيقتان فقط، افتح كل منصة وغيّر الإعدادات الثلاثة المذكورة أعلاه وستكون غطيت 80% من المخاطر.

متى تفكر في نموذج محلي مفتوح المصدر؟

لو طبيعة عملك حساسة فعلًا (ملفات عملاء، أسرار طبية، عقود قانونية)، الحل الأنظف هو تشغيل نموذج مفتوح المصدر على جهازك. نماذج مثل Llama 3 وQwen 2.5 وMistral تعمل محليًا دون إرسال أي بيانات إلى خوادم خارجية.

الأداء أقل من Claude Opus 4.7 أو GPT-5.4، لكنه يكفي لأغلب مهام الصياغة والتلخيص والبرمجة الأساسية. أدوات مثل Ollama وLM Studio تبسّط التثبيت إلى أقل من 10 دقائق على Mac أو Windows.

لا تحتاج جهازًا ضخمًا؛ معالج M2 أو بطاقة RTX 4060 مع 16 غيغابايت ذاكرة يكفي لتشغيل نماذج 7B بسرعة معقولة. لتشغيل نماذج 13B تحتاج 24 غيغابايت تقريبًا، وهو ما توفره بطاقات RTX 4090 أو M3 Max.

هذا أفضل تنازل بين الجودة وخصوصية البيانات لمن يتعامل مع محتوى لا يتحمل التسريب. الجميل أنك تستطيع المزج: استخدم ChatGPT للأسئلة العامة، واحتفظ بالنموذج المحلي لمعالجة المستندات الحساسة.

من يجب ألا يستخدم هذه الروبوتات نهائيًا؟

بعض الفئات خطر استخدامهم للروبوتات التجارية أكبر من فائدتها. الأطباء الذين يلخّصون ملفات مرضى حقيقية معرضون لخرق HIPAA أو ما يعادله محليًا. المحامون الذين يناقشون تفاصيل قضايا جارية يفقدون امتياز السرية القانونية.

مستشارو الأمن السيبراني الذين يعالجون تقارير اختراق فعلية يُدخلون تفاصيل ثغرات عملائهم في قواعد تدريب لا يملكونها. الصحفيون الاستقصائيون الذين يكتبون عن شخصيات عامة معرضون لإفشاء مصادرهم. لهذه الفئات، النموذج المحلي ليس ترفًا؛ هو مطلب مهني.

تلخيص الإعدادات الحاسمة في دقيقتين

الإعدادات التي ترفع خصوصيتك فعلًا ثلاثة فقط. أولًا: إيقاف التدريب. ثانيًا: تقصير مدة الاحتفاظ. ثالثًا: استخدام الوضع المؤقت للمحادثات الحساسة.

في ChatGPT الإعداد الأول داخل Data Controls. في Claude داخل Privacy. في Gemini داخل Apps Activity. لا تحتاج أكثر من دقيقة في كل منصة.

لا تتوقع أن يذكّرك أي من الثلاثة بتعديل الإعدادات. التصميم مقصود: كلما طال بقاؤك على الإعدادات الافتراضية، زادت البيانات التي تُجمع منك. هذا يسمى dark pattern في أدبيات تجربة المستخدم، وله دراسات كثيرة تثبت أن الإعدادات المدفونة تقلل النقر إلى أقل من 10%.

لذلك ضع تذكيرًا شهريًا في هاتفك لمراجعة قسم الخصوصية في كل منصة تستخدمها. السياسات تتغير بصمت، كما حصل مع Anthropic في أغسطس 2025 ومع Google في بداية 2026. المستخدم الواعي يفوز على المتكاسل في هذه اللعبة الطويلة.

المصادر

أسئلة شائعة

هل التحقق من الهوية في Claude إلزامي لكل المستخدمين؟
لا. أنثروبيك تقول إن الميزة تطبق على "عدد محدود من الحالات" تظهر فيها مؤشرات على نشاط احتيالي أو سلوك مخالف لسياسة الاستخدام، وليست لكل المشتركين. الميزة تخص حسابات Claude الاستهلاكية فقط، بينما خطط Claude for Work وEnterprise لا تمر بهذه العملية أصلًا.
هل يحتفظ ChatGPT بمحادثاتي حتى لو حذفتها؟
نعم، لمدة 30 يومًا في الغالب. OpenAI تحتفظ بنسخ خلفية لأغراض مراقبة الإساءة والتصحيح التقني قبل الحذف النهائي. بعض السجلات تبقى أطول بسبب تقاضيات جارية. الاستثناء هو خطط Enterprise مع Zero Data Retention التي تتطلب عقدًا تجاريًا.
ما أطول فترة احتفاظ ببياناتي في المنصات الثلاث؟
Google Gemini هو الأطول افتراضيًا: 18 شهرًا كمدة تلقائية، وثلاث سنوات للمحادثات التي راجعها موظف بشري حتى لو حذفتها. Claude يحتفظ بالبيانات 5 سنوات فقط إذا وافقت صراحة على المشاركة في تدريب النماذج، وإلا فالحد 30 يومًا.
هل استخدامي لـ ChatGPT من الإمارات أو السعودية يختلف من ناحية الخصوصية؟
السياسة الفنية للاحتفاظ والتدريب واحدة حول العالم. ما يختلف هو النظام القانوني المتحكم في طلبات الكشف عن البيانات؛ فالشركات الثلاث أمريكية وخاضعة أساسًا لقوانين أمريكا. استخدام VPN لا يغيّر سياسة الاحتفاظ في حسابك.
هل وضع Incognito في Claude وTemporary في ChatGPT يعني خصوصية كاملة؟
يعني استثناء المحادثة من التدريب وعدم حفظها في سجل الحساب، لكن النسخ المؤقتة تبقى حتى 30 يومًا لأغراض مراقبة الإساءة. هو أفضل خيار داخل كل منصة للمحادثات الحساسة، لكنه ليس بديلًا عن عدم كتابة الأسرار الحقيقية في روبوت دردشة من الأساس.
ما رأيك في المقال؟