خصوصية الذكاء الاصطناعي: ماذا يحدث لبياناتك؟
في كل مرة تكتب فيها موجّهًا في أداة ذكاء اصطناعي، فإنك تشارك معلومات محتملة مع الشركة التي طوّرتها. فهم ما يحدث لبياناتك أمر بالغ الأهمية، خاصة إذا كنت تستخدم الذكاء الاصطناعي لأغراض العمل أو تتعامل مع معلومات حساسة.
كيف تستخدم شركات الذكاء الاصطناعي بياناتك
تستخدم معظم شركات الذكاء الاصطناعي تفاعلاتك لتحسين نماذجها بشكل افتراضي. هذا يعني أن محادثاتك قد تُراجع من قِبل مدربين بشريين وتُستخدم لتدريب الإصدارات المستقبلية من الذكاء الاصطناعي. تقوم OpenAI وGoogle وMeta بذلك بدرجات متفاوتة.
ومع ذلك، تقدم معظم المنصات خيارات لتعطيل استخدام البيانات في التدريب. يمتلك ChatGPT مفتاح تبديل في الإعدادات، ولا يستخدم Claude محادثات الخطة المجانية للتدريب، وعادةً ما تستثني خطط المؤسسات لجميع المنصات البيانات من التدريب.
ما الذي يجب عدم مشاركته مع الذكاء الاصطناعي أبدًا
تجنب مشاركة كلمات المرور، وأرقام الحسابات المالية، وأرقام الضمان الاجتماعي، وبيانات الأعمال السرية، والمعلومات الصحية الشخصية مع أدوات الذكاء الاصطناعي. حتى مع وجود حماية للخصوصية، قد تتعرض هذه البيانات للاختراق عبر خروقات البيانات أو استذكار النموذج.
للعمل التجاري الحساس، فكر في استخدام نماذج الذكاء الاصطناعي المحلية (مثل Llama التي تعمل على جهازك الخاص) التي تحافظ على جميع البيانات على جهازك.
أدوات الذكاء الاصطناعي التي تضع الخصوصية أولاً
تُعطي العديد من أدوات الذكاء الاصطناعي الأولوية للخصوصية. يتمتع Claude من Anthropic بالتزامات قوية تجاه الخصوصية ولا يتدرب على محادثات المستخدمين. يوجه مساعد محادثة DuckDuckGo الاستفسارات بشكل مجهول. تتيح لك الأدوات المحلية مثل Ollama تشغيل نماذج الذكاء الاصطناعي بالكامل على جهاز الكمبيوتر الخاص بك.