كشفت دراسة أجراها باحثون في معهد IMDEA Networks أن ChatGPT (OpenAI) وClaude (Anthropic) وGrok وPerplexity AI تستخدم أنواعًا مختلفة من أدوات التتبع من Meta وGoogle وTikTok وشركات أخرى، مما قد يؤدي إلى كشف بيانات حول محادثات المستخدمين ونشاطهم.
في غضون بضع سنوات فقط، أصبحت أنظمة الذكاء الاصطناعي التوليدية هذه شائعة الاستخدام، حيث يستخدمها الكثير من الناس كمساعدين موثوق بهم ويشاركون معلومات حساسة (مثل البيانات الصحية أو الأمور الشخصية أو المعلومات المهنية) على افتراض أن هذه التفاعلات خاصة. مع ذلك، يحذر البحث من أن هذا التصور قد يكون مضللاً: فبينما تبدو واجهة المستخدم أشبه بمحادثة، إلا أنها تعمل في جوهرها على بنى تحتية تقنية مماثلة لتلك الموجودة في بيئة الويب التقليدية، وتعتمد على جمع البيانات ومعالجتها من خلال خدمات التحليلات والإعلانات الرقمية. البحث متاح على منصة GitHub.
المخاطر الرئيسية المتوقعة
تحدد الدراسة ثلاث قضايا رئيسية: كشف روابط المحادثات الدائمة لأدوات التتبع التابعة لجهات خارجية؛ والقدرة على ربط هذه التفاعلات بهويات المستخدمين من خلال آليات التتبع؛ ووجود ضوابط وسياسات الخصوصية التي قد لا تعكس بدقة تدفقات البيانات الفعلية. ومن أهم النتائج إمكانية نقل المعلومات المتعلقة بمحادثات المستخدمين، مثل عناوين الدردشة، وعناوين URL (الروابط الدائمة)، أو البيانات الوصفية المرتبطة بها، إلى أدوات تتبع تابعة لجهات خارجية مثل Meta أو Google، إلى جانب ملفات تعريف الارتباط والمعرفات الأخرى. "والأمر الأكثر إثارة للقلق هو أنه في بعض الحالات، تعني ضوابط الوصول الضعيفة أو المعدومة أن مجرد وجود رابط لمحادثة ما يمكن أن يمنح الوصول إلى محتواها، مما يجعل المحادثات متاحة للجميع، بما في ذلك المتتبعين الذين لديهم عنوان URL"، كما يسلط نارسيو فالينا رودريغيز، الأستاذ المشارك في معهد IMDEA للشبكات، الضوء على ذلك.
يرسل كل من Grok وPerplexity روابط المحادثات مع تحكم ضعيف في الوصول (الروابط الدائمة) إلى أدوات تتبع خارجية مثل Meta Pixel. بل إن Grok يكشف نص الرسائل حرفيًا من خلال بيانات Open Graph الوصفية التي يجمعها TikTok،" يضيف غييرمو سواريز تانجيل، المؤلف المشارك والأستاذ المشارك في معهد IMDEA Networks. بحسب الباحثين، تعكس هذه الممارسات استمرار نماذج الأعمال القائمة على البيانات ضمن منظومة الذكاء الاصطناعي التوليدي. يقول أنيكيث جيريش، الباحث المشارك في الدراسة وباحث ما بعد الدكتوراه في شبكة IMDEA: "لا يملك معظم المستخدمين أي وسيلة لمعرفة ذلك، فلا يوجد ما يُشير إلى ذلك في واجهة المستخدم. صحيح أن رفض ملفات تعريف الارتباط غير الضرورية يُفيد في بعض الحالات، إلا أن بحثنا يُظهر أنه ليس كافيًا دائمًا. إلى أن تُعالج هذه الممارسات على مستوى المنصة، سيظل أمام المستخدمين خيارات محدودة للغاية.
من الناحية القانونية
(وفقًا للائحة العامة لحماية البيانات) ، تتلخص المشكلة في جانبين: أولهما، غياب أساس قانوني واضح لمشاركة هذه البيانات؛ وثانيهما، عدم كفاية المعلومات المُقدمة للمستخدمين. ووفقًا للمحامي ومسؤول حماية البيانات خورخي غارسيا هيريرو، الذي شارك في الدراسة، فإن التحذير من احتمال وصول معلوماتنا الأكثر حساسية إلى قطاع الإعلان يستحق نفس القدر من الاهتمام الذي يحظى به إخلاء المسؤولية المنتشر في كل واجهة، والذي يقول: "قد يخطئ الذكاء الاصطناعي، يُرجى التحقق من الإجابات"، للحد من المسؤولية عند حدوث أي خطأ.