أشارت دراسة بحثية نُشرت عبر موقع "ليكي إل إم"، إلى وجود مخاوف تتعلق بالخصوصية في عدد من منصات الذكاء الاصطناعي التوليدي، من بينها "شات جي بي تي" و"كلود" و"غروك" و"بيربلكسيتي"، وذلك بسبب إمكانية نقل بيانات المحادثات ومعلومات المستخدم إلى خدمات تتبع وإعلانات خارجية.
وبحسب ما ورد في الدراسة، فإن المشكلة لا ترتبط فقط بوجود أدوات تحليل داخل هذه المنصات، بل أيضاً بطريقة ارتباط بيانات الاستخدام وروابط المحادثات بمعرّفات إعلانية يمكن استخدامها في بناء ملفات تعريف رقمية للمستخدمين.
خدمات الذكاء الاصطناعي
وأوضح الباحثون أنهم أجروا اختبارات على أربع خدمات ذكاء اصطناعي، حيث تم رصد أكثر من 13 أداة تتبع خارجية تعمل داخل هذه الأنظمة بدرجات متفاوتة، مع وجود اختلاف في مستوى التأثير بين منصة وأخرى.
وأشار التقرير إلى أن سياسات الخصوصية في هذه الخدمات تتضمن جمع بيانات الاستخدام والمحادثات، إضافة إلى الاعتماد على أدوات تتبع تابعة لجهات خارجية، لكن دون تقديم توضيح تفصيلي كافٍ للمستخدمين حول كيفية معالجة هذه البيانات.
الخصوصية والذكاء الاصطناعي
وبحسب الدراسة، لوحظ أن بعض المنصات تقوم بإرسال روابط أو عناوين المحادثات إلى أدوات تحليل خارجية، ما قد يسمح نظرياً باستنتاج محتوى النقاش أو نوعه من خلال بيانات الصفحة أو الرابط.
كما ذكر التقرير أن منصة "شات جي بي تي" أظهرت في بعض الحالات إرسال رابط المحادثة وعنوان الصفحة إلى أدوات تحليل مثل Google Analytics عند استخدام الحسابات المجانية.
وفي منصة Grok، تم رصد انتقال بيانات تتعلق بالمحادثات إلى خدمات تحليل وإعلانات مثل Google Analytics وDoubleClick، إضافة إلى خدمات أخرى في بعض السيناريوهات.
أما منصة Claude، فقد أشارت الدراسة إلى أن بعض البيانات مثل البريد الإلكتروني وعناوين المحادثات قد تُرسل إلى خدمات إدارة وتواصل مثل Intercom، إلى جانب تتبع نشاط المستخدم عبر أدوات خادمية عند تفعيل بعض إعدادات الموافقة.
وفي منصة Perplexity، أوضح التقرير أنه رغم إيقاف بعض أدوات التتبع الإعلاني، إلا أن بيانات وصفية أخرى لا تزال تُرسل إلى خدمات تحليل بيانات مختلفة.
مخاطر ربط الهوية بالمحادثات
وأحد أبرز التحذيرات التي ركزت عليها الدراسة هو إمكانية ربط المحادثات بهوية المستخدم من خلال أدوات التتبع، حيث يمكن استخدام ملفات تعريف الارتباط ومعرّفات الجهاز في تتبع النشاط وربطه بسلوك المستخدم الرقمي.
وبحسب الباحثين، فإن بعض الأنظمة قد تعتمد على آليات تجزئة البريد الإلكتروني أو مزامنة البيانات، ما قد يسهّل إعادة التعرف على المستخدم في بعض الحالات.
وترى الدراسة أن خطورة هذه الآليات تتزايد بسبب طبيعة الاستخدام، حيث يلجأ المستخدمون إلى مشاركة معلومات شخصية أو حساسة مع هذه الأنظمة، تشمل أحياناً بيانات صحية أو مهنية أو خاصة.
كما أشارت إلى أن هذا الأمر لا يقتصر على الأفراد فقط، بل قد يمتد إلى مؤسسات وشركات في حال مشاركة معلومات تتعلق بالملكية الفكرية أو بيانات داخلية.
تباين في الشفافية وإعدادات الخصوصية
وانتقد التقرير وجود فجوة في الشفافية، حيث يرى الباحثون أن إعدادات الخصوصية المتاحة للمستخدمين قد لا تعكس بشكل دقيق حجم عمليات التتبع أو مشاركة البيانات.
كما أشار إلى أن بعض عمليات جمع البيانات قد تستمر حتى في حال اختيار المستخدم رفض بعض ملفات تعريف الارتباط، وذلك نتيجة استخدام تقنيات تحليل تعمل على مستوى الخوادم.
ورغم ذلك، لم يؤكد التقرير وجود دليل مباشر على قراءة أطراف خارجية للمحادثات، لكنه شدد على أن إمكانية الربط التقني بين البيانات والمستخدمين تبقى قائمة.
وتخلص الدراسة إلى أن بيئة الذكاء الاصطناعي التوليدي قد أصبحت جزءاً من منظومة أوسع تعتمد على تتبع البيانات والإعلانات الرقمية، وهو ما يطرح تساؤلات حول مستوى الخصوصية الفعلي داخل هذه المنصات، خاصة مع توسع استخدامها في الحياة اليومية.
