التخطي إلى المحتوى

في ظل استمرار التحذيرات الأخيرة بشان مخاطر الذكاء الاصطناعي، توصل بحث جديد إلى الطريقة التي يمكن من خلالها تسريب البيانات عبر المنصات الخاصة بإنتاج الصور التي تعتمد في عملها على الذكاء الاصطناعي التوليدي مثل: DALL-E أو Imagen أو Stable Diffusion، وذاك بحسب ما نشره عدد من الباحثين من جامعات أميركية وسويسرية بالتعاون مع شركة “جوجل” وشركتها الفرعية DeepMind.

وأكدت الورقة البحثية أن جميع المنصات تعمل بنفس الطريقة التي تعتمد بشكل أساسي على المستخدم الذي يدون مطالب نصية محددة، حيث تم تدريب كافة نماذج الذكاء الاصطناعي التوليدي التي يتم استخدامها داخل هذه المنصات على عدد ضخم من الصور التي لديها وصفًا محددًا في السابق، وتدور فكرة الشبكات العصبية في قدرتها حول تصميم صور جديدة ومميزة بعد معالجة كمية كبيرة من بيانات التدريب.

الكشف عن البيانات الخاصة

وتكشف الدراسة الحديثة، أن الصورة المنتجة ليست فريدة دائما، فقد تعمل الشبكة العصبية أحياناً على تصميم صورة مشابهة تمامًا لصورة تم إنتجاها من قبل واستخدمت وقت التدريب، وهو ما يشير إلى أن الشبكات العصبية قد تكشف عن البيانات الخاصة دون قصد.

وتختلف هذه الورقة البحثية مع الاعتقادات والنظريات التي تؤكد أن نماذج الذكاء الاصطناعي التي يتم استخدامها في إنتاج الصور لا تحتفظ ببيانات التدريب الخاصة بها، وأن بيانات التدريب تظل خاصة في حال يتم الكشف عنها.

 

التعليقات

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *