ChatGPT .. ثغرة خطيرة تهدد الخصوصية وسلامة البيانات
اكتشف باحث أمني ثغرة خطيرة في ميزة “الذاكرة طويلة المدى” لروبوت الدردشة الشهير ChatGPT، تسمح بالتلاعب بذكريات الروبوت وتسريب بيانات المستخدمين، مما يثير مخاوف أمنية تتعلق بالخصوصية وسلامة البيانات.
تعكس هذه الثغرة التحديات الكبيرة التي تواجهها الشركات العاملة في هذا المجال.
تفاصيل اكتشاف الثغرة
اكتشف الباحث يوهان ريهبيرجر الثغرة في فبراير 2024، بينما تم إطلاق ميزة الذاكرة طويلة المدى للجمهور في سبتمبر 2024، هذه الميزة صممت لتوفير تجربة أكثر تخصيصًا للمستخدمين، من خلال تذكر تفضيلاتهم واهتماماتهم. ولكن، يبدو أن هذه الوظيفة الجديدة جاءت مع عيوب قد تجعل من الممكن استغلالها بطرق غير متوقعة.
آلية الاستغلال
كشف ريهبيرجر أن الثغرة تسمح له برفع ملف Word يحتوي على معلومات كاذبة تُعتبر “ذكريات” مزيفة. وبدلاً من مراجعة هذه المعلومات، يقوم ChatGPT بقبولها كحقائق، مما يؤدي إلى إمكانية تلاعبه بذكرياته.
ومن خلال بعض التجارب، استطاع ريهبيرجر إقناع الروبوت بأنه عاش لأكثر من 100 عام، مما يبرز القدرة على برمجة الروبوت لتسريب البيانات إلى خادم خارجي.
ردود فعل OpenAI
في البداية، تجاهلت OpenAI التقرير الأولي للباحث، لكن بعد إثباته لخطورة الثغرة، أصدرت الشركة تصحيحًا جزئيًا. هذا التصحيح نجح في منع تسريب البيانات، لكن لم يعالج المشكلة الأساسية المتعلقة بالذاكرة الكاذبة، مما يشير إلى وجود ثغرات أخرى محتملة يمكن استغلالها.
الصورة الكبيرة
تركز هذه الثغرة الضوء على التحديات الأمنية المستمرة في تطوير الذكاء الاصطناعي، حيث تطرح تساؤلات هامة حول مدى استعداد الشركات لمواجهة المخاطر الأمنية التي قد تظهر في تقنياتها المتطورة.