ماذا سيحدث لو طلبت من روبوت الدردشة المبني على الذكاء الاصطناعي ChatGPT، أن يعيد كتابة كلمة مثل (مرحبا) إلى ما لا نهاية!
بالطبع سينفذ ما تريده وسيكتب عبارة “مرحبا” مرات كثيرة. ولكن في نهاية المطاف، سوف ينتقل على نحو تلقائي ودون قصد ويكشف عن بيانات حساسة خاصة بمستخدمين آخرين.
ثغرة في ChatGPT
هذا ما حدث الأسبوع الماضي عندما نشر فريق من الباحثين تقريرا. أوضحوا من خلاله أن روبوت الدردشة الشهير يحتوي على ثغرة أطلقوا عليها “هجوم الاختلاف”.
وأشاروا إلى أن بالإمكان استغلال تلك الثغرة عبر سؤال شات جي بي تي بتكرار أي كلمة إلى الأبد. حينها سيبدأ روبوت المحادثة بتكرار الكلمة مئات المرات.
كل شيء طبيعي حتى الآن، ولكن الخطوة التالية ستكون الانتقال من إعادة كتابة الكلمة إلى نشر بيانات التدريب. بالإضافة إلى تعليمات برمجية خاصة به وبيانات حساسة عن المستخدمين.
وجاء في تقرير الباحثين أن البيانات شملت الأسماء الخاصة بالمستخدمين وأرقام هواتفهم وعناوين البريد الإلكتروني وبيانات أخرى شخصية.
ومن أجل هذا السبب، قامت OpenAI الشركة المطورة لروبوت المحادثة بإضافة حاجز حماية على شات جي بي تي. وهكذا عندما يُطلب منه تكرار كلمة معينة بشكل لا نهائي، لن يستجيب لهذا الأمر، وسوف يرفض طلبك.
وردا على الأمر، قالت OpenAI أن الغرض من ChatGPT هو تقديم إجابات مفيدة وذات صلة ومغزى.
وأضافت الشركة أن روبوت الدردشة يحاول تعزيز التفاعل الإيجابي والغني بالمعلومات. ومن ثم، تكرار كلمة محددة طوال الوقت، لن يقدم أي قيمة حقيقية للمستخدمين
أخيرا، إذا حاولت تجربة الأمر مع روبوت المحادثة الذي يعمل بالذكاء الاصطناعي التوليدي ChatGPT. لن تنجح وسوف يكون رده إما أنه لا يمكنه تلبية طلبك، ولكن يمكنه مساعدتك على موضوع آخر. أو أن ما تطلبه يعتبر شيء يفوق ما يستطيع القيام به.