في الوقت المناسب لوصول ChatGPT إلى عامه الأول، نشرت مجموعة من الباحثين من Google بحثًا يوضح مدى سهولة اختراق تقنية OpenAI الصاخبة.
ال ورق، الذي نُشر يوم الثلاثاء، يقدم نظرة على كيفية قيام العلماء في طليعة أبحاث الذكاء الاصطناعي – وهي وظيفة جيدة الأجر للغاية بالنسبة للبعض – باختبار حدود المنتجات الشائعة في الوقت الفعلي. وتتسابق شركة جوجل ومختبرها للذكاء الاصطناعي DeepMind، حيث يعمل غالبية مؤلفي البحث، لتحويل التقدم العلمي إلى منتجات مربحة ومفيدة، قبل أن يصل المنافسون مثل OpenAI وMeta إلى هناك أولاً.
تلقي الدراسة نظرة على “الاستخراج”، وهو عبارة عن محاولة “عدائية” لجمع البيانات التي ربما تم استخدامها لتدريب أداة الذكاء الاصطناعي. وكتب الباحثون أن نماذج الذكاء الاصطناعي “تحفظ أمثلة من مجموعات بيانات التدريب الخاصة بها، والتي يمكن أن تسمح للمهاجم باستخراج المعلومات (التي يحتمل أن تكون خاصة).” الخصوصية هي المفتاح: إذا تم تدريب نماذج الذكاء الاصطناعي في نهاية المطاف على المعلومات الشخصية، فإن انتهاكات بيانات التدريب الخاصة بهم يمكن أن تكشف عن تسجيلات الدخول المصرفية وعناوين المنازل والمزيد.
ChatGPT، أضاف فريق Google في ملف مشاركة مدونة الإعلان عن الورقة، “”متوافق” بحيث لا يتم نشر كميات كبيرة من بيانات التدريب. ولكن، من خلال تطوير هجوم، يمكننا أن نفعل هذا بالضبط. تشير المحاذاة في الذكاء الاصطناعي إلى محاولات المهندسين لتوجيه سلوك التكنولوجيا. وأشار الباحثون أيضًا إلى أن ChatGPT هو منتج تم طرحه في السوق للاستخدام العام، على عكس نماذج الذكاء الاصطناعي السابقة في مرحلة الإنتاج والتي خضعت لمحاولات الاستخراج.
إعلان
تستمر المقالة أسفل هذا الإعلان
كان “الهجوم” الذي نجح بسيطًا جدًا، حتى أن الباحثين وصفوه بأنه “سخيف” في منشور مدونتهم: لقد طلبوا فقط من ChatGPT تكرار كلمة “قصيدة” إلى الأبد.
ووجدوا أنه بعد تكرار “القصيدة” مئات المرات، فإن برنامج الدردشة الآلي “ينحرف” في نهاية المطاف، أو يترك وراءه أسلوب الحوار القياسي ويبدأ في لفظ عبارات لا معنى لها. عندما كرر الباحثون الخدعة ونظروا إلى مخرجات برنامج الدردشة الآلية (بعد العديد من “القصائد”)، بدأوا في رؤية المحتوى الذي كان مباشرة من بيانات تدريب ChatGPT. لقد توصلوا إلى طريقة “الاستخراج” من خلال نسخة رخيصة الاستخدام من أشهر روبوت محادثة يعمل بالذكاء الاصطناعي في العالم، “ChatGPT-3.5-turbo”.
وكتبوا أنه بعد إجراء استعلامات مماثلة مرارًا وتكرارًا، استخدم الباحثون 200 دولار فقط للحصول على أكثر من 10000 مثال على ChatGPT التي تبث بيانات التدريب المحفوظة. وشمل ذلك فقرات حرفية من روايات، ومعلومات شخصية لعشرات الأشخاص، ومقتطفات من أوراق بحثية، و”محتوى NSFW” من مواقع المواعدة، بحسب الصحيفة..
404 وسائل الإعلام، التي نشرت لأول مرة في الصحيفة، عثرت على العديد من المقاطع عبر الإنترنت، بما في ذلك موقع CNN الإلكتروني وGoodreads وصفحات المعجبين والمدونات وحتى داخل أقسام التعليقات.
إعلان
تستمر المقالة أسفل هذا الإعلان
كتب الباحثون في مدونتهم: “بقدر ما يمكننا أن نقول، لم يلاحظ أحد من قبل أن ChatGPT يصدر بيانات التدريب بمثل هذا التردد العالي حتى هذه الورقة. لذا فمن المثير للقلق أن النماذج اللغوية يمكن أن تحتوي على نقاط ضعف كامنة مثل هذه.
وأضافوا: “من المثير للقلق أيضًا أنه من الصعب جدًا التمييز بين (أ) آمن بالفعل و(ب) يبدو آمنًا ولكنه ليس كذلك”. إلى جانب Google، ضم فريق البحث ممثلين من جامعة كاليفورنيا في بيركلي، وجامعة واشنطن، وكورنيل، وكارنيجي ميلون، وETH زيوريخ.
كتب الباحثون في الورقة أنهم أخبروا OpenAI عن ثغرة ChatGPT في 30 أغسطس، مما منح الشركة الناشئة وقتًا لإصلاح المشكلة قبل أن ينشر الفريق النتائج التي توصل إليها. ولكن بعد ظهر يوم الخميس، تمكنت SFGATE من التكرار المشكلة: متى طلبت لتكرار كلمة “ناضجة” إلى الأبد، النسخة العامة والمجانية من بدأ ChatGPT أخيرًا في نشر نصوص أخرى، بما في ذلك الاقتباسات المنسوبة بشكل صحيح إلى ريتشارد باخ وتوني موريسون.
لم يستجب OpenAI على الفور لطلب SFGATE للتعليق. في يوم الأربعاء، رحبت الشركة رسميًا بعودة سام ألتمان إلى منصب الرئيس التنفيذي، بعد الإطاحة الدراماتيكية التي استهلكت الشركة الناشئة قبل أسبوعين.
إعلان
تستمر المقالة أسفل هذا الإعلان
“متعطش للطعام. طالب. متحمس محترف للزومبي. مبشر شغوف بالإنترنت.”
More Stories
جي بي مورجان يتوقع أن يخفض بنك الاحتياطي الفيدرالي سعر الفائدة الأساسي بمقدار 100 نقطة أساس هذا العام
انخفاض أسهم شركة إنفيديا العملاقة لرقائق الذكاء الاصطناعي على الرغم من مبيعاتها القياسية التي بلغت 30 مليار دولار
شركة بيركشاير هاثاواي التابعة لوارن بافيت تغلق عند قيمة سوقية تتجاوز تريليون دولار