أبريل 27, 2024

Alqraralaraby

الأخبار والتحليلات من الشرق الأوسط والعالم والوسائط المتعددة والتفاعلات والآراء والأفلام الوثائقية والبودكاست والقراءات الطويلة وجدول البث.

تقوم جامعة ستانفورد بتصنيف نماذج الذكاء الاصطناعي الرئيسية من حيث الشفافية

تقوم جامعة ستانفورد بتصنيف نماذج الذكاء الاصطناعي الرئيسية من حيث الشفافية

كم نعرف عن الذكاء الاصطناعي؟

الجواب، عندما يتعلق الأمر بنماذج اللغات الكبيرة التي أصدرتها شركات مثل OpenAI وGoogle وMeta خلال العام الماضي: لا شيء في الأساس.

لا تنشر هذه الشركات عمومًا معلومات حول البيانات التي تم استخدامها لتدريب نماذجها، أو الأجهزة التي تستخدمها لتشغيلها. لا توجد أدلة مستخدم لأنظمة الذكاء الاصطناعي، ولا توجد قائمة بكل ما تستطيع هذه الأنظمة القيام به، أو أنواع اختبارات السلامة التي خضعت لها. وعلى الرغم من أن بعض نماذج الذكاء الاصطناعي أصبحت مفتوحة المصدر – مما يعني أن الكود الخاص بها يتم تقديمه مجانًا – إلا أن الجمهور لا يزال لا يعرف الكثير عن عملية إنشائها، أو ما يحدث بعد إصدارها.

يكشف باحثو جامعة ستانفورد هذا الأسبوع عن نظام تسجيل يأملون أن يغير كل ذلك.

النظام المعروف باسم مؤشر الشفافية لنموذج الأساس، يصنف 10 نماذج كبيرة من لغات الذكاء الاصطناعي – تسمى أحيانًا “النماذج الأساسية” – وفقًا لمدى شفافيتها.

يتضمن الفهرس نماذج شائعة مثل GPT-4 من OpenAI (الذي يشغل النسخة المدفوعة من ChatGPT)، وPaLM 2 من Google (الذي يشغل Bard)، وLLaMA 2 من Meta. ويتضمن أيضًا نماذج أقل شهرة مثل Titan Text من Amazon وInflection AI’s Inflection. -1، النموذج الذي يشغل برنامج Pi chatbot.

للوصول إلى التصنيف، قام الباحثون بتقييم كل نموذج بناءً على 100 معيار، بما في ذلك ما إذا كان صانعه قد كشف عن مصادر بيانات التدريب الخاصة به، ومعلومات حول الأجهزة المستخدمة، والعمالة المشاركة في تدريبه وتفاصيل أخرى. تتضمن التصنيفات أيضًا معلومات حول العمالة والبيانات المستخدمة لإنتاج النموذج نفسه، إلى جانب ما يسميه الباحثون “المؤشرات النهائية”، والتي تتعلق بكيفية استخدام النموذج بعد إصداره. (على سبيل المثال، أحد الأسئلة المطروحة هو: “هل يكشف المطور عن بروتوكولاته الخاصة بتخزين بيانات المستخدم والوصول إليها ومشاركتها؟”)