قامت OpenAI بإزالة الحسابات المرتبطة بعمليات الدعاية المعروفة في روسيا والصين وإيران؛ شركة حملات سياسية إسرائيلية؛ ومجموعة غير معروفة سابقًا نشأت في روسيا والتي أطلق عليها باحثو الشركة اسم “القواعد السيئة”. استخدمت المجموعات تقنية OpenAI لكتابة المنشورات وترجمتها إلى لغات مختلفة وإنشاء برامج تساعدهم على النشر تلقائيًا على وسائل التواصل الاجتماعي.
ولم تتمكن أي من هذه المجموعات من الحصول على قدر كبير من الاهتمام؛ وصلت حسابات وسائل التواصل الاجتماعي المرتبطة بهم إلى عدد قليل من المستخدمين وكان لها وقال بن نيمو، المحقق الرئيسي في فريق الاستخبارات والتحقيقات في OpenAI: “إنهم مجرد حفنة من المتابعين”. ومع ذلك، يُظهر تقرير OpenAI أن الدعاة الذين نشطوا لسنوات على وسائل التواصل الاجتماعي يستخدمون تقنية الذكاء الاصطناعي لتعزيز حملاتهم.
وقال نيمو، الذي عمل سابقًا في عمليات تتبع التأثير في Meta، في مؤتمر صحفي مع الصحفيين: “لقد رأيناهم يقومون بإنشاء نص بحجم أكبر وبأخطاء أقل مما تديره هذه العمليات تقليديًا”. وقال نيمو إنه من المحتمل أن المجموعات الأخرى ربما لا تزال تستخدم أدوات OpenAI دون علم الشركة.
“هذا ليس الوقت المناسب للرضا عن النفس. يظهر التاريخ أن عمليات التأثير التي قضت سنوات دون أن تصل إلى أي مكان يمكن أن تندلع فجأة إذا لم يبحث عنها أحد.
استخدمت الحكومات والأحزاب السياسية والجماعات الناشطة وسائل التواصل الاجتماعي لمحاولة التأثير على السياسة لسنوات. بعد المخاوف بشأن النفوذ الروسي في الانتخابات الرئاسية عام 2016، بدأت منصات وسائل التواصل الاجتماعي في إيلاء اهتمام أكبر لكيفية استخدام مواقعها للتأثير على الناخبين. تحظر الشركات عمومًا على الحكومات والجماعات السياسية التستر على الجهود المنسقة للتأثير على المستخدمين، ويجب أن تكشف الإعلانات السياسية عن الجهة التي دفعت مقابلها.
نظرًا لأن أدوات الذكاء الاصطناعي التي يمكنها إنشاء نصوص وصور وحتى مقاطع فيديو واقعية أصبحت متاحة بشكل عام، فقد أثار الباحثون في مجال المعلومات المضللة مخاوف من أنه سيصبح من الصعب اكتشاف المعلومات الكاذبة أو عمليات التأثير السرية عبر الإنترنت والرد عليها. مئات الملايين من الناس يصوتون في الانتخابات في جميع أنحاء العالم هذا العام، وقد انتشرت بالفعل تقنية التزييف العميق التي ينتجها الذكاء الاصطناعي.
تعمل OpenAI وGoogle وشركات الذكاء الاصطناعي الأخرى على التكنولوجيا لتحديد التزييف العميق المصنوع باستخدام أدواتهم الخاصة، لكن هذه التقنية لا تزال غير مثبتة. يعتقد بعض خبراء الذكاء الاصطناعي أن أجهزة الكشف عن التزييف العميق لن تكون فعالة بشكل كامل أبدًا.
في وقت سابق من هذا العام، نشرت مجموعة تابعة للحزب الشيوعي الصيني تسجيلاً صوتيًا تم إنتاجه بواسطة الذكاء الاصطناعي لمرشح في الانتخابات التايوانية يُزعم أنه يؤيد مرشحًا آخر. ومع ذلك، فإن السياسي، مالك شركة فوكسكون، تيري جو، لم يؤيد السياسي الآخر.
في يناير/كانون الثاني، تلقى الناخبون في الانتخابات التمهيدية في نيو هامبشاير مكالمة آلية يُزعم أنها من الرئيس بايدن ولكن سرعان ما تبين أنها مدعومة بالذكاء الاصطناعي. وفي الأسبوع الماضي، تم توجيه الاتهام إلى أحد الناشطين الديمقراطيين، الذي قال إنه كلف بإجراء المكالمة الآلية، بتهمة قمع الناخبين وانتحال شخصية مرشح.
يوضح تقرير OpenAI بالتفصيل كيف استخدمت المجموعات الخمس تقنية الشركة في محاولاتها لعمليات التأثير. وقالت الشركة إن Spamoflage، وهي مجموعة معروفة سابقًا ومنشأها الصين، استخدمت تقنية OpenAI للبحث في النشاط على وسائل التواصل الاجتماعي وكتابة منشورات باللغات الصينية والكورية واليابانية والإنجليزية. كما استخدمت مجموعة إيرانية تُعرف باسم الاتحاد الدولي للوسائط الافتراضية تقنية OpenAI لإنشاء مقالات نشرتها على موقعها.
استخدمت مجموعة Bad Grammar، التي لم تكن معروفة سابقًا، تقنية OpenAI للمساعدة في إنشاء برنامج يمكنه النشر تلقائيًا على تطبيق المراسلة Telegram. ثم استخدمت Bad Grammar تقنية OpenAI لإنشاء منشورات و تعليقات باللغتين الروسية والإنجليزية تجادل بأن الولايات المتحدة لا ينبغي أن تدعم أوكرانيا، بحسب التقرير.
وقالت OpenAI إن التقرير وجد أيضًا أن شركة حملات سياسية إسرائيلية تدعى Stoic استخدمت OpenAI لإنشاء منشورات مؤيدة لإسرائيل حول حرب غزة واستهدافها لأشخاص في كندا والولايات المتحدة وإسرائيل. وفي يوم الأربعاء، نشرت شركة ميتا المالكة لفيسبوك أيضًا أعمال Stoic، قائلة إنها أزالت 510 حسابًا على Facebook و32 حسابًا على Instagram تستخدمها المجموعة. وقالت الشركة للصحفيين إن بعض الحسابات تم اختراقها، بينما كان بعضها الآخر لأشخاص وهميين.
غالبًا ما علقت الحسابات المعنية على صفحات أفراد معروفين أو مؤسسات إعلامية، متظاهرة بأنها طلاب جامعيين أمريكيين مؤيدين لإسرائيل، وأمريكيين من أصل أفريقي وغيرهم. وقال ميتا إن التعليقات دعمت الجيش الإسرائيلي وحذرت الكنديين من أن “الإسلام المتطرف” يهدد القيم الليبرالية هناك.
وقد لعب الذكاء الاصطناعي دورًا في صياغة بعض التعليقات، الأمر الذي صدم مستخدمي فيسبوك الحقيقيين باعتباره غريبًا وخارجًا عن السياق. وقالت الشركة إن العملية كانت سيئة، حيث لم تجتذب سوى حوالي 2600 متابع شرعي.
تصرف ميتا بعد مختبر أبحاث الطب الشرعي الرقمي التابع للمجلس الأطلسي اكتشف الشبكة على X
على مدار العام الماضي، اقترح باحثو المعلومات المضللة أنه يمكن استخدام روبوتات الدردشة المدعمة بالذكاء الاصطناعي لإجراء محادثات طويلة ومفصلة مع أشخاص محددين عبر الإنترنت، في محاولة للتأثير عليهم في اتجاه معين. يمكن لأدوات الذكاء الاصطناعي أيضًا استيعاب كميات كبيرة من البيانات عن الأفراد وتخصيص الرسائل لهم مباشرةً.
وقال نيمو إن OpenAI لم تجد أيًا من تلك الاستخدامات الأكثر تطورًا للذكاء الاصطناعي. وأضاف: “إنه تطور وليس ثورة”. “لا شيء من هذا يعني أننا قد لا نرى ذلك في المستقبل.”
ساهم جوزيف مين في هذا التقرير.
More Stories
جي بي مورجان يتوقع أن يخفض بنك الاحتياطي الفيدرالي سعر الفائدة الأساسي بمقدار 100 نقطة أساس هذا العام
انخفاض أسهم شركة إنفيديا العملاقة لرقائق الذكاء الاصطناعي على الرغم من مبيعاتها القياسية التي بلغت 30 مليار دولار
شركة بيركشاير هاثاواي التابعة لوارن بافيت تغلق عند قيمة سوقية تتجاوز تريليون دولار