كان الجميع يعلمون أن الذكاء الاصطناعي سيلعب دورا في انتخابات هذا العام، ولكن ليس بهذه الطريقة بالضبط.
أدلى المرشح الرئاسي الجمهوري دونالد ترامب يوم الأحد بتصريحات كاذبة المستصلحة أن الخصم الديمقراطي كامالا هاريس استخدمت أدوات الذكاء الاصطناعي لاختراع أحجام الحشود في مسيراتها. فضحت وسائل الإعلام، بما في ذلك قناة Fox TV المحلية التابعة التي بثت حدثًا كبيرًا على الهواء مباشرة في مطار ديترويت، زيف منشور الرئيس السابق على وسائل التواصل الاجتماعي.
سواء أكان الأمر يتعلق بالمرشحين الذين يتهمون خصومهم بتزوير مقاطع الفيديو عندما يكون من السهل جدًا دحض هذا الادعاء أو النتائج المفاجئة التي تفيد بأن الأخبار السياسية المزيفة المدعومة بالذكاء الاصطناعي تحقق نجاحًا متباينًا، فإن عام 2024 لا يظهر كما توقع المتخصصون في مجال الأمن السيبراني. كان من المفترض أن تكون حملات التأثير باستخدام الذكاء الاصطناعي أكثر ذكاءً ودهاءً مما حدث حتى الآن في الانتخابات التي امتدت من إندونيسيا إلى الولايات المتحدة.
لماذا نكتب هذا؟
وشهدت الأيام القليلة الماضية اتهامات كاذبة بالتدخل في الذكاء الاصطناعي، والتدخل الحقيقي في الذكاء الاصطناعي، وتقارير عن عمليات قرصنة على الطراز القديم، وكلها تتعلق بالحملة الانتخابية. ومع ذلك، حتى الآن، قد يكون للفوضى السيبرانية في هذه الانتخابات تأثير أقل مما كان يخشى الخبراء.
يواصل المتسللون السيبرانيون التسبب في المشاكل، لكن يبدو أنهم يعتمدون على التكتيكات التقليدية أكثر من اعتمادهم على الذكاء الاصطناعي. وفي المثال الأخير، كان من الممكن أن يكون المتسللون الإيرانيون قد سرقوا معلومات من حملة ترامب.
يسلط الادعاء الكاذب هذا الأسبوع حول حضور هاريس للتجمع وتضخيمه على وسائل التواصل الاجتماعي الضوء على ما قاله بعض خبراء الأمن السيبراني منذ فترة طويلة: على الرغم من تزايد استخدام الذكاء الاصطناعي العميق، فإن أفضل طريقة لمكافحة التأثير السيبراني الخبيث على الانتخابات هو قمع توزيعه.
يقول هاني فريد، الأستاذ في جامعة كاليفورنيا في بيركلي ورائد في الطب الشرعي الرقمي والصوري: “الشيء الوحيد الذي أريد حله هو مشكلة السنوات العشرين الماضية: وسائل التواصل الاجتماعي”. “إذا كان بإمكاني إنشاء مقاطع مزيفة عميقة لبايدن وترامب وكل ما يمكنني فعله هو إرسالها بالبريد الإلكتروني إلى أصدقائي الخمسة، فسيكون الأمر مختلفًا كثيرًا عما إذا كان بإمكاني تغطية تويتر ويوتيوب وتيك توك معهم”.
قبل اسبوعين مثلا ملياردير التكنولوجيا إيلون ماسك تصدر عناوين الأخبار بعد مشاركة مقطع فيديو على منصة التواصل الاجتماعي الخاصة به يستخدم أداة استنساخ صوت تعمل بالذكاء الاصطناعي لتقليد صوت نائب الرئيس هاريس – قول أشياء لم يقلها في الواقع. قال لاحقًا إنه افترض أن القراء يعرفون أنها محاكاة ساخرة.
“الأمر لا يتعلق بعدد المنتجات المزيفة [that matters]يقول أورين إيتزيوني، مؤسس موقع TrueMedia.org: “إن تأثيرك هو المهم”. “يمكن أن يكون للتزييف تأثير كبير إذا انتشر على نطاق واسع عبر وسائل التواصل الاجتماعي وصدقه الناس.” تقدم منظمته غير الربحية لوسائل الإعلام وغيرها أداة للكشف بسرعة عن التزييف العميق.
في حين أن استخدام الذكاء الاصطناعي يمكن أن يجعل إنشاء المواد الخيالية أسهل وأسرع بكثير، إلا أنه ليس هناك ما يضمن أنه سيكون له التأثير المقصود.
على سبيل المثال، وجد تقرير نشره مركز تحليل التهديدات التابع لشركة ميكروسوفت (MTAC) في إبريل/نيسان أن عملية تحت تأثير روسيا تسمى “العاصفة 1679” استخدمت بشكل متكرر الذكاء الاصطناعي التوليدي في محاولة لتقويض دورة الألعاب الأولمبية في باريس، لكنها فشلت. وفي تحديث يوم الجمعة، حددت MTAC مجموعة صينية قامت بدمج التكنولوجيا “ولكن مع تأثير محدود أو معدوم”.
توصلت شركة OpenAI، الشركة التي تقف وراء برنامج الدردشة الشهير ChatGPT، إلى نتيجة مماثلة في تقرير نُشر في شهر مايو. ووجدت أنه في حين استخدم المؤثرون المرتبطون بروسيا والصين وإيران أدواتها لإنشاء مقالات بلغات متعددة، وإنشاء أسماء وسير ذاتية لحسابات وسائل التواصل الاجتماعي، وتصحيح أخطاء رموز الكمبيوتر، من بين أنشطة أخرى، إلا أنهم لم “يزيدوا بشكل كبير من المشاركة أو الوصول من الجمهور.”
قد تفسر هذه الإخفاقات سبب عودة المؤثرين الأجانب إلى تقنيات أكثر إثباتًا. “لقد رأينا جميع اللاعبين تقريبًا يتطلعون إلى دمج الذكاء الاصطناعي في محتواهم وعملياتهم، ولكن في الآونة الأخيرة، عاد العديد من اللاعبين إلى التقنيات التي أثبتت فعاليتها في الماضي”، وفقًا لتقرير MTAC الذي نُشر يوم الجمعة.
ولنتأمل هنا الاتهام الذي وجهه ترامب في نهاية الأسبوع الماضي بأن المتسللين الإيرانيين، الذين كان من الممكن أن ينفذوا هجوما إلكترونيا تقليديا يعرف باسم التصيد الاحتيالي، قاموا بسرقة وثائق الحملة الداخلية. ومن الواضح أنه كان يشير إلى تقرير MTAC الصادر يوم الجمعة، والذي أشار إلى أن وحدة تابعة للحرس الثوري الإسلامي استخدمت مؤخرًا حسابًا مخترقًا لمستشار سياسي سابق لإرسال بريد إلكتروني إلى “مسؤول رفيع المستوى في حملة رئاسية”.
وفقًا للتقرير، تضمنت الرسالة الإلكترونية عنوانًا مزيفًا لإعادة التوجيه مع رابط لموقع تسيطر عليه الوحدة. في يوليو/تموز، بدأ موقع الأخبار السياسية بوليتيكو في تلقي وثائق داخلية لحملة ترامب من مصدر مجهول، بما في ذلك ملف مكون من 271 صفحة يحتوي على معلومات متاحة للجمهور عن سناتور ولاية أوهايو جي دي فانس، المرشح الجمهوري لمنصب نائب الرئيس.
والآن يحقق مكتب التحقيقات الفيدرالي في هجوم إيراني مزعوم على الحملة الرئاسية الديمقراطية، فضلاً عن هجوم الحزب الجمهوري.
وجاء في تقرير MTAC: “شهدنا في الأشهر الأخيرة ظهور نشاط نفوذ كبير من قبل الجهات الفاعلة الإيرانية”.
وفي حين تشكل وسائل التواصل الاجتماعي مشكلة أكبر، فإن عدد التزييف السياسي العميق الناتج عن الذكاء الاصطناعي يستمر في التزايد في جميع أنحاء العالم، وخاصة خلال مواسم الحملات الانتخابية.
يقول إيتزيوني من موقع TrueMedia.org: “الهند، وباكستان، وتايوان، وإندونيسيا، والمكسيك… في كل من هذه الانتخابات، في كل واحدة منها، شهدنا التزييف العميق، وأصبحت أكثر إقناعًا”.
في ربيع هذا العام في الهند، ألقت الشرطة القبض على أشخاص من حزبين معارضين بعد أن أظهر شريط فيديو زوراً وزير الداخلية وهو يقول إن الحكومة ستنهي برنامج العمل الإيجابي لوظائف الطبقات المحرومة.
التزييف العميق ليس شريرًا دائمًا. وفي باكستان، استخدم أنصار أحد أحزاب المعارضة التزييف العميق لزعيمهم المسجون، بعد إذنه، لجذب الناخبين، مما أعطى الحزب الأغلبية. لقد كانت نتيجة تاريخية، على الرغم من أن الحزب المدعوم من الجيش انتهى به الأمر إلى تشكيل حكومة ائتلافية مع حزب معارض آخر.
وفي الولايات المتحدة، كانت الأسباب متنوعة أيضًا. في يناير/كانون الثاني، قبل الانتخابات التمهيدية في نيو هامبشاير، دفع مستشار سياسي ثمن صورة مزيفة للرئيس جو بايدن، مما أدى إلى تثبيط الناخبين من الذهاب إلى صناديق الاقتراع. وزعم المستشار، وهو ديمقراطي، أنه فعل ذلك لتنبيه حزبه حول مخاطر الذكاء الاصطناعي. ومع ذلك، اقترحت لجنة الاتصالات الفيدرالية تغريمه 6 ملايين دولار، واتهمته نيو هامبشاير بـ 32 تهمة تتعلق بالتدخل في الانتخابات.
وفي الشهر الماضي، ظهر فيديو مزيف يظهر بايدن وهو يهين المشاهدين خلال خطابه المتلفز الذي أنهى حملة إعادة انتخابه. انتشر الفيديو على نطاق واسع على منصة التواصل الاجتماعي X (تويتر سابقًا).
أحد أسباب نشر هذا النوع من المحتوى هو الإضرار بسمعة المرشح. وهناك هدف آخر أكثر دقة وهو “استقطاب شرائح المجتمع المنقسمة بالفعل”، كما يقول سيوي ليو، المدير المشارك لمركز سلامة المعلومات في جامعة بوفالو.
ويبدو أن زيادة هذا الانقسام هو هدف حملات التأثير التي تقوم بها الدول الأجنبية. وفي هذه الدورة الانتخابية، “نتوقع من الجهات الفاعلة الإيرانية استخدام الهجمات الإلكترونية ضد المؤسسات والمرشحين، مع تكثيف جهودها لتضخيم القضايا المثيرة للانقسام القائمة داخل الولايات المتحدة، مثل التوترات العرقية والفوارق الاقتصادية والقضايا المتعلقة بالجنسين”. تقريرها.
وقد بدأت الشركات والحكومات في الاستجابة لهذه التهديدات.
وفي مؤتمر عقد في ميونيخ في فبراير/شباط، طلبت شركات جوجل وميتا وأوبن إيه آي من الشركات اكتشاف هذا النوع من المحتوى ومعالجته على منصاتها. وفي شهر مايو، أعلنت شركة OpenAI أنها أغلقت حسابات المؤثرين الروس والصينيين والإيرانيين الذين اكتشفتهم.
وعلى الرغم من أن المدافعين عن الديمقراطية أشادوا بهذه الخطوة، إلا أن الكثيرين يقولون إن التنظيم الذاتي للصناعة ليس كافيا. تقوم المفوضية الأوروبية بالتحقيق بنشاط في حالات الفشل المحتملة لمنصات مثل Facebook وInstagram.
يرى السيد فريد في بيركلي تغييرًا كبيرًا عما كان عليه قبل 20 عامًا.
ويقول: “الآن هناك وعي بأن… على الحكومة أن تتدخل”.
وفي الولايات المتحدة، حجم التغيير غير معروف. في يونيو/حزيران، رفضت المحكمة العليا الأمريكية أن تقرر ما إذا كان بإمكان البيت الأبيض والوكالات الفيدرالية الضغط على شركات التواصل الاجتماعي لإزالة المحتوى الذي تعتبره الحكومة الفيدرالية معلومات مضللة. وقال القضاة إن المدعين يفتقرون إلى المكانة اللازمة لرفع القضية.
النتيجة: في حين أن بعض الرقابة الفيدرالية على المعلومات المضللة قد تستمر في الوقت الحالي، فإن الجدل حول ما إذا كان هذا ينتهك الحماية الدستورية لحرية التعبير لم يتم حله.