تمكن “شات جي بي تي” ومختلف روبوتات الدردشة المعتمدة على نماذج الذكاء الاصطناعي اللغوية من التغلغل في كافة جوانب الحياة اليومية لمختلف المستخدمين ذوي الخلفيات المتنوعة، وذلك بشكل أسرع من التقنيات الحديثة الأخرى، إذ يملك “شات جي بي تي” تحديدا أسرع معدل نمو في الاستخدام مقارنةً مع “فيسبوك” و”إنستغرام” كمثال.

ورغم الفوائد الجمة التي تقدمها نماذج الذكاء الاصطناعي وفي مقدمتها “شات جي بي تي”، إلا أنها تحمل بداخلها مخاطر تهدد السلام والأمن العام للدول، إما عبر نشر الشائعات الخاطئة من داخل النموذج ذاته، أو استخدامه لتوليد محتوى يروج للشائعات والمعلومات الخاطئة، ومع اقتراب يوم الانتخابات الرئاسية الأميركية 2024، تزداد المخاوف من الاستخدامات السيئة لهذه التقنية.

ولكن هل تملك هذه المخاوف أي أساس من الصحة؟ أم أنها مجرد لحظات تهويل من أشخاص غير خبراء أو مطلعين على التقنية ومدى قدرتها في التأثير على الآراء العامة؟ أم أنها فعلا تمثل خطرا حقيقيا على الانتخابات الرئاسية الأميركية أو أي عملية انتخابية في أي مكان حول العالم؟

تأثير غير مباشر

عند الحديث عن التأثير الذي يمكن أن يمتلكه “شات جي بي تي” ونماذج الدردشة الأخرى يتبادر إلى الذهن محاولة روبوت الدردشة التأثير المباشر في آراء الناخبين، ولكن الحقيقة أن هذا التأثير ليس مباشرا وقد لا يأتي من الروبوت بشكل مباشر.

وذلك بفضل قدرة “شات جي بي تي” وروبوتات الدردشة المماثلة على توليد محتوى سواءً كان نصيا أو مقاطع فيديو أو مقاطع صوتية تحاكي طريقة وأسلوب الحديث المحلي المستخدم في مختلف الدول حول العالم، وهو ما يجعل هذا المحتوى أقرب إلى المحتوى البشري ويمكن تصديقه.

وتعد هذه القدرة هي الخطر الأكبر الذي تمثله روبوتات الدردشة على المستخدمين وآرائهم، وبفضلها اختفت الحاجة إلى وجود أشخاص محليين راغبين ومستعدين لتوليد المحتوى المضلل، وفضلا عن جودة المحتوى الناتج من روبوتات الدردشة هذه، فإن سرعة توليد المحتوى ووفرته تجعله مثاليا للاستخدام مع مختلف المنصات عبر الإنترنت، سواءً كانت محركات بحث مثل “غوغل” أو منصات تواصل اجتماعي على غرار “فيسبوك” و”إنستغرام”.

ولم يغب هذا الاستخدام عن الجهات الخارجية التي وجدت في قدرات “شات جي بي تي” وسيلةً لتوليد محتوى مضلل مُقنع وأقرب إلى المحتوى البشري، لذا قامت مجموعة إيرانية باستخدامه ضمن عملية أطلقت عليها اسم “عاصفة-2035” (Storm-2035) لتوليد محتوى مضلل يستهدف الجاليات اللاتينية في الولايات المتحدة طمعا في التأثير على أصواتهم في الانتخابات.

وأشارت “أوبن إيه آي” إلى هذه العملية في بيان رسمي عبر موقعها، ومن خلال هذا البيان كشفت عن آلية استخدام “شات جي بي تي” في العملية، إذ كان الروبوت يولد المحتوى المضلل بناءً على المعلومات المضللة التي يتم تزويده بها، ثم يتم تخصيص المحتوى وتحسينه عبر الروبوت بشكل يجعله يقترب من المحتوى البشري قبل أن يتم نشره عبر منصات التواصل الاجتماعي المختلفة.

ووفق تقرير الشركة، فإن الحسابات التي كانت مشتركة في هذه العملية تم حظر وصولها إلى “شات جي بي تي” فضلا عن أن المحتوى المولد عبره لم يحظَ بالانتشار الذي يجعله يهدد أمن وسلامة المستخدمين بشكل مباشر، لذا فإن آثارها لم تكن واسعة بحسب وصف الشركة، ولكن بالطبع لا يمكن التأكد من أن جميع الحسابات المشاركة في هذه العملية أو التي نشرت المحتوى تم حظرها، وذلك لأن الحسابات التي ستتمكن من الاختفاء عن أعين الرقابة ستكون قادرة على توليد محتوى ذي جودة أكبر وقابلية انتشار أعلى.

حقبة تخصيص المحتوى المضلل

في العادة، يتم توليد المحتوى المضلل ليخاطب أكبر عدد ممكن من الأفراد فضلا عن صعوبة تخصيص المحتوى ليناسب الثقافة المحلية من قبل أشخاص خارج هذه الثقافة، ولكن “شات جي بي تي” يحل هذه المشكلة بشكل بسيط وسريع للغاية.

يستطيع النموذج تحويل المعلومات المضللة المقدمة إليه لتصبح مناسبة لفئات معينة ومختلفة من الشعب المستهدف، وربما كانت عملية “عاصفة-2035” مثالا حيا على ذلك، إذ تمكن النموذج من تخصيص المعلومات المضللة لتناسب الجالية اللاتينية أو ذات الأصول اللاتينية.

ويمكن توسيع رقعة الاستهداف الخاصة بالمحتوى المضلل أو تضييقها بحسب ما تقتضي الحاجة لهذا المحتوى، فيمكن عبر “شات جي بي تي” صناعة محتوى يستهدف السيدات اللاتي يبلغ من العمر 50 عاما أو أكبر ويعشن في ولايات جنوب أميركا ولا يعملن ويحببن مشاهدة الأعمال الدرامية التي تتحدث عن المؤامرات، وفي هذه الحال يكون صدى المحتوى المولد أكبر من المحتوى العشوائي.

أداة جمع بيانات وتخصيص إعلانات أكثر قوة

في مارس/آذار 2018 ظهرت فضيحة شركة “كامبريدج أناليتيكا” (Cambridge Analytica) التي اعتمدت عليها حملة الرئيس الأميركي آنذاك دونالد ترامب من أجل توجيه الإعلانات وتخصيصها بشكل يجعلها أكثر تناسبا لفئة معينة من الشعب بناء على تفضيلاتهم وبياناتهم على منصات التواصل الاجتماعي.

وبينما كانت المشكلة في تلك الفضيحة هي آلية وصول الشركة إلى البيانات من شركة “ميتا” وغيرها، إلا أن وجود البيانات في حد ذاته لم يكن جزءا من الفضيحة، وبفضل قدرات الذكاء الاصطناعي على قراءة وفحص العديد من الصفحات والنصوص والحسابات عبر الإنترنت، فإنه يصبح قادرا على تقديم مثل هذه البيانات بشكل سريع وفوري.

وتتسع رقعة الخطر أيضا حين استخدام نماذج الذكاء الاصطناعي للتنبؤ بنتائج الانتخابات، وهو الأمر الذي أشارت إليه ورقة بحثية نشرت في “جامعة كورنيل” (Cornell University) وشارك فيها خبراء من “غوغل” ومعهد “إم آي تي” وجامعة “هارفارد”.

وبحسب ما جاء في البحث، فإن هذه القدرة التي يتمتع بها الذكاء الاصطناعي تتيح للشركات والجهات الخارجية أو الداخلية توقع نتيجة الانتخابات بشكل أقرب للصواب ثم بناء إستراتيجيات وتصميم حملات تهدف للتأثير في هذه النتيجة بناءً على البيانات الواردة من الذكاء الاصطناعي، ليصبح بذلك الذكاء الاصطناعي مؤثرا في نتائج الانتخابات بشكل غير مباشر.

بناء روبوتات دردشة مضللة

رغم خطورة الاحتمالات السابقة، إلا أنها تناقش فقط استخدام نماذج الذكاء الاصطناعي لتوليد محتوى مضلل قادر على التأثير في الانتخابات، ولكن هناك آلية أكثر خطورة تجعل تهديد وخطر الذكاء الاصطناعي أكثر شراسة.

وتعتمد هذه الآلية على اختراق روبوتات الدردشة الموجودة في الوقت الحالي بمختلف أنواعها، ثم تزويدها ببيانات خاطئة تماما ليقوم الروبوت لاحقا بنشر هذه البيانات بين مستخدميه والإجابة عن الأسئلة التي يمتلكونها.

وإن كان اختراق “شات جي بي تي” أو “جيميناي” أمرا صعبا، فإن الجهات الخارجية أو الداخلية قد تسعى إلى بناء روبوت دردشة من الصفر والترويج له قبل الانتخابات بوقت كافٍ ليستطيع نشر المعلومات والبيانات المضللة عن الحملات الانتخابية بين المستخدمين.

وبينما يعد هذا السيناريو مستبعدا في الوقت الحالي، إلا أن التخطيط المناسب والاستعداد قبل الانتخابات بوقت كاف يجعله أقرب إلى التصديق، وهو سيناريو أكثر خطورة من مجرد توليد المحتوى المضلل عبر روبوتات الدردشة ونشره في منصات التواصل الاجتماعي.

شاركها.
Exit mobile version