يدعو فريق من الباحثين من مختلف التّخصّصات إلى فرض رقابة أكبر على تقنيّات الذّكاء الاصطناعيّ.
صدر مؤخّرًا مقال رأي في المجلّة العلميّة المرموقة Science يتضمّن بيانًا يحذّر من مخاطر الذّكاء الاصطناعيّ، ويدعو إلى فرض آليّات رقابة صارمة للوقاية من مخاطره. وفقًا للمقال، إنّ الأنظمة الحكوميّة والتّشريعات ما زالت متأخّرة ولم تتطوّر بالسّرعة الكافية للاستعداد للتّهديدات المحتملة. يقترح كُتّاب المقال خطّة تشمل البحث والتّطوير التّقنيّين، بالإضافة إلى مبادرات حكوميّة للتّعامل بشكل أفضل مع المستقبل المقبل. هذا وقد وقّع على المقال أكثر من عشرين باحثًا من مختلف المجالات، من بينهم المؤرّخ يوفال نوح هراري، وباحث الذّكاء الاصطناعيّ يوشوا بنجيو (Bengio)، وعالم النّفس دانيال كانيمان (Kahneman)، الحائز على جائزة نوبل في الاقتصاد والّذي توفّي مؤخّرًا. إنّ قرار هؤلاء الباحثين بنشر مقال مشترك يُبرز أهمّيّة الموضوع.
أصبحت أنظمة الذّكاء الاصطناعيّ في السّنوات الأخيرة جزءًا لا يتجزّأ من حياتنا، خاصّة في أعقاب استعراض قدراتها المذهلة واستخداماتها المتنوّعة في مختلف المجالات، بدءًا من البحث الطّبّيّ مثل تقنيّة AlphaFold الّتي طوّرتها شركة DeepMind، والّتي تتنبّأ بدقّة بهياكل البروتينات، ممّا يسهم في تسريع عملية تطوير أدوية جديدة، وصولا إلى "مجرّد" إنشاء صور حسب الطّلب. بالإضافة إلى ذلك، أثبتت نماذج اللّغة مثل ChatGPT قدرتها على توليد نصوص متقنة تسهم في دعم عمليّات الكتابة والتّعلّم. واستجابةً لهذا التّطوّر المتسارع، تستثمر العديد من الشركات مبالغ طائلة في تطوير تقنيّات الذّكاء الاصطناعيّ، خشية أن تتخلّف في هذا السّباق التّكنولوجيّ.
أيّ مجال يُدمج فيه الذّكاء الاصطناعيّ قد يصبح عرضة للهجمات السّيبرانيّة. الذّكاء الاصطناعيّ في المنظومة الماليّة.| PopTika, Shutterstock
أكاذيب ذكيّة واستقلاليّة مشكوك فيها
على الرّغم من كلّ مزاياها، تكمن في استخدام تقنيّات الذّكاء الاصطناعيّ مخاطر عديدة. ولإدراك مدى خطورتها، يكفينا أن نتخيّل سيناريو تقوم فيه جهات عدوانيّة باستخدام الذّكاء الاصطناعيّ لنشر معلومات كاذبة على وسائل التّواصل الاجتماعيّ بهدف التّأثير على الجمهور من خلال استغلال المخاوف والعواطف. في الوقت الرّاهن، تتيح كمّيّة المعلومات الشّخصيّة الّتي يشاركها الأفراد طواعية على وسائل التواصل الاجتماعي لهذه الأنظمة "معرفة" عقليّة المستخدمين بعمق، وفهم ما يحبّونه، وما يخيفهم، وما ينفّرهم. يمكن من خلال هذه المعرفة تصميم حملات مستهدفة تُقدّم أجزاء من الحقائق (أو حتّى الأكاذيب) الّتي قد تكون لها تأثيرات كبيرة. مثل هذه المنشورات يمكن أن تؤثّر بشكل كبير على الرّأي العامّ، حيث تُقدّم معلومات قد لا تكون موثوقة بالضّرورة، ممّا يؤدّي إلى تقويض ثقة الجمهور في الأنظمة الدّيمقراطيّة وتعزيز الشّعور بالفوضى. وفقًا لتقديرات كُتّاب المقال، وإذا ما أخذنا قدرات الذّكاء الاصطناعيّ في الحسبان، فسوف يكون للذّكاء الاصطناعيّ، حتمًا، تأثير بالغ في تفاقم هذه الظّواهر السّلبيّة.
يربض خطر مهيب آخر في تحوّل وسائل النّقل، مثل السّيّارات أو الطّائرات، إلى أنظمة مستقلّة ذاتيّة التّحكّم، عندها قد تعمل بطرق غير متوقّعة فتسبّب أضرارًا جسيمة. علاوة على ذلك، إنّ أيّ مجال يشمل أنظمة ذكاء اصطناعيّ قد يكون عرضة لهجمات إلكترونيّة تستهدف مكاتب حكوميّة، البنوك، أنظمة الصّحّة أو النّقل ممّا يعرّض هذه المؤسّسات لخطر كبير. لذلك، يحذّر الباحثون من أنّه بدون رقابة وإشراف كافيين، قد تجد البشريّة نفسها عاجزة أمام المخترقين (هاكر - Hacker)، وقد يكون تطوّر الذّكاء الاصطناعيّ دون ضوابط ذا عواقب وخيمة بل ومهدّدة للحياة.
دعوة إلى التّنظيم
وفقًا للباحثين، يكاد التّنظيم الحاليّ أن يكون كافيًا لمواجهة التّحدّيات الّتي سوف تفرضها تقنيّات الذّكاء الاصطناعيّ المتطوّرة، إذ تشير الدّراسات إلى أنّ عدد المقالات البحثيّة في هذا المجال والّتي تُخصّص لأمان التّكنولوجيا لا يتجاوز الواحد حتّى ثلاثة بالمائة فقط. تعمل العديد من الأنظمة حاليًّا دون إشراف كافٍ، ولا تحدّد التّشريعات حدودًا واضحة لنشاطها. بناءً على ذلك، يُشير الكُتّاب إلى الحاجة إلى آليّات قانونيّة مُلزمة وقويّة وتنظيم ملائم لمنع السّيناريوهات الخطرة، الّتي تمّ ذكرها سابقًا، من التّحوّل إلى واقع.
في هذا الصّدد، يقترح كُتّاب المقال عددًا من التّوصيات لتحسين الرّقابة والإشراف على تقنيّات الذّكاء الاصطناعيّ. هم يدعون لمواجهة نقص الرّقابة بواسطة تخصيص ما لا يقلّ عن ثلث ميزانيّات التّطوير لرصد المخاطر وتقييمها. كما يقترحون إلزام مطوّري التّكنولوجيا بتسجيل منتجاتهم تحت إشراف حكوميّ أو هيئة مختصّة، والإبلاغ عن العلاقات مع أصحاب المصالح، وعن نقاط الضّعف المحتملة للتّكنولوجيا خلال مراحل التّطوير، مع الحفاظ على سرّيّة هويّة مكتشفي الثّغرات المحتملة.
عَبْرَ نظرة وتبصّر أشمل، يوصي الكُتّاب بوضع معايير أمان تتناسب مع قدرات الذّكاء الاصطناعيّ، وضمان تحمّل الشّركات المطوّرة المسؤوليّة القانونيّة عن الأضرار المتوقّعة. كما يقترحون إنشاء أطر تنظيميّة دوليّة تضمن التّعاون بين الدّول لمنع إساءة استخدام الذّكاء الاصطناعيّ. إلى جانب ذلك، هم يدعون إلى تطوير آليّات تُفعَّل تلقائيًّا عندما يبلغ تطوّر الذّكاء الاصطناعيّ درجات معينة غير مسبوقة، كتلك الّتي قد تعطيه القدرة على اتّخاذ قرارات حاسمة بشكل مستقلّ تمامًا، أو تطوير خوارزميّات يمكنها تكرار نفسها دون تدخّل بشريّ.
يقترح المؤلّفون تعزيز الرّقابة والإشراف على تقنيّات الذّكاء الاصطناعيّ. المركبات ذاتيّة التّحكّم.|cono0430, Shutterstock
الطّريق إلى الأمام
يشدّد الباحثون على أهمّيّة التّعامل مع قضيّة الذّكاء الاصطناعيّ بشكل شامل، يتضمّن نشاطًا استباقيًّا من قبل الحكومة، والحاجة إلى موازنة التّقدّم التّكنولوجيّ مع الرّقابة المسؤولة. يعتقد مؤلّفو المقال أنّه من خلال تنفيذ هذه التّوصيات، يمكن الاستفادة من مزايا الذّكاء الاصطناعيّ، وتقليل المخاطر المرتبطة به. قد تُسهم الخطوات الّتي يقترحونها في خلق بيئة مناسبة لتطوير تقنيّات الذّكاء الاصطناعيّ، مع الحفاظ على الأمان والخضوع للرّقابة الملائمة، ويشدّدون على أنّ استمراريّة التّطوّر التّكنولوجيّ لخدمة البشريّة تتطلّب فهمًا دقيقًا للعواقب والمخاطر. لذلك، إنّ دعوتهم إلى اتّخاذ إجراءات عاجلة وإشراف فعّال تُعتبر أمرًا حاسمًا لمنع المخاطر الجسيمة المحتملة، يليه ضمان استخدام أخلاقيّ لهذه التّكنولوجيا.
تمّ استخدام تقنيّات الذّكاء الاصطناعيّ في إعداد هذا المقال.