هناك عدد محدود من الاكتشافات والاختراعات والابتكارات في تاريخ البشرية، كان لها تأثير عظيم على العالم، بطريقة لم يكن من الممكن تصورها من قبل. وفي عصرنا الحالي، ربما يكون «الذكاء الاصطناعي»، (المعروف اختصارًا باسم«AI»)، هو التطور «الأكثر بروزًا»، حيث وصفه «بيل جيتس»، مؤسس شركة «مايكروسوفت»، بأنه «أساسي لمستقبل المجتمع العالمي، مثله مثل اختراعات، معالجات الحاسوب الدقيقة، والحاسوب الشخصي، والهواتف المحمولة، والإنترنت».
ويرجع نشأة المصطلح إلى الحرب العالمية الثانية، وبالأخص إلى «آلان ماتيسون تورنغ»، محلل شفرات الحاسوب في عام 1950. وتوضح شركة «أي بي ام»، للبرمجيات، أنه يلخص بشكل أساسي، قدرة أنظمة الحوسبة -باستخدام مزيج من علوم الكمبيوتر، ومجموعات البيانات، والتعلم الآلي، وحل المشكلات- على «التفكير والتصرف مثل البشر»، في ظل هدف نهائي، هو تطوير أنظمة يمكنها التفكير والتصرف «بعقلانية»، بما يعكس السلوكيات، والتفكير البشري، والقضاء على الحاجة إلى وجود الإشراف البشري المستمر.
وفي حين أن تطوير مثل هذه الأنظمة، قد تم تعزيزه منذ زمن «تورنغ»؛ بهدف «تبسيط العمليات»، و«تعظيم الكفاءة»، و«القضاء على البيروقراطية»، فقد أشارت «أدريان لافرانس»، في مجلة «ذي أتلانتيك»، إلى أن هناك اتجاها لأن تكون مثل هذه «الثورة»، فرصة للاستعانة بمصادر خارجية من الآلات لتحقيق غرض أعلى هو تحقيق الذات البشرية».
ومع ذلك، أدى التطور السريع لهذه التقنيات خلال السنوات الأخيرة إلى زيادة المخاوف بين خبراء الصناعة وصانعي السياسات والمحللين -بما في ذلك المبتكرين في تقنية الذكاء الاصطناعي أنفسهم- بشأن القدرات التدميرية المحتملة لهذه الأنظمة، إذا تم التعامل معها بشكل غير صحيح، بالإضافة إلى مسألة التغييرات المجتمعية الأوسع نطاقا التي تزيد من الاعتماد على أنظمة الكمبيوتر لكل من العمليات البسيطة والمعقدة على حد سواء.
ويعتبر «الذكاء الاصطناعي التوليدي»، من أكثر الأمور التي تهم «الأمن»، و«التغيير المجتمعي». وأشارت شركة «ماكنزي»، إلى أنه «يستخدم الخوارزميات»، التي «يمكن استخدامها لإنشاء محتوى جديد، بما في ذلك «الصوت، والتشفير، والصور، والنص، والمحاكاة، ومقاطع فيديو»، بدون الحاجة إلى مشاركة بشرية مباشرة. وأضافت «لافرانس»، أنه «يتقدم حاليًا بسرعة لا تصدق»، ورأت وكالة «أسوشيتيد برس»، أن «الصعود السريع لأنظمة الذكاء الاصطناعي التوليدية»، قد «أبهر المستخدمين بقدراتها الكبيرة لتقليد الاستجابات البشرية إزاء سيناريوهات معقدة.
ويعد نظام «شات جي بي تي»، من بين أشهر البرامج المتاحة للاستخدام العام في هذا الصدد، والذي طورته شركة «أوبن أيه آي» الأمريكية، والذي يسمح للمستخدمين، بإنشاء نصوص مفصلة، ومكتوبة جيدًا بناءً على قائمة محددة من المُعطيات المعطاة للبرنامج، غير أنه نتيجة لاستخدامه الشائع من قبل الطلاب في الدراسة، فقد أثار مشاكل في المجال الأكاديمي. وفي «الولايات المتحدة»، تم القبض على محامٍ يستخدم هذا النظام، بعد أن استشهد بأوراق مُعدة بواسطة الذكاء الاصطناعي غير حقيقية في إحدى قضاياه. وأشار «مارك سافاج»، من شبكة «بي بي سي»، إلى اتجاه جديد يتمثل في «الأغاني التي تستخدم هذه التقنيات لتكرار أصوات النجوم الحقيقية»، في حين أن الصورة التي تم إنشاؤها بواسطتها، خدعت الحكام للفوز بجائزة «سوني» العالمية للتصوير الفوتوغرافي في مارس 2023.
وفي ظل الوضع الحالي، من المتوقع أن تستمر وتيرة هذه التطورات، إن لم تكن خاضعة للتنظيم والرقابة. وأشارت «لافرانس»، إلى أن أكبر شركات التكنولوجيا في العالم، مثل «مايكروسوف»، و«أمازون»، و«ألفابت»، و«ميتا»، تخوض بالفعل سباقًا لدمج الذكاء الاصطناعي في المنتجات الحالية»، بما في ذلك على سبيل المثال وسائل التواصل الاجتماعي، والبريد الإلكتروني، والخرائط.
علاوة على ذلك، يمكن أن يكون لاستخدام الصناعات والشركات، للذكاء الاصطناعي، «آثار واسعة»، على الاقتصاد العالمي. ووجدت دراسة من «جامعة بنسلفانيا»، وشركة «أوبن أيه آي»، أن 80% من القوى العاملة الأمريكية، تشهد انتقال ما لا يقل عن 10% مما يقومون به من مهام إلى أنظمة الذكاء الاصطناعي. بينما أوضحت شركة البرمجيات الألمانية «ساب»، بأنه سيكون وسيلة لـ«جعل الأمور أكثر كفاءة، وتكليف الموظفين بـ«أدوار أكثر تعقيدًا»، عوضًا عن «خفض الوظائف». وأظهر استطلاع أجرته شبكة «سي ان ب سي»، قلق ما يقرب من ربع العمال الأمريكيين من أن الذكاء الاصطناعي، سوف «يجعل وظائفهم عفا عليها الزمن»، «قريبًا». وجاء 51% من العاملين في مجال الإعلان والتسويق، و46% في خدمات دعم الأعمال والأدوار اللوجستية، هم الأكثر قلقًا.
واعترافًا بالمخاوف المتزايدة في هذا الصدد، حذرت «جيتا جوبيناث»، من «صندوق النقد الدولي»، من «اضطرابات كبيرة في أسواق العمل»؛ لأن أنظمة الذكاء الاصطناعي المنتجة والفعالة من حيث التكلفة، يمكن أن تقلل من فرص توظيف ملايين الأشخاص، حتى أولئك الذين يعملون في وظائف تتطلب مهارات وخبرات محددة.
من ناحية أخرى، تم تحديد سلسلة أخرى من التهديدات المباشرة من قبل «مركز أمان الذكاء الاصطناعي»، (CAIS) بالولايات المتحدة، والذي حذر من أن هذه التقنيات يمكن «استخدامها في مجال الأسلحة ذاتية التشغيل، والترويج للمعلومات المضللة، وتنفيذ الهجمات الإلكترونية»، فضلا عن أنه «يمكن للجهات المخربة أن تعيد استخدامها لتكون مدمرًة للغاية»، كما أن الأنظمة المستخدمة لتنفيذ هجمات إلكترونية، وتطوير عقاقير، يُمكن أيضًا «إعادة توظيفها لتصميم أسلحة كيميائية حيوية محتملة». فيما حذر أيضا من أن «طوفان المعلومات الخاطئة، والمحتوى المٌقنع الناتج عن الذكاء الاصطناعي»، بمقدوره أن يجعل المجتمع أقل استعدادًا للتعامل مع التحديات المهمة في عصرنا الحالي».
وفيما يتعلق بالمخاطر الأمنية الرئيسية الناشئة عن أنظمة الذكاء الاصطناعي نفسها، سلط «المركز»، الضوء على كيف يمكن للتقنيات المتقدمة وأنظمتها «تبديل استراتيجياتها» -دون سابق إنذار- و«اتخاذ خطوات لإخفاء أوجه خداعها»؛ لتحقيق أهداف سرية غير المبرمجة مسبقًا من أجل تحقيقها. وعلى هذا النحو، قد يكون لدى تلك الأنظمة «دوافع قوية للحصول على القوة المطلقة»، في ظل المنافسة لتطويرها، وبالتالي، قد تصبح «أكثر صعوبة في السيطرة عليها»، من قبل المشغلين لها.
وفي إدراك لذلك، أقر خبراء الصناعة والمحللون، بالمخاطر الجسيمة للاستخدام غير المنضبط للذكاء الاصطناعي. وفي بيان أصدره «مركز أمان»، في مايو 2023، وشارك في توقيعه عدد كبير من الأكاديميين والخبراء والقادة في مجال التطوير التقني؛ أكد أن الذكاء الاصطناعي يشكل «خطرًا قد يؤدي لفناء البشرية»، وأن التخفيف من التهديدات المتعلقة بأنظمته، يجب أن تكون «أولوية دولية»، مساوية في الخطورة للتهديدات الخاصة بالاستجابة «للمخاطر المجتمعية» الرئيسية الأخرى، مثل «الأوبئة والحرب النووية». وحذر «سوندار بيتشاي»، من شركة «جوجل»، من أن التكنولوجيا «يمكن أن تكون ضارة للغاية، إذا تم نشرها بشكل خاطئ»، محذرا من أن الذكاء الاصطناعي، يمكن أن يتسبب في مقتل «العديد والعديد من الضحايا».
وعند تقدير حجم مخاطر الذكاء الاصطناعي، عبر المجالات السياسية والاقتصادية والتكنولوجية، تبرز إشكالية ما يمكن القيام به فيما يتعلق بضبطها والتخفيف منها، وطرق مواجهتها. وفي حديثه أمام «الكونجرس»، الأمريكي في مايو 2023، دعا «سام ألتمان»، رئيس شركة «أوبن إيه آي»، إلى تشريع أقوى لكبح المخاطر المحتملة لهذه التقنيات، بالإضافة إلى اقتراح تأسيس وكالة أمريكية أو عالمية لتنظيم استخدام أنظمتها، وترخيص استعمالها لأطراف تعتبر جديرة بالثقة للاستفادة منها.
وعلى الرغم من عدم وجود «إطار عالمي»، حتى الآن لمواجهة هذه المخاطر؛ فإن الجهود المبذولة في مجال التعاون الدولي، «جارية»، بالفعل، خاصة مع «الولايات المتحدة»، و«الاتحاد الأوروبي»؛ بهدف «صياغة مدونة سلوك طوعية للسيطرة على الذكاء الاصطناعي». ومع ذلك، أشار «أليكس إنجلر»، من «معهد بروكينجز»، إلى وجود صعوبات في كيفية تشكيل ردود فعل أمريكية واضحة، في هذا الصدد عبر الوكالات الفيدرالية التي لا «تتمتع بسلطات قضائية لمواجهتها»، بالإضافة إلى أن الدول الأوروبية تهدف إلى أن يكون هناك «مجموعة أكثر شمولاً من التشريعات المصممة خصيصًا لمواجهة مخاطر البيئات الرقمية بشكل محدد». وعليه، فإن الاختلاف في فلسفة مواجهة هذه التهديدات، يجعل التوصيات السياسية بشأن الأطر المستقبلية وسبل التعاون «صعبة» للخبراء التقنيين.
ومع إشارة نائبة رئيس المفوضية الأوروبية «مارغريت فيستاجر»، إلى أن مثل هذه القواعد السلوكية، «لن تصبح سارية المفعول لمدة قد تصل إلى ثلاث سنوات»، من الاتفاقية المفترضة في هذا الصدد؛ فإن هناك «احتمالا قويا» -نظرًا للتقدم السريع الذي يتم إحرازه في مجال التكنولوجيا- أن تكون هذه التشريعات والتدابير ذات الصلة، قد عفا عليها الزمن فعليًا، قبل أن تكون محل تنفيذ على أرض الواقع.
وتأكيدًا على هذه المخاوف. ففي حين وصف رئيس الوزراء البريطاني «ريشي سوناك»، في يونيو 2023، الذكاء الاصطناعي، بأنه يمتلك «إمكانات مذهلة لتغيير حياتنا»، وأن «هناك حاجة ملحة للتأكد من تطويره واستخدامه بطريقة آمنة»؛ فقد كشف عن خطط بلاده لاستضافة «قمة دولية»، لقادة العالم والمسؤولين الحكوميين والخبراء التقنيين في الخريف القادم؛ لمحاولة حل الأسئلة العالقة حول تطبيق التشريعات الخاصة لمواجهة تهديداته. ومع تقرير شبكة «فرانس24»، أنه «يبحث عن دور قيادي»، لبريطانيا «في الحد من مخاطر الذكاء الاصطناعي المحتملة»؛ أفاد «سوناك»، أن «لندن»، «في وضع جيد للعب دور رائد» في هذا الصدد، وتتمتع «بقدرة فريدة على التنظيم الصائب لاستخداماته»، ويمكن أن تقدم نموذجًا للدول الأخرى لاتباعه، خاصة مع انفصالها عن اللوائح السياسية الأوروبية، فضلا عن كونها قوة لا يستهان بها في المرونة التشريعية.
ومع ذلك، فإن المدى الذي يمكن أن تتحكم فيه التشريعات، وأوجه التعاون الدولي بين الدول في طبيعة الاستخدام المتزايد للذكاء الاصطناعي، هو «محل شك». وترى «لافرانس»، أن الجهود التنظيمية للدول الغربية لسن التشريعات بشأن مواجهة هذه التقنيات، «ضرورية»، لكنها «قد تتعارض مع «التغييرات المجتمعية العميقة». ومن منطلق الحاجة إلى وجود حركة ثقافية وفلسفية أوسع «لمواجهة انتشار تقنيات الذكاء الاصطناعي»، رأت أنه يجب أن يكون هناك ثقة أكبر في «الإبداع البشري، والحدس الإبداعي»، ومقاومة «الاعتماد المفرط على الأدوات التكنولوجية التي تبدد حكمة وجمال فكرنا».
على العموم، يعد الانتشار السريع لاستخدامات الذكاء الاصطناعي وتطويره -خاصة تلك التي تسعى إلى مضاهاة الإجراءات والأفكار البشرية– «أمرا حيويًا»، للشركات وصانعي السياسات والمواطنين على حدٍ سواء. ويسمح تقدم هذه التقنيات بإدخال تحسينات في الكفاءة الصناعية، وإنتاجية العمل، والرعاية الصحية، والتعليم، وغيرها من المجالات الأخرى.
ومع ذلك، تمت الإشارة إلى المخاطر المحتملة لتلك التقنيات المتقدمة على التنمية البشرية والحياة، إذا تمت إساءة إدارتها أو استخدامها. ورغم أن مساعي اتخاذ إجراءات تشريعية لمنع الانتشار غير المنضبط لمثل هذه التقنيات لا زال قيد التنفيذ، فإنها ستكون متأخرة وغير مواكبة لحجم ووتيرة التقدم التقني. ومع ذلك، وكما أصرت «لافرانس»، فإن «نافذة إحداث تغييرات في عالم الذكاء الاصطناعي»، لا تزال مفتوحة في الوقت الحاضر».
هل ترغب بالتعليق على الموضوع؟
لا تتردد في إعطاء تعليقك ومشاركة رأيك