في عصر تتسارع فيه وتيرة التقدّم التكنولوجيّ، تلعب تطبيقات الذكاء الاصطناعيّ أدوارًا محوريّة في مختلف المجالات، بدءًا من القيادة الذاتيّة للسيارات وانتهاء بالتجارة الإلكترونيّة. ومع ذلك، يثير استخدامها تساؤلات جوهريّة حول المسؤوليّة عن الأخطاء والأضرار التي قد تنجم عنها، وخاصّة في ظلّ وجود عيوب قد تؤثر في سلامة المستخدمين وأمانهم.
وتواجه تطبيقات الذكاء الاصطناعيّ تحدّيات فريدة فيما يتعلّق بضمان العيوب، حيث يمكن أن تنشأ فيها أخطاء في التصميم أو البرمجة قد تلحق الضرر بالمستخدمين. ففي حال وقوع حادث بوساطة مركبة ذاتيّة القيادة، على سبيل المثال، تبرز تساؤلات حول من يتحمّل المسؤوليّة، أهو مالك المركبة، أم الشركة المصنِّعة، أم المطوّرون المسؤولون عن برمجيّات القيادة الذاتيّة؟
وتمتدّ هذه التساؤلات إلى المجال الماليّ؛ إذْ قد يؤدّي خطأ في تطبيق التجارة الإلكترونيّة أو تجارة الروبوت إلى اختيار الفائز الخطأ في مزاد، أو إجراء عمليّات شراء أو بيع بأسعار غير صحيحة تلحق غبنًا بالمستثمر. فمن يتحمّل المسؤوليّة في مثل هذه الحالات؟
من الممكن الإجابة عن هذه التساؤلات من خلال الاستكشاف الفقهيّ لمفهوم «جنايات العَجْمَاءُ جُبارٌ»، الذي يشير إلى الضرر الناتج عن كائن غير قادر عقليًّا على تحّمل المسؤوليّة، كالحيوانات أو الآلات أو التطبيقات. فوفقًا لهذا المفهوم، لا يمكن تحميل الآلة أو تطبيق المسؤولية مباشرة، ما يطرح تحدّيات حول كيفيّة تعويض الضرر الناتج عنها.
وتختلف المدارس الفقهيّة في تحديد من يتحمّل المسؤولية في حال وجود عيوب تؤدّي إلى الضرر. كما يرى بعضها أنّ وجود العيب وحده لا يكفي لإلغاء العقد ما لم يصاحبه تغرير، بينما ترى مدارس أخرى أنّ وجود العيب يعطي المتضرّرَ الحقَّ في إلغاء العقد، سواء صاحبه تغرير أم لا.
وفي ضوء التقدّم المتسارع في مجال الذكاء الاصطناعيّ، تبرز الحاجة الماسّة إلى تطوير إطار قانونيّ يستند إلى تأصيل فقهيّ، يتناول مسألةَ العيوبِ والمسؤوليّة بشكلٍ يضمن حقوقَ جميع الأطراف المعنيّة. ويجب أن يشمل هذا الإطار تحديدات واضحةً للمسؤوليّات وآليّاتٍ فعّالة للتعويض عن الأضرار، بما يتماشى مع مبادئ العدالة والإنصاف ويعزّز الثقة في استخدام تكنولوجيا الذكاء الاصطناعيّ.
محاضر رئيس في معهد البحرين للدراسات الماليّة والمصرفيّة BIBF
هل ترغب بالتعليق على الموضوع؟
لا تتردد في إعطاء تعليقك ومشاركة رأيك