مسؤولیت مدنی هوش مصنوعی در حقوق کشورهای اتحادیه اروپا

پذیرفته شده برای ارائه شفاهی XML
: 1089-CLICL (R1)
نویسندگان
استادیار حقوق خضوصی و اسلامی دانشگاه شیراز
چکیده
امروزه ضرورت سازگار سازی مقررات با چالش‌های فناوری نوین بسیار احساس می‌شود. از جمله این موارد، فناوری هوش مصنوعی است. نظام مند کردن مقوله مسؤولیت هوش مصنوعی به لحاظ اجتماعی و اقتصادی حائز اهمیت است. لذا گزینش یک رژیم مشخص و منسجم مسؤولیت مدنی برای هوش مصنوعی بسیار دقیق لازم خواهد بود. قوانین ملی واگرا هستند و انعطاف پذیری متفاوتی برای سازگاری با چالش های هوش مصنوعی دارند. به طور کلی در اغلب مقررات کشورهای اروپایی، مسؤولیت مبتنی بر تقصیر به عنوان اصل پیش بینی شده است. در خصوص مبنای مسؤولیت هوش مصنوعی، مسؤولیت محض نیز به طور استثنایی برای چهار دسته مسؤولیت ویژه، همراه با بررسی امکان انطباق با هوش مصنوعی مطرح می شود. با توجه به تصویب‌نامه اخیر پارلمان اروپا که به صورت پیشنهاد به کمیسیون اروپا ارائه شده است، برای اپراتورهای سیستم هوش مصنوعی پر خطر مسؤولیت محض و در صورت تعدد، مسؤولیت تضامنی و مشترک پیش بینی؛ و برای سایر سیستمهای هوش مصنوعی، مسؤولیت مبتنی بر تقصیر به عنوان مبنا شناسایی شده است.
کلیدواژه ها
اصل مقاله

 

 

مسؤولیت مدنی هوش مصنوعی در حقوق کشورهای اتحادیه اروپا*

 

چکیده

امروزه ضرورت سازگار سازی مقررات با چالش­های فناوری نوین بسیار احساس می­شود. از جمله این موارد، فناوری هوش مصنوعی است. نظام مند کردن مقوله مسؤولیت هوش مصنوعی به لحاظ اجتماعی و اقتصادی حائز اهمیت است. لذا گزینش یک رژیم مشخص و منسجم مسؤولیت مدنی برای هوش مصنوعی بسیار دقیق لازم خواهد بود. قوانین ملی واگرا هستند و انعطاف پذیری متفاوتی برای سازگاری با چالش های هوش مصنوعی دارند. به طور کلی در اغلب مقررات کشورهای اروپایی، مسؤولیت مبتنی بر تقصیر به عنوان اصل پیش بینی شده است. در خصوص مبنای مسؤولیت هوش مصنوعی، مسؤولیت محض نیز به طور استثنایی برای چهار دسته مسؤولیت ویژه، همراه با بررسی امکان انطباق با هوش مصنوعی مطرح می شود. با توجه به تصویب­نامه اخیر پارلمان اروپا که به صورت پیشنهاد به کمیسیون اروپا ارائه شده است، برای اپراتورهای سیستم هوش مصنوعی پر خطر مسؤولیت محض و در صورت تعدد، مسؤولیت تضامنی و مشترک پیش بینی؛ و برای سایر سیستمهای هوش مصنوعی، مسؤولیت مبتنی بر تقصیر به عنوان مبنا شناسایی شده است.

واژگان کلیدی: هوش مصنوعی، مسؤولیت مبتنی بر تقصیر ، مسؤولیت محض، سیستم های پر خطر (با ریسک بالا)، اتحادیه اروپا

 

1- مقدمه

گزینش یک رژیم مشخص و منسجم مسؤولیت مدنی برای هوش مصنوعی این امکان را فراهم می نماید که خطرات سیستمهای مرتبط را کاهش داده و ایمنی آنها را افزایش دهد، عدم اطمینان حقوقی و هزینه های حقوقی و قضایی مربوط را کاهش می یابد و افزایش ضریب اعتماد و حقوق مصرف کننده را در پی دارد. این آثار در کنار هم می تواند به جذب و انتشار سریعتر و مسلماً ایمن تر هوش مصنوعی کمک کند. کشورهای عضو اتحادیه اروپا -به استثنای برخی موارد مربوط به هواپیماهای بدون سرنشین، وسایل نقلیه مستقل و برنامه های کاربردی هوش مصنوعی پزشکی- هنوز قانون خاصی را در رابطه با مسؤولیت هوش مصنوعی تنظیم و تصویب نکرده اند. بنابراین اقدام به موقع در این راستا، در سطح اتحادیه اروپا و حتی تنظیم مقررات یکپارچه در سطح بین المللی باعث کاهش پراکندگی مقررات و کاهش هزینه های تولیدکنندگان هوش مصنوعی می شود[1] و در عین حال به تأمین سطح بالایی از حمایت از حقوق اساسی و حقوق مصرف کننده در اتحادیه اروپا و عرصه بین الملل کمک می کند.

نظام مند کردن مقوله مسؤولیت هوش مصنوعی هم به لحاظ اجتماعی و هم اقتصادی حائز اهمیت است. رژیم مسؤولیت مدنی مسلماً بر میزان، جهت و انتشار سیستم های هوش مصنوعی تأثیر می گذارد. از یک سو، وضع مقررات مشترک اتحادیه اروپا درباره مسؤولیت و بیمه هوش مصنوعی از لحاظ اجتماعی، کاهش تعداد تصادفات، اثرات بهداشتی و محیط زیستی و نیز تاثیرات بر کاربر را در پی دارد. به علاوه، وجود مقررات توزیع کننده ی مخاطرات و سازوکارهای جبران خسارت، -به ویژه اگر با انصاف و عدالت همراه باشد -، موجب می شود مردم پذیرای انواع فناوری ها باشند. از سوی دیگر، وضع قوانین واضح و پیشین بینی چارچوب مقررات راجع به مسؤولیت هوش مصنوعی توجیه اقتصادی نیز دارد؛ که عبارتند از: منصرف کردن نقش آفرینان این عرصه از انجام فعالیت های پرخطر و در نتیجه پیشگیری و کاهش حوادث و همچنین ارتقای استانداردهای ایمنی ، تسهیل قیمت گذاری صحیح محصول یا خدمات. به علاوه با کاهش عدم اطمینان در روند دادرسی، سرمایه گذاری در نوآوری مورد تشویق قرار می گیرد و باعث گسترش و جذب فناوری توسط مصرف کنندگان می شود. فراتر از تأثیرات مستقیم در کاهش خطرات و افزایش ایمنی ، تنظیم مقررات مسؤولیت مدنی راجع به هوش مصنوعی تأثیرات پویایی بر نوآوری ، سرمایه گذاری در تحقیق و توسعه و در نهایت رقابت تجاری دارد. در حالی که عدم تبیین خسارات و استثنائات مرتبط، منجر به عدم اطمینان فزاینده می شود. که به طور بالقوه تأثیرات منفی بر عملکرد تولید کنندگان و حتی بیش از آن، برای مصرف کنندگان می نهد.

مطالعه تطبیقی مقررات محدود برخی کشورهای عضو اتحادیه اروپا نشان می دهد، نه تنها از نظر محتوایی بلکه از جهت میزان انعطاف پذیری مقررات برای انطباق با چالش های جدید مربوط به هوش مصنوعی، نیز اختلاف ها زیاد است. همین امر احتمال تفاسیر گوناگون و متغایر و اتخاذ شیوه های متعارض را در کشورها بالا می برد و در برخی شرایط، به طور بالقوه موانعی بر سر راه عملکرد بازار داخلی ایجاد می کند. این امر ضرورت تنظیم مقررات در سطح اتحادیه و بین الملل را دو چندان می کند. و از نتایج آن، کمک به انتشار و جذب فناوری های هوش مصنوعی و رقابت اقتصادی به ویژه میان کشورهای فعال در عرصه هوش مصنوعی، در سطح کلان و بین المللی است. همچنین به طور خاص، استفاده منطقی از منابع و معرفی یک مکانیسم توزیع عادلانه ریسک، موجب تشویق نوآوری و کاهش هزینه عدم اطمینان برای همه فعالان اقتصادی، افزایش اعتماد مصرف کننده و امنیت شغلی شهروندان می شود.

مقوله مسؤولیت مدنی و حمایت از حقوق مصرف کننده، محدود به خسارات ناشی از عیب کالاست و مقررات کشورها صرفاً این حوزه را پوشش می­دهد. و پذیرش مبنای مسؤولیت مناسب نیز مستلزم مطالعه تطبیقی مقررات داخلی کشورهاست. ویژگی این مطالعه تطبیقی آن است که به ویژه باید در نظر داشت که قوانین داخلی مربوط به مسؤولیت، از شبکه پیچیده ای از قوانین موضوعه و رویه عملی و عرف است که از سنت ها و رسوم حقوقی، فرهنگ و ارزش های نهفته و نهادینه شده در هر حوزه قضایی ملی به طور خاص، استخراج و استنباط می شود؛ قواعد حقوقی ای که بعضاً و به ویژه در کشورهای تابع سیستم حقوق عرفی، از خلال پرونده های حقوقی سر بر می­آورند. مبنای مسؤولیت هم اغلب یکی از دو حالت مسؤولیت مبتنی بر تقصیر و یا مسؤولیت محض می­باشد.

در بررسی جهت پذیرش مبنای مناسب مسؤولیت مدنی برای هوش مصنوعی، مطالعه و تحلیل تطبیقی قوانین داخلی کشورها به سه دلیل اصلی ضروری است: نخست آنکه، تجزیه و تحلیل قوانین ملی کمک می کند تا ارزیابی شود که تا چه حد قوانین ملی موجود، در صورت عدم تطابق، می توانند به طور موثر با چالش های فنآوری های جدید سازگار شوند. دوم اینکه، تحلیل حقوقی تطبیقی همچنین به درک بهتری از شباهت ها و تفاوت های موجود در مقررات کشورها کمک می کند و به نوبه خود به این ارزیابی کمک می کند که اختلافات موجود تا چه اندازه ممکن است مانع رسیدن به مقررات یکپارچه شود و بنابراین بر فعالین عرصه تجارت (تولید کنندگان و زنجیره تأمین) تأثیر منفی گذارد. نهایت آنکه، تجزیه و تحلیل تطبیقی قوانین ملی، بستر ارزیابی لازم را برای راه حل های احتمالی و اتخاذ راهکار عام فراهم می کند. اینکه آیا می توان مسؤولیت مدنی هوش مصنوعی را در زیرمجموعه یکی از دسته های مسؤولیت­های ویژه تحلیل کرد و یا ناگزیر از تبیین رژیم مسؤولیت ویژه برای هوش مصنوعی به عنوان دسته پنجم هستیم. مطالعه مقررات ملی کشورها اطلاعات ارزشمندی را به دست می دهد که می تواند به عنوان مبنای بحث و جستجو برای رویکرد مشترک مورد استفاده قرار گیرد.

نوشتار حاضر با رویکرد تطبیقی، همچنین مختصری از پیچیدگی های سیستم های مسؤولیت مدنی را ارائه می دهد. این مقاله، پس از تبیین اصطلاح هوش مصنوعی، وارد بحث مسؤولیت و مبانی آن می شود. با اذعان به اهمیت مسؤولیت مبتنی بر تقصیر، به دلیل محدودیت فضای بحث در مسؤولیت هوش مصنوعی، بر مبنای مسؤولیت محض، متمرکز شده و به تحلیل می­پردازد. سپس مسؤولیت­های ویژه را با مبنای مسؤولیت محض، و امکان انطباق هوش مصنوعی در دسته بندی های ارائه شده، بررسی می کند. در انتها رویکرد اخیر پارلمان و کمیسیون اروپا را در خصوص رژیم مسؤولیت مدنی هوش مصنوعی بیان می دارد.

 

2- مفهوم شناسی و انواع سیستمهای هوش مصنوعی

رایانه ها، همراه با هوش انسانی، پیشرفت کرده اند تا آنجا که به تنهایی تصمیم می گیرند. این توانمندی سیستم رایانه­ای در تصمیم گیری خودکار در اصطلاح رایج، هوش مصنوعی نامیده می شود. اصطلاح "هوش مصنوعی"به طور رسمی توسط آقای جان مک کارتی، دانشمند رایانه در کنفرانسی به سال 1956، به کار گرفته شد. به زعم وی، این اصطلاح بیانگر برنامه، پردازش و عمل بر روی اطلاعات، به گونه ای که نتیجه آن موازی با نحوه پاسخگویی یک انسان باهوش به ورودی مشابه است، می باشد. (Acosta, 2017) از این رو هوش مصنوعی جهت انجام کارهایی که به خلاقیت شبیه انسان نیاز دارند، توسعه یافته است.

با این حال، این سؤال پیش می آید که آیا نتایج ارائه شده توسط دستگاه، نتیجه هوش خاص خود است یا الگوریتم ها و دستورات؟ برای پاسخ به این سؤال، آلن تورینگ "آزمون تورینگ" را پیشنهاد کرد. در این آزمون، کاربران به مکالمه صرفاً متنی با یک ماشین و یک انسان می پردازند، و سپس اعتقاد کاربران را مبنی بر اینکه آیا با یک انسان یا ارتباط برقرار کرده اند یا یک ماشین، ثبت می کنند. (Turing, 1950) آزمون تورینگ نشان داد که پاسخ های دستگاه هوش مصنوعی از پاسخ های واقعی انسان قابل تشخیص نبودند. اگرچه این آزمایش برای چند سال به کار گرفته می شد، اما کاربرد آن تنها به دستگاه های گفتاری و برای اهداف خاصی، محدود می شد.

سیستم ها یا سامانه­های خبره – که به عقیده بسیاری بیشترین پیشرفت را در «هوش مصنوعی» به وجود آورده‌اند- برنامه هایی هستند که مشکلات را در رشته های تخصصی دانش، به منظور نامگذاری چند مورد حل می کنند. مانند تشخیص شرایط پزشکی، توصیه به درمان، تخمین شرایط زمین شناسی. (Johnson-Laird, 1990)

سیستم های ادراک سیستم هایی هستند که به رایانه امکان درک جهان با حس بینایی و شنوایی را می دهند. این مورد توسط توپولوژیست ها، متخصصان کلمه - متن و غیره استفاده می شود.

دسته آخر، برنامه زبان طبیعی است که برای درک معانی کلمات، نیازمند بانک اطلاعاتی فرهنگ لغت است. نکته قابل توجه این است که این سیستم، متن های مختلف دستوری و متنی را مورد توجه قرار می دهد تا یک تحلیل معنایی ارائه دهد.

 

3- مبانی قابل بررسی در مسؤولیت هوش مصنوعی در کشورهای عضو اتحادیه اروپا

به طور کلی در حقوق مدنی، خسارت­ها در دو بستر قرارداد و خارج از قرارداد جبران پذیر هستند (C. Bar and U. von Drobnig, 2004: 25;/ N. Jansen, 2010). مبنای مسؤولیت مدنی خارج از قرارداد در دو دسته عمده­ی مسؤولیت مبتنی بر تقصیر و مسؤولیت محض تحلیل می شود. مسؤولیت مبتنی بر تقصیر مطابق تعاریف ارائه شده، مستلزم احراز تقصیر طرف، خسارت و پیوند علّی بین تقصیر و خسارت است. اما مسؤولیت محض به تقصیر خاصی احتیاج ندارد و برای جبران خسارت طرف متضرر معمولاً فقط باید وقوع خسارت ناشی از نقض تعهد را ثابت کند. دامنه تعهدات خارج از قراردادی که تحت پوشش مبنای مسؤولیت محض و یا مسولیت مبتنی بر تقصیر قرار می گیرند، را قانون ملی تعیین می کند و بسته به مقررات حوزه قضایی خاص است. به عنوان مثال در برخی کشورها، قانون برای پوشش دهی خسارت وارد بر اشخاص ثالث ناشی از وسایل نقلیه موتوری، بیمه اجباری را به عنوان تکلیف استفاده کننده، در نظر می گیرد.

مسؤولیت مبتنی بر تقصیر به عنوان اصل مبنای مسؤولیت مدنی در مقررات داخلی کشورهای عضو شناسایی شده است. به عبارت دیگر، فرض اساسی این است که شخص ملزم به جبران خسارات ناشی از تقصیر یا سهل انگاری خود می­باشد. و بر همین اساس ، معمولاً ، به عنوان یک قاعده کلی ، مسؤولیت مبتنی بر تقصیر مستلزم تحقق تقصیر، وقوع خسارت و وجود پیوند علّی بین تقصیر و خسارت است. عموما بار اثبات نیز بر دوش مدعی است. در موارد محدود، قوانین داخلی کشورها، مسؤولیت محض و یا مسؤولیت بدون تقصیر را مبنا قرار می دهند. در مواردی که قانونگذاران نظر بر مسؤولیت محض دارند، زیاندیده لازم نیست تقصیر و رابطه علّی میان تقصیر و خسارت را اثبات نماید و وقوع خسارت کافی است. در موارد مسؤولیت محض، شخصی که مقررات در برگیرنده مسؤولیت محض، ریسک را به او منتسب می کند، مسؤول خسارات وارده است. و بدین ترتیب بازیابی خسارت برای زیاندیده سهل تر خواهد بود. از این رو مقررات داخلی کشورها برای لحاظ مسؤولیت محض، شرایط محدود کننده و به دقت طراحی شده ای را مقرر می کنند. این شرایط به طور معمول شامل موقعیتهای خطر قابل توجه و یا افزایش خطر عمومی است. همچنین در مسؤولیت­های ناشی از فعل صغیر، محجور، کارمند و نیز ناشی از فعل حیوانات، مبنا، مسؤولیت محض می­باشد.

یکی از مباحث حائز اهمیت و تعیین کننده در خصوص مسؤولیت مدنی هوش مصنوعی، انتخاب مبنای مناسب مسؤولیت برای سیستمهای مبتنی بر هوش مصنوعی است. پیش بینی می شود که مبنای مناسب مسؤولیت مدنی هوش مصنوعی که مورد پذیرش در مقرره یکپارچه آینده، به کارگیری ترکیبی از هردو مبنای مسؤولیت (مبتنی بر تقصیر و محض) باشد. هرچند برخی مبنای خطر را مطرح نموده اند.[2] این در حالی است که در اکثر سیستم های حقوقی، مسؤولیت مبتنی بر تقصیر به عنوان اصل و فرض کلی، و مسؤولیت محض، به شکل محدود و استثنایی است. اما اینکه آیا می توان ترکیبی از آن دو را مطرح نمود، نیازمند بررسی تطبیقی مقررات کشورها و در این مقال، کشورهای عضو اتحادیه اروپا راجع به مسؤولیت محض می باشد. چراکه این مقررات در هر کشوری، استثنای مسؤولیت مبتنی بر تقصیر به شمار می­روند و به علاوه تفاوت مقررات کشورها در حوزه مسؤولیت هوش مصنوعی، در جبران پذیری خسارات زیاندیده و تسهیل یا تحدید آن، تأثیر قابل توجهی دارد. بدین تعبیر که تفاوت در قلمرو مسؤولیت محض، می تواند از دید مخاطبان و مصرف کنندگان این فناوری، بسیار مهم باشد.

نظر به سطوح مختلف حمایتی ای که سیستمهای حقوقی مسؤولیت مدنی به عمل می­آورد و رژیم مشابهی که در بیمه شخص ثالث دیده می­شود، این که حادثه زیانبار در کدام کشور رخ داده، می تواند هم از جنبه شخصی و هم از لحاظ مالی، کل مابقی دوران زندگی زیاندیده و بستگان وی را تحت تاثیر قرار دهد. (C. Bar and U. von Drobnig, 2004)

مصوبه پارلمان اروپا در سال 2017 راجع به مقررات قانون مدنی در زمینه رباتیک، بیان می کند که رویکرد قانونگذاری آینده اتحادیه اروپا در مورد مسؤولیت مدنی باید با تجزیه و تحلیل دقیق، تعیین کند که آیا مسؤولیت محض قابل اعمال است یا روش مدیریت ریسک باید اعمال شود.[3] به نظر می رسد "مسؤولیت محض" حداقل برای برنامه های کاربردی هوش مصنوعی با مشخصات ریسک خاص ، در کمیسیون فعلی اروپا نیز مورد بحث و بررسی است.

 

4- هوش مصنوعی و مسؤولیت های ویژه در کشورهای عضو اتحادیه اروپا

پرسش اساسی این است که آیا می­توان و تا چه اندازه می­توان سیستم های هوش مصنوعی را در دسته های موجود مسؤولیت های ویژه با مبنای مسؤولیت محض، گنجاند و تحلیل نمود؟

مطالعه تطبیقی نشان می دهد که در مقررات کشورها، مسؤولیت محض برای چهار گروه مسؤولیت­های ویژه لحاظ شده است: خسارات ناشی از اشیا[4]، خسارات ناشی از فعالیتهای خطرناک[5]، خسارات ناشی از حیوانات[6] و مسؤولیت ناشی از فعل غیر (مسؤولیت نیابتی[7]). 

مقررات قانونی کشورهای عضو، بسته به قلمرو ماهوی و به ویژه قابلیت انعطاف برای پذیرش و امکان درونی سازی موقعیت های حادث و جدید دعاوی خسارت مرتبط با هوش مصنوعی، تحلیل می­شوند. در هر یک از چهار دسته مورد تجزیه و تحلیل ، کشورها در سه گروه قابل طبقه بندی هستند: گروه اول ، "باز[8] و انعطاف پذیر[9]" ، شامل سیستم هایی است که به اصول گسترده ای تکیه می کنند؛ لذا امکان سازگاری حقوقی با شرایط جدید را دارند. گروه دوم ، "مختلط[10]" ، شامل سیستم هایی است که لیست های جامعی از موقعیت ها را ارائه می کنند. گروه سوم ، "بسته[11] و باریک[12]" ، سیستم هایی را تحت پوشش قرار می دهد که یا اصلا برای هیچیک از دسته های چهارگانه مسؤولیت محض مقرراتی ارائه و تامین نمی کند یا مسؤولیت محض را بسیار محدود برای گروه خاص، آن هم در شرایط بسیار خاص اعمال می کنند.

4-1- خسارت ناشی از اشیا

قوانین ملی بیشترین موارد مسؤولیت محض را در خصوص "اشیا" آورده اند. که شامل کلیه موقعیتهایی می شود که خسارت ناشی از یک شیء خاص (غیر از بحث اشیای معیوب) وارد شده باشد. قوانین و رویه کشورها در رابطه با ماهیت و آنچه یک شیء را تشکیل می دهد، متفاوت است. پاره ای مقررات، ملموس بودن را شرط می­دانند؛ حال آنکه بعضی کشورها، موارد غیر ملموس را نیز در قلمرو شیء وارد می کنند. موضوع اختلافی دیگر در این خصوص آن است که آیا "خطرناک بودن" شیء، شرط مسؤولیت محض است؟

کشورهای با مقررات باز و انعطاف پذیر در این حیطه (مانند فرانسه، کرواسی، استونی، هلند و رومانی) اولاً بحث را محدود به کالاها و اشیای تولیدی معیوب نمی کنند؛ اشیای ناملموس را نیز در نظر می گیرند. ویژگی­های مقررات این قبیل کشورها موجب می شود که علیرغم عدم پیش بینی در مقررات کنونی، اگر در آینده پرونده های خسارت ناشی از نرم افزار، الگوریتم و یا سایر عناصر و کارکردهای سیستم هوش مصنوعی مطرح شود، راه حل مناسب را اتخاذ نمایند. و مسؤولیت محض را لحاظ کنند. هرچند برخی معتقدند در بسیاری از پرونده هایی از این دست، مثلا در خصوص نرم افزارها، میان مسؤولیت ناشی از "اشیا" و "فعالیت­ها"، به لحاظ تعریف خلط می شود.

در بند نخست ماده 1242 قانون مدنی فرانسه می خوانیم: «ما نه تنها در برابر خسارت ناشی از عمل خود ، بلکه همچنین در قبال عمل افرادی که مسئول آنها هستیم ، یا چیزهایی که در سلطه و بازداشت ما هستند ، مسئول هستیم.» البته اشیای خاص را قانونگذار فرانسه جدا از این ماده مطرح کرده است. (ساختمان در معرض خرابی : ماده 1244؛ تولیدات معیوب : ماده 1245؛ وسایل نقلیه موتوری زمینی: قانون خاص) اصل مسؤولیت محض نگهدارنده در برابر خسارت ناشی از چیزهایی که در سلطه و بازداشت وی است بسیار کلی است. شامل اشیا و دارایی های منقول و غیر منقول نیز می شود؛ چه خطرناک محسوب شوند یا نه؛ چه معیوب باشند چه نباشند؛ چه از سوی شخصی به کار گرفته شوند یا نه.[13]

ماده 1045 (3) قانون تعهدات مدنی کرواسی مسؤولیت محض را برای خسارت ناشی از اشیایی پیش بینی می کند که منبع قوی خطرزایی برای محیط زیست به شمار می روند. دادگاه عالی این کشور در تعریفی، شیء خطرناک را مواردی می داند که با توجه به هدف ، خصوصیات ، موقعیت ، مکان ، روش استفاده و ... ، خطر افزایش آسیب به محیط زیست را دارند و بنابراین باید با دقت بیشتری استفاده و نظارت شوند.[14] رویه قضایی کرواسی تاکنون با "خطرات سنتی" سروکار داشته و اشیای ذاتا خطرناک را شناسایی کرده (سلاح، مواد منفجره، وسایل نقلیه موتوری و غیره) و نیز اشیایی که معمولاً خطرناک قلمداد نمی شوند، اما می تواند در شرایط خاص خطرناک شوند (حیوانات ، ساخت و سازهای معیوب و غیره) را تعریف کرده است.

برخی کشورها مسؤولیت ناشی از اشیا و فعالیت های پرخطر را مبتنی بر خطر می­دانند. (مواد 1056 تا 1060 قانون حقوق تعهدات استونی) ماده 1058 قانون یاد شده به طور ویژه به مسؤولیت مالک سازه یا شیء خطرناک اشاره می کند.

کشورهای با سیستم مختلط، مسؤولیت اشیای خاص را نیز علاوه بر اشیای معیوب مدنظر دارند. این کشورها مقررات عمومی راجع به مسؤولیت محض اشیا را به مانند گروه نخست ندارند؛ اما مقررات ویژه ای در خصوص خسارت ناشی از اشیای خاص مانند ساختمانها پیش بینی کرده اند؛ و این مقررات خاص، محدود به اشیای معیوب نمی باشد. آلمان، ایتالیا، اسپانیا و ... در این گروه قرار دارند. در رابطه با مسؤولیت ناشی از "اشیا" ، قانون مدنی آلمان بین خسارت ناشی از استفاده از یک شیء ملموس یا غیر ملموس و خسارتی که مستقیماً توسط شخص وارد می شود، تمایزی قائل نشده است. مسؤولیت مالک یک قطعه زمین طبق ماده 836 قانون مدنی آلمان مبتنی بر فرض تقصیر است. این ماده پیش بینی می کند که اگر ریزش ساختمان یا سازه دیگری که به زمین متصل است ، یا خراب شدن قسمت هایی از ساختمان یا سازه ، منجر به مرگ یا جراحت شخصی یا آسیب رساندن به سلامتی یا اموال شخص شود، صاحب زمین (مالک متصرف) در برابر خسارت وارده به فرد آسیب دیده تا جایی که حادثه ناشی از ساخت و ساز معیوب یا نگهداری ناکافی ساختمان باشد ، مسئول است. در قضاوت اخیر دادگاه فدرال آلمان مسؤولیت بدون تقصیر را -که در قانون مدنی برای صاحبان ساختمان پیش بینی نشده است-، با وحدت ملاک ماده 906 (راجع به فرار از مواد غیر قابل تحمل (خطرناک)) در موردی که آتش سوزی ناشی از کار در پشت بام یک ساختمان به اموال همسایه آسیب رساند، مطرح نمود.

گروه سوم شامل سیستم هایی است که مقررات محدودی آن هم در خصوص اشیای خاص و معیوب دارند. و مسؤولیت محض را صرفا در این موارد ویژه در نظر می گیرند. این گروه از نظر قلمرو مسؤولیت محض، محدودترین به شمار می روند. کشورهای یونان، سوئد و پرتغال در این زمره اند. در مقررات کشور سوئد مسؤولیت محض نسبت به اشیا دیده نمی شود. در پرتغال نیز همین وضعیت حاکم است. در مورد خسارت ناشی از ساختمان یا سایر اشیا، مسؤولیت ناشی از تقصیر است. مطابق ماده 492 قانون مدنی پرتغال، در صورتی که ساختمان یا سایر تأسیسات به دلیل نقص ساخت و ساز یا نگهداری خراب شود و باعث خسارت شود، مالک یا مستأجر مسؤولیت را بر عهده می گیرد.

4-2- خسارت ناشی از فعالیت­های خطرناک

دومین مقوله مسؤولیت­های ویژه در سیستم های ملی که از قاعده عام مسؤولیت مبتنی بر تقصیر خارج می شود، فعالیت های خطرناک است. در اینجا نیز تجزیه و تحلیل تطبیقی بر اساس همان طبقه بندی ارائه شده در رابطه با "اشیا" پیش می رود.

گروه اول کشورهای دارای مقررات انعطاف پذیر و باز است که می تواند به طور بالقوه هر فعالیتی را که طبق قوانین و رویه جاری آن کشور خطرناک تلقی می شود، پوشش دهد. اینکه چه امری فعالیت خطرناک محسوب می­شود، اغلب از سوی دادگاه های ملی تبیین و تعیین می شود. از جمله آنکه، در مورد تلفیق فعالیتهای خطرناک مربوط به سیستمهای هوش مصنوعی ، این گروه از کشورها بالقوه انعطاف پذیرترین هستند. مقررات مربوطه در کشورهایی مانند ایتالیا، پرتغال[15]، کرواسی و مجارستان باز و انعطاف پذیر هستند.

مطابق ماده 2050 قانون مدنی ایتالیا، هر کسی که در حین انجام یک فعالیت خطرناک به دیگران آسیب برساند (اعم از خطرناک بودن این خطر به خودی خود یا در نتیجه استفاده از وسایل باشد) باید غرامت بپردازد، مگر اینکه ثابت کند که برای جلوگیری از ضرر، همه اقدامات احتیاطی مناسب را انجام داده است (واژگونی بار اثبات).

دادگاه رسیدگی عالی ایتالیا این فعالیتهای خاص را خطرناک دانسته است : تولیدات دارویی[16]، قطع درخت[17]، استفاده از انرژی هسته ای[18]، بارگیری و تخلیه کالا با بالابر ، جرثقیل و آسانسور حمل بار[19]، و کارخانه های چوب بری[20].

کشورهای گروه دوم ، مقررات مربوط به فعالیت های خطرناک را فقط به موارد خاص محدود می کنند. این موارد خاص بسیار متنوع است و به عنوان مثال شامل خطرات طبیعی ناشی از آلودگی آب، خاک و هوا (بلغارستان، فرانسه ، رومانی) ؛ خطرات فناوری (فرانسه ، آلمان ، رومانی) یا محصولات خطرناک (فرانسه ، اسپانیا) می باشد. مقررات فرانسه در بردارنده مواردی خاص مربوط به فعالیتهای خطرناک ، به ویژه مربوط به خطرات فنی و طبیعی است. قانون شماره 2003-699 از 30 ژوئیه 2003 در مورد جلوگیری از خطرات فنی و طبیعی و جبران خسارت[21] فرانسه که مقررات مربوط به جبران خسارت را در قانون بیمه، در یک فصل جدید تحت عنوان "بیمه خطر فنی در برابر بلایای فنی" درج می کند (مواد 128-1 تا 128-4 قانون بیمه). همچنین فرمان شماره 2005-1466 از 28 نوامبر 2005 در مورد جبران خسارت قربانیان بلایای فناوری[22] و مواد 128-1 تا 128-4 اصلاحی قانون بیمه در این زمینه قابل استناد هستند.

گروه سوم و آخر (بلژیک، یونان، هلند، مالت و سوئد) سیستم هایی را شامل می شود که یا هیچ مقرره و ماده ای را ارائه نمی دهد، یا بسیار محدود است؛ بدین ترتیب که در قوانین خاص، مقرره ای مربوط به مسؤولیت فعالیت های خطرناک تنظیم شده است. بنابراین، برای مثال، در حالی که در قانون مدنی یونان مقررات کلی در رابطه با مسؤولیت محض در قبال فعالیت های خطرناک وجود ندارد، قانون هواپیمایی مسؤولیت محض شرکت هواپیمایی را پیش بینی کرده است. به همین ترتیب ، در مالت ، قوانین خاص مسؤولیت در مورد مواد منفجره و آتش بازی اعمال می شود.

4-3- خسارت ناشی از حیوانات

به نظر می رسد مقررات داخلی کشورهای عضو در خصوص مسؤولیت محض خسارت ناشی از حیوانات هماهنگ­تر هستند. اغلب کشورهای عضو در قانون مدنی خود مسؤولیت محض را در قبال خسارات وارده ناشی از حیوانات (نه فقط حیوانات خطرناک) پیش بینی کرده اند. مطابق ماده 1243 قانون مدنی فرانسه، مسؤولیت محض صاحب یا استفاده کننده از حیوان در قبال خسارت وارده ناشی از آن حیوان، شناسایی شده است و شرایط آن از طریق رویه قضایی توسعه پیدا کرده است.[23]

علی رغم تبعیت اغلب کشورهای عضو از مقررات باز و انعطاف ناپذیر در مسؤولیت محض مرتبط با حیوانات، هستند معدود کشورهایی مانند آلمان، پرتغال و مجارستان، که مسؤولیت محض را فقط در مورد خاص حیوانات خطرناک یا حتی نوع خاصی از خطر (مخصوص یک حیوان)، اعمال می کنند. (ماده 833 (1) قانون مدنی آلمان)

همچنین مطابق بند دوم ماده 833 قانون مدنی آلمان، در مواردی که حیوان اهلی می شود و به منظور انجام مقاصد حرفه­ای، معیشت یا درآمد نگهدارنده، نگهداری می شود، اگر وی مراقبت های لازم در نظارت بر حیوان به عمل آورده باشد و یا حتی در فرض مراقبت نیز، خسارت وارد می­آمد، نگهدارنده هیچ گونه مسؤولیتی ندارد. ماده 834 قانون یاد شده، نگهبان حیوان را با فرض تقصیر، مسؤول دانسته است.

سیستم سوم ، یک گروه بسیار کوچک ، شامل دو کشور استونی و سوئد است. سوئد آن هم به موجب قانون خاص، مسؤولیت محض را فقط در مورد سگ­ها پذیرفته است. بند 19 قانون نظارت بر گربه ها و سگ­ها مقرر می دارد که صاحب سگ در قبال خسارات وارده توسط سگ کاملاً مسئول است. و مسؤولیت صاحب گربه در قبال خسارات وارده توسط گربه اش مبتنی بر تقصیر است. با این وجود، از سگ های پلیس و ارتش اگر در حال فعالیت برای پلیس یا نیروهای مسلح خسارت وارد آورند و رفتار قربانی مداخله منجر به خسارت را توجیه کند، مشمول مقررات مسؤولیت محض نخواهد بود.

با مروری بر مقررات ملی کشورهای عضو، برای مثال، یکی از راه حل های ممکن و عمومی که به عنوان اصل برای مسؤولیت مدنی سیستم های هوش مصنوعی که در حال حاضر پیشنهاد شده است، اعمال مقررات خسارت ناشی از حیوانات است. بدین ترتیب که با اعمال مبنای مسؤولیت محض در خصوص خسارات ناشی از حیوانات، برای مسؤولیت سیستم های هوش مصنوعی، این امکان فراهم می شود که میان انواع سیستمهای هوش مصنوعی با توجه به سطح خسارت ناشی از آن­ها تمایز قائل شویم و مسؤولیت محض را محدود به خسارت ناشی از گونه های خاصی از سیستمهای هوش مصنوعی که قابل انتساب و تشابه به حیوان هستند، بدانیم.

در مجموع ، به منظور یافتن و دسترسی به یک راه حل کارآمد و نیز یک رویکرد مشترک در قبال مسؤولیت مدنی برای سیستم های هوش مصنوعی ، مقررات ملی در خصوص مسؤولیت محض خسارت ناشی از حیوانات، مبنای معتنا بهی برای بحث و تحلیل می­باشد.

4-4- مسؤولیت ناشی از فعل و تقصیر غیر (مسؤولیت نیابتی)

مسؤولیت نیابتی از نظر مفهومی متفاوت است از سایر استثناهای اصل مسؤولیت مبتنی بر تقصیر که در بندهای قبلی بحث شد. و به معنای مسؤولیت در برابر تقصیر شخص دیگری است. مقررات مرتبط با این مقوله نیز استثنای بر مبنای عام تقصیر می باشد.

این نوع مسؤولیت مجموعه ای از شرایط مختلف را پیش بینی می کند که یک شخص در آن شرایط خاص، مسئول اقدام شخص دیگری (به عنوان مثال والدین برای فرزندان خود) باشد. مصادیق مسؤولیت نیابتی، این دسته را بسیار جالب نموده است؛ چراکه شامل موقعیت های بسیار متنوعی است. در این بحث نیز همان طبقه بندی سیستمهای ملی اعمال می شود.

کشورهایی که مقررات آنها بیشترین دامنه موقعیت­ها را تحت الشمول مقررات مربوط به مسؤولیت نائب قرار می دهد، به عنوان "باز" طبقه بندی می شوند. کشوری که حداقل در سه زمینه مسؤولیت نیابتی را شناسایی کند، در این طبقه قرار می­گیرد. این امر در سیستم ملی مجارستان صدق می کند چراکه مقررات این کشور مسؤولیت کارفرما را برای اقدامات کارمند خود، مسؤولیت شخص حقوقی را برای اقدامات عضو آن، مسؤولیت اصیل را برای اعمال نماینده، و مسؤولیت قیم برای افعال محجور، پیش بینی نموده است.

آنگونه که در بند نخست ماده 1242 قانون مدنی فرانسه خواندیم: «ما نه تنها در برابر خسارت ناشی از عمل خود، بلکه همچنین در قبال عمل افرادی که مسئول آنها هستیم ، یا چیزهایی که در بازداشت ما هستند ، مسئول هستیم.» قانون مدنی فعلی فرانسه سه مصداق مسؤولیت نیابتی را پیش بینی کرده است: مسؤولیت محض والدین در قبال خسارت وارده از سوی فرزندان (بندهای 4 و 7 ماده 1242)، مسؤولیت اربابان و کارفرمایان (مدیران) در قبال خسارات وارده توسط کارمندان آنها در انجام وظایف استخدامی (بند 5 ماده 1242) و مسؤولیت معلمان و صنعتگران برای خسارت وارده توسط دانش آموزان و کارآموزان خود در مدت زمانی که تحت نظارت آنها هستند.

معیار تشخیص کشور دارای سیستم مختلط، پذیرش دو مصداق از چهار مصداق مسؤولیت نیابتی است. (مواد 2047 و 2048 قانون مدنی ایتالیا ، بندهای 2 تا 4 ماده 1384 قانون مدنی بلژیک و ماده 1903 قانون مدنی اسپانیا)

سرانجام ، گروه سوم ، کشورهایی را نشان می دهد که باریک ترین و محدودترین رویکرد را در رابطه با مسؤولیت نیابتی دارند.

مسؤولیت نیابتی در قانون آلمان مسؤولیت محض نیست؛ بلکه ابزاری برای نسبت دادن تقصیر شخص دیگر یا خطای ناشی از نظارت ناکافی بر شخص دیگر می­باشد. لذا مسؤولیت مبتنی بر تقصیر است. (ماده 831 قانون مدنی آلمان)

 

5- رویکرد اخیر پارلمان و کمیسیون اروپا را در خصوص رژیم مسؤولیت مدنی هوش مصنوعی

امروزه ضرورت سازگار سازی مقررات با چالش­های فناوری نوین بسیار احساس می­شود. کشورها به ویژه کشورهای عضو اتحادیه اروپا به طور فزاینده ای توجه خود را به تنظیم مقررات مسؤولیت مدنی سیستم های هوش مصنوعی معطوف می کنند. به گونه ای که تعدادی از برنامه های ملی هوش مصنوعی به طور خاص مسائل مربوط به مسؤولیت را بررسی می کنند. با توسعه و جذب گسترده تر سیستم های هوش مصنوعی پیش بینی می شود که در یکی دو سال آینده، علیرغم فقدان مقررات متحدالشکل، شاهد ابتکارات قانونی کشورها در این عرصه باشیم. این امر با پویایی قانونگذاری مربوط به هواپیماهای بدون سرنشین به وضوح نشان داده می شود. در قلمرو اتحادیه اروپا فقدان رویکرد مشترک منجر به ظهور قوانین ملی واگرایی شده است که به دنبال افزایش جذب این فناوری خاص، اتخاذ راهکار اقدامات مشترک ضرورت یافته است. از این رو، اتحادیه اروپا وارد عمل شده و قوانینی را رفته رفته در سطح اتحادیه اروپا تصویب می کند. که صدالبته با مانع اختلاف در سنتهای حقوقی کشورهای عضو رو به رو است. (Tatjana Evas, 2020: 49)

سرانجام در 20 اکتبر 2020 ، پارلمان اروپا پیشنهادهای قانونی مفصلی را در مورد رژیم مسؤولیت مدنی برای هوش مصنوعی ارائه داد. کمیسیون اروپا پیشنهادات و گزارشهای ارسالی توسط پارلمان اروپا را بررسی می کند و انتظار می رود، پیشنهاد قانونی خود را در این خصوص در اوایل سال 2021 گزارش دهد.

این طرح[24] رژیم مسؤولیت دو گانه ای را متشکل از «سیستم های هوش مصنوعی "با ریسک بالا"» و «سایر سیستم های هوش مصنوعی» در نظر می گیرد. البته دستکم دو اصل مشترک را برای هر دو مورد لحاظ می کند. اصول مشترک برای اپراتورهای هر دو مورد سیستم خطرناک و سایر سیستم های هوش مصنوعی عبارتند از:

نخست آنکه، اپراتورها نمی توانند به بهانه اینکه ضرر، ناشی از فعالیت ، دستگاه یا فرآیند مستقل ناشی از سیستم هوش مصنوعی بوده است، از این مسؤولیت فرار کنند.

دیگر آنکه، در مواردی که اپراتورهای متعددی درگیر هستند ، باید مسؤولیت مشترک و تضامنی داشته باشند ، اما هر اپراتور حق دارد بخشی از غرامت را از سایر اپراتورها، متناسب با مسؤولیت آنها، دریافت کند؛ مشروط بر اینکه خسارت شخص زیاندیده به طور کامل جبران شود.

در خصوص سیستمهای پرخطر هوش مصنوعی، باید گفت یک سیستم هوش مصنوعی که به طور مستقل کار می کند ، در صورتی خطرناک تلقی می شود که پتانسیل قابل توجهی برای ایجاد آسیب به یک یا چند نفر به روشی تصادفی داشته باشد و فراتر از حد انتظار باشد. وسایل نقلیه خودران و ربات های خودمختار در این دسته قرار می گیرند. مهمتر آنکه، اپراتورهای سیستمهای هوش مصنوعی "با ریسک بالا" طبق این مقررات پیشنهادی، در قبال آسیب یا خسارت ناشی از فعالیت ، دستگاه یا فرآیند رانده شده توسط آن سیستم هوش مصنوعی ، کاملاً مسؤول خواهند بود. سعی و اهتمام در عدم ورود خسارت، دفاع محسوب نمی شود و هرگونه تلاش و شرط حذف مسؤولیت در توافق نامه با کاربران، فاقد اعتبار است. براساس این پیشنهاد، مدعی می تواند تا سقف دو میلیون یورو برای مرگ یا جراحت شخصی، و تا سقف یک میلیون یورو برای خسارت اقتصادی یا خسارت به اموال، مطالبه و دریافت کند. اپراتورهای فناوری هوش مصنوعی با ریسک بالا - مانند آنچه در وسایل نقلیه موتوری استفاده می شود ، می بایست مسؤولیت خود را اجباراً بیمه نمایند. در شرایط خاص ، دعاوی مرتبط، محدود به مرور زمان 30 ساله خواهند بود.

سایر سیستمهای هوش مصنوعی، مشمول مسؤولیت مبتنی بر تقصیر قرار می گیرند. لذا اگر اپراتور بتواند ثابت کند که سیستم هوش مصنوعی بدون اطلاع وی فعال شده است (و اقدامات منطقی برای جلوگیری از این امر انجام شده است)، یا اینکه در رابطه با سیستم هوش مصنوعی دقت لازم انجام شده است، اثبات عدم مسؤولیت وی (اپراتور) امکانپذیر خواهد بود. کشورهای عضو اتحادیه اروپا مجاز هستند سطح جریمه ها و مدت مرور زمان این دعاوی را تعیین نمایند.

 

6- نتیجه گیری

قوانین ملی واگرا هستند و انعطاف پذیری متفاوتی را برای سازگاری با چالش های هوش مصنوعی فراهم می کنند.  تجزیه و تحلیل سیستم های ملی یک نمای کلی جالب از پیچیدگی و تنوع رویکردها را ارائه می دهد. در تمامی مقررات ملی به جز برخی موارد استثنا، اصل مسؤولیت ناشی از تقصیر پیش بینی شده است. عمده مقررات مسؤولیت مدنی خاص و ویژه پیرامون چهار حوزه، مطرح و تنظیم شده است: خسارات ناشی از اشیا، خسارات ناشی از فعالیتهای خطرناک، خسارات ناشی از حیوانات و مسؤولیت ناشی از فعل غیر (مسؤولیت نیابتی). مقررات کشورها در هریک از این حوزه ها، منعطف و باز و یا سختگیرانه است. برخی قوانین ملی، مقررات و شرایط عمومی مسؤولیت انعطاف پذیری دارند. و اصطلاحاً واجد سیستم باز مسؤولیت هستند. بر عکس، مقررات ملی که لیست جامع و در عین حال بسته ای را از انواع مسؤولیتها ارائه می دهد و یا مسؤولیت را برای حوزه های چهارگانه موصوف تبیین نمی کند، در زمره سیستم محدود طبقه بندی می شود. کشوری که مقررات باز و انعطاف پذیر را در حوزه مسؤولیت دارد، امکان و ظرفیت درونی سازی موقعیت های احتمالی و جدید خسارت از جمله خسارت­های ناشی از هوش مصنوعی، را از طریق تفسیر مقررات موجود خود، دارد.

با مروری بر مقررات ملی کشورهای عضو، برای مثال، یکی از راه حل های ممکن و عمومی که به عنوان اصل برای مسؤولیت مدنی سیستم های هوش مصنوعی که در حال حاضر پیشنهاد شده است، اعمال مقررات خسارت ناشی از حیوانات است. بدین ترتیب که با اعمال مبنای مسؤولیت محض در خصوص خسارات ناشی از حیوانات، برای مسؤولیت سیستم های هوش مصنوعی، این امکان فراهم می شود که میان انواع سیستمهای هوش مصنوعی با توجه به سطح خسارت ناشی از آن­ها تمایز قائل شویم و مسؤولیت محض را محدود به خسارت ناشی از گونه های خاصی از سیستمهای هوش مصنوعی که قابل انتساب و تشابه به حیوان هستند، بدانیم. (Tatjana Evas, 2020: 32)

در مجموع ، به منظور یافتن و دسترسی به یک راه حل کارآمد و نیز یک رویکرد مشترک در قبال مسؤولیت مدنی برای سیستم های هوش مصنوعی ، مقررات ملی در خصوص مسؤولیت محض خسارت ناشی از حیوانات، مبنای معتنا بهی برای بحث و تحلیل می­باشد.

طرح پیشنهادی اخیر (اکتبر 2020) پارلمان اروپا به کمیسیون اروپا رژیم مسؤولیت دو گانه ای را بر حسب سیستم های هوش مصنوعی "با ریسک بالا" و سایر سیستم های هوش مصنوعی با دو اصل مشترک (مسؤولیت اپراتور، مسؤولیت مشترک و تضامنی اپراتورها)، در نظر می گیرد. همچنین برای سیستمهای پر خطر هوش مصنوعی، مبنای مسؤولیت محض؛ و برای سایر سیستمهای هوش مصنوعی، مسؤولیت مبتنی بر تقصیر در نظر می گیرد.

 

7- منابع :

  1. Acosta, Raquel, Artificial Intelligence And Authorship Rights, Harvard Journal Of Law And Technology: Feb. 17, 2012:

Https://Jolt.Law.Harvard.Edu/Digest/Artificial-Intelligence-And-Authorship-Rights

  1. Artificial Intelligence and Civil Liability, Policy Department for Citizens' Rights and Constitutional Affairs, Directorate-General for Internal Policies, European Parliament, PE 621.926: 2020.
  2. Bar C. and von Drobnig U. The Interaction of Contract Law and Tort and Property Law in Europe: A Comparative Study: 2004.
  3. Décret n° 2005-1466 du 28 novembre 2005 sur l'indemnisation des victimes de catastrophes technologiques et modifiant le code des assurances
  4. European Parliament, Resolution on Civil Law Rules on Robotics, P8_TA(2017)0051: 16 February 2017.
  5. European Parliament resolution of 20 October 2020 with recommendations to the Commission on a civil liability regime for artificial intelligence (2020/2014(INL)).
  6. Evas, Tatjana, Civil liability regime for artificial intelligence: European added value assessment, European Added Value Unit: sep 2020.
  7. European Parliament 2017 resolution
  8. Jansen, N., “The Concept of Non-Contractual Obligations: Rethinking the Divisions of Tort, Unjustified Enrichment, and Contract Law”, Journal of European Tort Law, Vol.1, 2010, 26 pages.
  9. Johnson-Laird, A., “Neural Networks: The Next Intellectual Property Nightmare?”, The Computer Lawyer, Vol.7: 14 March 1990, pp.7-16.
  10. Law No. 2003-699 of 30 July 2003 concerning the prevention of technological and natural risks and compensation for damage
  11. Turing, Alan M., “Computing Machinery and Intelligence”, University of Oxford: MIND 236, October 1950, pp.433–460.

 

 

 

 

 

 

        Civil Liability of Artificial Intelligence in EU Members’ Laws

 

 

Abstract

 

Nowadays, it is necessary to adapt regulations to the challenges of new technology. Liability policies have substantial economic and social impacts. Therefore, choosing a clear and coherent civil liability regime for artificial intelligence will be very crucial. National rules are divergent and provide varying degrees of flexibility to adjust to the challenges of AI. Fault-based liability is a general presumption in most European legal systems. The comparative analysis to choose the basis liability for AI has focused on the four general groups of situations commonly covered in national law by strict liability provisions. According to a recent European Parliament resolution submitted to the European Commission as a proposal, it has been provided a strict liability for the operator of the "high-risk" AI system. Where multiple operators are involved, they should be jointly and severally liable. Other AI systems would be subject to a fault-based liability regime.  

 

Key words: Artificial Intelligence, Fault-based liability, strict liability, "high-risk" AI systems, European Union (EU).



*  مقاله حاضر با توجه به مصوبه 20 اکتبر 2020 پارلمان اروپا همراه با با توصیه هایی به کمیسیون در مورد رژیم مسؤولیت مدنی هوش مصنوعی و نیز با استفاده از مطالعه ای (EAVA) که در خصوص رژیم مسؤولیت مدنی برای هوش مصنوعی به حمایت سرویس تحقیقاتی پارلمان اروپا در سپتامبر 2020 منتشر شده، نگاشته شده است.

[1] در زمینه مسؤولیت هوش مصنوعی، یکی از مسائل حائز اهمیت و قابل توجه، توانایی محاسبه خطرات مسؤولیت­زا به ویژه در محصولات نوآورانه مانند سیستم های هوش مصنوعی برای هر تولید کننده ، بسیار مهم است. (Tatjana Evas, 2020: 49)

[2] Artificial Intelligence and Civil Liability, Policy Department for Citizens' Rights and Constitutional Affairs, Directorate-General for Internal Policies, European Parliament, PE 621.926, 2020.

[3] Paragraph 53, European Parliament 2017 resolution.

[4] strict liability for 'things'

[5] strict liability for 'dangerous' activities

[6] strict liability for 'animals

[7] vicarious liability

[8] open

[9] flexible

[10] mixed

[11] close

[12] narrow

[13] Cour de Cassation (Cass.), Joined Chambers, 13 February 1930, Jand'heur.

[14] Rev 190/2007-2 of 27 March 2007.

[15]  پرتغال در واقع خارج از این گروه است. اگرچه مقررات ملی متضمن شروط باز است ، اما بر مبنای مسؤولیت محض نیست؛ بلکه مسؤولیت مبتنی بر تقصیر را پیش بینی می کند.

[16] Supreme Court of Cassation, Judgment No 8069, 20 July 1993.

[17] Supreme Court of Cassation, Judgment No 1188, 21 April 1954.

[18] Regulated by Law no 1860/1962, as well as by Presidential Decree No 519/1975 and Ministerial Decree No 20/03/1979.

[19] Supreme Court of Cassation, Judgment No 103, 19 January 1965.

[20] Supreme Court of Cassation, Judgment No 3691, 12 November 1969.

[21] Law No. 2003-699 of 30 July 2003 concerning the prevention of technological and natural risks and compensation for damage

[22] Décret n° 2005-1466 du 28 novembre 2005 sur l'indemnisation des victimes de catastrophes technologiques et modifiant le code des assurances

[23] Cass., 2nd civ., 15 April 2010, No 09-13.370 ; Cass., 2nd civ., 9 January 1991, No 89-15.489.

[24] European Parliament resolution of 20 October 2020 with recommendations to the Commission on a civil liability regime for artificial intelligence (2020/2014(INL)).