Legal Civilization
Vol. 6, No. 18, Winter 2024
Pages: 103-120
Article Type: Translation
https://www.pzhfars.ir/article_191091.html
doi: 10. 22034/LC. 2024. 408167. 1377
تمدن حقوقی
دوره ،6 شماره ،18ویژهنامه هوش مصنوعی،زمستان 1402
صفحات -120 103
نوع مقاله: ترجمهاي
Artificial Intelligence and Legal
Liability
J. K. C. Kingston
University of Brighton, BN2 4JG, UK
Sara Solhchi
MA. Intellectual Property Law, Faculty of Law and Political
Science, University of Allameh Tabataba’I, Tehran, Iran
Kian Biglarbeigi
Master student of International Law, Faculty of Law, Shahid
Beheshti University, Tehran, Iran (Responsible Translator)
هوش مصنوعی و مسئولیت قانونی

جی. کی. سی. کینگستون
دانشگاهبرایتون،JG4 2BN،انگلستان
j. k. kingston@brighton. ac. uk
سارا صلح چی
کارشناس ارشد حقوق مالکیت فکري، دانشکده حقوق و علوم سیاسی، دانشگاه علامه
طباطبایی،تهران، ایران
solhchis@gmail. com
http://orcid.org/0009-0008-6224-1885
کیان بیگلربیگی
دانشجويکارشناسیارشدحقوقبینالملل،دانشکدهحقوق،دانشگاه شهیدبهشتی،تهران،
ایران(مترجم مسئول)
kian. biglarbeigi@gmail. com
http://orcid.org/0000-0001-8659-0299
Received: 2023/05/28 -Review: 2023/11/10 -Accepted: 2023/12/19
Abstract
A recent issue of a popular computing
journal asked which laws would apply
if a self-driving car killed a
pedestrian. This paper considers the
question of legal liability for
artificially intelligent computer
systems. This article discusses
whether criminal liability could ever
apply; to whom it might apply; and,
under civil law, whether an AI
program is a product that is subject to
product design legislation or a service
to which the tort of negligence
applies. The issue of sales warranties
is also considered. A discussion of
some of the practical limitations that
AI systems are subject to is also
included.
Keywords: Artificial Intelligence,
Civil Liability, Criminal Liability,
Tort.
چکیده
یکی از شمارههاي اخیر یکی از مجلات مشهور
رایانهاي، این پرسش را طرح کرد که اگر یک اتومبیل
خودران (رانندگی خودکار بدون راننده) عابر پیادهاي
را بکشد، چه قوانینی قابل اعمال خواهد بود. این مقاله به
بررسی پرسش، پیرامون مسئولیت قانونی در سیستمهاي
رایانهاي هوش مصنوعی میپردازد. در این مقاله بحث
میشود که آیا مسئولیت کیفري اساساً قابل اعمال است
یا خیر؛ بر چه کسی ممکن است اعمال شود؛ و مطابق
قانون مدنی، آیا هوش مصنوعی محصولی است که
بتواند موضوع قانون طراحی محصول یا خدمت قرار
بگیرد به نحوي که شامل شبه جرم ناشی از قصور و
غفلت شود یا خیر. مسئلۀ گارانتیهاي فروش نیز مورد
توجه قرار گرفته است. همچنین به برخی
محدودیتهاي عملی که سیستمهاي هوش مصنوعی
داراي آن میباشند، پرداخته شده است.
واژگان کلیدي: هوش مصنوعی، مسئولیت مدنی،
مسئولیت کیفري، شبه جرم، بدافزار.
1402 / 09 / 28 : مقاله پذیرش – 1402 / 08 / 19 : مقاله بازنگري – 1402 / 06 / 03 : قاله م دریافت
مقاله حاضر در نشـریهXXXIII Systems Intelligent in Development and Researchدر سـال 2018 مـیلادي منتشـر
شده است.
104 دوره ،6 شماره ،18 ویژهنامه هوش مصنوعی، زمستان 1402 ـ فصلنامه تمدن حقوقی
ارجاع:
کینگستون، جی. کی. سی؛ (1402)، هوش مصنوعی و مسئولیت قانونی، ترجمه سارا صلح چی و کیـان بیگلربیگـی؛ تمـدن حقـوقی،
شماره ،18ویژهنامه هوش مصنوعی.
Copyrights:
Copyright for this article is retained by the author (s) , with publication rights granted to Legal
Civilization. This is an open-access article distributed under the terms of the Creative
Commons Attribution License (http://creativecommons.org/licenses/by/4. 0) , which permits
unrestricted use, distribution, and reproduction in any medium, provided the original work is
properly cited.
مقدمه
یکی از شمارههاي اخیر یکی از مجلات مشهور رایانهاي [1] پرسش ذیل را طرح کرد: «سال 2023
است و براي نخستین بار، یک اتومبیل خودران که در خیابانهاي شهر در حال حرکت است، با یک
عابرپیاده تصادف کرده و موجب مرگ وي میشود. قطعاً این مسئله باید از طریق طرح دعوایی در
دادگاه تعقیب شود. اما دقیقاً کدام قوانین اعمال میشود؟ هیچکس نمیداند. » این مقاله در ادامه پیشنهاد
میکند که قوانینی که احتمالاً اعمال میشوند، قوانینی هستند که با تولیدات با طراحی معیوب سروکار
دارند. با وجود این، معتقد است که پیروي از مسیر قانونی، مانع توسعه و پیشرفت اتومبیلهاي خودران
میشود؛ زیرا فرایند حلوفصل اختلافات مربوط به پروندههاي طراحی محصول (در ایالات متحده
امریکا) معمولاً ده برابر بیشتر از پروندههاي مربوط به قصور انسانی هزینه دارند و هزینۀ اضافی مرتبط با
محصول جهت برطرف کردن مسئله نیز داخل در این هزینهها نیست. این مقاله این گونه ادامه میدهد
که در عوض، باید با چنین پروندههایی مانند پروندههاي قصور و غفلت انسانی، همانطور که با انسان
1 راننده برخورد میشود، رفتار گردد؛ نویسنده اشاره میکند که یک کتاب راهنما
استاندارد از حقوق
شبه جرم ایالات متحده امریکا [2] بیان میکند: «وضعیت ذهنی بد، نه لازم و نه کافی جهت نمایان شدن
قصور و غفلت است، رفتار همه چیز است. »

1- Handbook
هوش مصنوعی و مسئولیت قانونی 105
ممکن است این مسئله حتی پیش از سال 2023 میلادي نیز رخ دهد. نویسندۀ این مقاله به تازگی
اتومبیلی کرایه کرده است که امکانات ایمنی بسیاري دارد. یکی از این ویژگیها این است که اگر
رادارهاي خودرو یک برخورد قریبالوقوع را درحالیکه اتومبیل با سرعت بین چهار تا نوزده مایل بر
ساعت حرکت میکند تشخیص دهد، موتور اتومبیل جهت جلوگیري از برخورد از کار میافتاد. نویسنده
در حال عقب آمدن جهت خروج از یک راه فرعی اختصاصی، بسیار نزدیکبهیکپرچین حرکت کرد؛
اتومبیل هشدار صداي نزدیک شدن را به صدا در آورد و موتور از کار افتاد. با این حال، حتی زمانی که
فرمان میچرخید تا خودرو از پرچین عبور کند و درحالیکه خودرو در حالت دنده عقب بود، موتور
روشن نمیشد. نویسنده مجبور شد که اتومبیل را در حالت دندۀ معمولی قرار دهد، مقدار کمی رو به جلو
حرکت کند تا بتواند عقب رفتن خود را ادامه دهد. همۀ این اتفاقات در یک جادۀ فرعی اختصاصی رخ
داد. با این حال، اگر زمانی رخ میداد که یک کامیون سنگین از عقب با سرعت یکسان در حال نزدیک
شدن به اتومبیل میبود ونزدیک بود از پشت با خودروبرخورد کند و آن را از مسیر به بیرون پرتاب کند؛
بسیاري از رانندگان خطر خراشیده شدن رنگ خودرو با یک پرچین را به نشستن در اتومبیلی که از روشن
شدن امتناع میکند و مانور موردنظر را کامل میکند؛ ترجیح میدهند. به زودي بدیهی به نظر میآید که
برخی رانندگان، امکانات امنیتی را به جهت حضورونقش داشتن درتصادفهاي شدید مؤثربدانند.
هدف این پژوهش این است که ظرفیتهاي موجود یا کمبود وجود آنها در هوش مصنوعی را
بررسی کند و سپس دوباره به پرسش این که مسئولیت قانونی در پروندههاي فوق چه جایگاهی دارد،
بپردازد. نخست، مهم است که بیان شود این مقاله از اصطلاح «هوش مصنوعی» چه مقصودي دارد.
تحقیقاتی در این حوزه وجود دارد که هوش مصنوعی را هرچیزي که با هر روشی از هوش انسانی تقلید
میکند، هوش مصنوعی میدانند؛ افراد دیگري نیز وجود دارند که فکر میکنند تنها برنامههاي هوش
مصنوعی آنهایی هستند که طریقۀ تفکر انسان را تقلید میکنند. عدۀ دیگري نیز در عرصۀ سیستمهاي
اطلاعاتی، بسیاري از برنامههاي هوش مصنوعی را بهعنوان سیستمهاي پیچیدۀ اطلاعاتی با هوش مصنوعی
حقیقی که مختص تصمیمگیري در سطح پیشرفته که گاهی بهعنوان عقل و خرد مشخص شده، دستهبندي
میکنند. دراین مقاله، هر سیستم رایانهاي کهقادر به تشخیص یک موقعیت یا رویداد باشد وبه شکل «اگر
این موقعیت پیش آمد پس این اقدام را پیشنهاد کرده یا اخذ میکند»؛ بهعنوان یک سیستم هوش مصنوعی
درنظر گرفته میشود.
106 دوره ،6 شماره ،18 ویژهنامه هوش مصنوعی، زمستان 1402 ـ فصلنامه تمدن حقوقی
-1 مسئولیت قانونی
-1 -1 مسئولیت کیفري
ارجاعاتی که ذیل این بحث اشاره میشوند، اساساً به قوانین ایالات متحده امریکا بازمیگردند؛ هرچند،
بسیاري از نظامهاي قضایی دیگر نیز چنین قوانین مشابهی در حیطههاي مربوطه دارند. در ارجاع [3]، گابریل
هالوي به بیان این که چطور، و این که آیا، نهادهاي هوش مصنوعی ممکن است از لحاظ کیفري مسئول
(یک رفتار) و عنصر معنوي 2 شناخته شوند، میپردازد. قوانین کیفري به طور عادي عنصرمادي جرم
3
(قصد
ذهنی) را ضروري میدانند وهالوي به شکل یاريدهندهاي قوانین را بهاین شکل طبقهبندي میکند:
آنهایی که در آن، عنصر مادي شامل یک فعل میشود و آنهایی که عنصر مادي درآن دربرگیرندۀ
یک ترك فعل است؛
آنهایی که عنصر معنوي در آن نیازمند اطلاع یا آگاهی است؛ آنهایی که عنصر معنوي در آن صرفاً
قصور و غفلت است (یک شخص متعارف باید آنها را بداند)؛ و جرایمی که در آنها مسئولیت محض
است که لازم نیست هیچ عنصرمعنوي درآن ثابت شود.
هالوي با طرح سه مدل قانونی کهبهوسیلۀآنها جرایم ارتکاب یافتهتوسط سیستمهاي هوش مصنوعی
شناخته میشوند؛ ادامه میدهد:
اول، ارتکاب از طریق شخصی دیگر.
٤
اگر یک جرم به وسیلۀ یک شخص معلول ذهنی، کودك یا
حیوان صورت پذیرد، مرتکب به جهت نبود اهلیت ذهنی براي تشکیل عنصر معنوي جرم، بهعنوان یک
فاعل بیگناه در نظر گرفته میشود (این امر حتی درمورد جرایم داراي مسئولیت محض نیز صادق است).
هرچند اگر فاعل بیگناه توسط شخص دیگر آموزش داده شده باشد (براي نمونه اگر صاحب سگی،
سگ خود را جهت حمله به یک شخص آموزش دهد) سپس شخص آموزشدهنده از لحاظ کیفري
مسئول است.
٥
بر طبق این مدل، برنامههاي هوش مصنوعی نیز میتوانند تحت عنوان فاعل بیگناه
محسوب شوند وبرنامهنویس نرمافزار یا کاربرفاعل معنوي جرم درنظر گرفته شوند.

2- Actus Reus
3- Mens Rea
-4 فاعل معنوي جرم.
-5 به ارجاع شمارۀ [4] جهت رویه قضایی ایا

Share:

More Posts

هوش مصنوعی، فرصت یا تهدید

هوش مصنوعی، فرصت یا تهدید؟! پدیدآورنده (ها) : مولائی، حمیده میان رشته ای :: نشریه گنجينه سما :: شهریور 1402 – شماره 39 صفحات :

الهیات و هوش مصنوعی

الهیات و هوش مصنوعی / نشست علمی پدیدآورنده (ها) : قاسمی، محمودرضا میان رشته ای :: نشریه پاسخ به شبهات دینی :: پا.ز 1402 –