شنبه ۱۳ بهمن ۱۴۰۳ - ۱۵:۳۷
ربات‌ها در جایگاه متهم! / آیا می‌توان ربات‌ها را به خاطر غفلت مجازات کرد؟

حوزه/ در برنامه فقه پویای رادیو معارف، کارشناسان به بررسی فقهی و حقوقی جرایم مبتنی بر غفلت در سیستم‌های هوش مصنوعی پرداختند. آیا ربات‌ها می‌توانند مرتکب جرم شوند یا مسئولیت بر عهده سازندگان و کاربران آن‌هاست؟ پاسخ این سوالات را در این برنامه بیابید.

به گزارش خبرگزاری حوزه، برنامه فقه پویای رادیو معارف در ۹ جلسه با حضور حجج اسلام والمسلمین سخاوتیان و عندلیب به بررسی فقهی و حقوقی ابعاد گوناگون هوش مصنوعی پرداخته که رسانه رسمی حوزه به انتشار محتوای این برنامه‌ها در شماره های گوناگون پرداخته و در این مطلب به انتشار جلسه چهارم خواهیم پرداخت.

مشروح جلسه اول

مشروح جلسه دوم

مشروح جلسه سوم

مجری: بسم الله الرحمن الرحیم. عرض سلام و ادب دارم.

در این برنامه می‌خواهیم موضوع بررسی فقهی و حقوقی ابعاد گوناگون هوش مصنوعی را به بحث و گفتگو بنشینیم.

شنوندگان عزیز، در برنامه‌های گذشته گفتیم که هوش مصنوعی تکنولوژی است که عملکردی شبیه به انسان یا فراتر از عملکرد انسان پیدا می‌کند و غالباً به عنوان شاخه‌ای از علوم کامپیوتر شناخته می‌شود.

با توجه به گسترش و کاربردهای فراوان آن در زندگی مردم می‌طلبد که جایگاه فقهی و حقوقی آن را مورد بحث و گفتگو قرار دهیم. همچنین گفتیم که ضرر و زیان گاهی منتسب به یک یا چند عامل به طور مستقیم است که به آن عامل مباشر و یا یک یا چند عامل غیرمستقیم است که به آن سبب گفته می‌شود.

هوش مصنوعی را از جهت فعالیت‌های شبیه به انسان به دو دسته‌ی قوی و ضعیف تقسیم کردیم و گفتیم هوش مصنوعی قوی وجود خارجی نداشته و هوش مصنوعی ضعیف در صورت ارتکاب جرم از جهت فقهی و حقوقی ضامن نیست. درباره‌ی شخصیت مستقل حقیقی یا حقوقی سیستم‌های هوش مصنوعی بحث و گفتگو کردیم و گفتیم از آنجایی که نگاه ما به هوش مصنوعی متفاوت است، بسته به نگاه ما اعطای شخصیت به هوش مصنوعی متفاوت خواهد بود.

درباره‌ی جرایم عمد هوش مصنوعی هم صحبت کردیم که در صورت ارتکاب مجازات متوجه چه کسی است؟ هوش مصنوعی یا مالک آن؟ از نظر فقهی گفتیم که چون اراده و اختیار در هوش مصنوعی که حاصل آن قصد و نیّت است، رخ نداده است، لذا مجازات متوجه آن نیست. اما از جهت حقوقی بیان شد که اگر مالک آن ربات قصد تخریب داشته باشد، از باب أقوی بودن سبب از مباشر، سازنده‌ی آن مجرم و در صورت عدم قصد مالک نسبت به تخریب مباشر مجرم شناخته می‌شود.

مجری: آقای دکتر عندلیب، بفرمایید که آیا سیستم‌های هوش مصنوعی جرایم مبتنی بر غفلت را هم می‌توانند مرتکب شوند یا خیر؟ اصلاً جرایم مبتنی بر غفلت چه چیزهایی هستند؟

- آقای عندلیب

در عالم حقوق وقتی تقسیم‌بندی جرایم را می‌بینیم، یک‌سری جرایم عمدی داریم که در جلسات گذشته در مورد آن‌ها بحث شد، یک دسته از جرایم هم جرایم مبتنی بر غفلت است. برای این‌که ذهن ما با این قضیه آشنا شود، یک مثالی را عرض می‌کنم تا مخاطب و شنونده‌ی عزیز ما با بحث ارتباط بهتری را برقرار کند.

یک کودکی که دارای تب بسیار بالایی است و آب بدن خودش را از دست داده، تصور کنید، او را به بیمارستان می‌آورند، وضعیت جسمانی این کودک را به ربات هوش مصنوعی می‌دهند که در واقع دستیار و کمک‌کار پرستاران در زمانی است که پزشک حضور ندارد، تجویز این ربات هوش مصنوعی تزریق سرم و مسکن است، بعد از ۵ ساعت - این چیزی که من می‌گویم یک پرونده‌ی واقعی در یکی از کشورهای اروپایی بوده است - این کودک از بین می‌رود و فوت می‌کند. وقتی موضوع را بررسی می‌کنند و به هیئت تخصصی می‌دهند، وقتی کودک کالبدشکافی می‌شود، مشخص می‌شود که چون عفونت شدید باکتریایی داشته باید در این زمان به او آنتی‌بیوتیک تزریق می‌شد و سرم و مسکن کافی نبود. لذا تجویز آن ربات هوش مصنوعی اشتباه تشخیص داده می‌شود. در اینجا بحث می‌شود که آیا آن ربات هوش مصنوعی که در بیمارستان هست مقصر است؟

- آقای سخاوتیان

در اینجا یک غفلتی صورت گرفته است، قصد نداشت بکشد ولی بیمار فوت شد. در اینجا باید چه کاری انجام دهد؟ از نظر فقهی چند حالت اتفاق می‌افتد. گاهی اوقات این شخص از روی بی‌احتیاطی دست به این کار زده که این یک حرف است، گاهی اوقات هم بی‌احتیاطی نکرده ولی بر شرایط مسلط نبوده، حالت‌های مختلف بوده و اصلاً خبر نداشته است، این باز یک اتفاق دیگری است، گاهی اوقات هم از شرایط خبر داشته، بی‌احتیاطی هم نکرده ولی یک اتفاق مابین آن رخ داده است. وقتی این اتفاق مابین رخ می‌دهد، این شخص از آن اتفاق دوم کنار غافل بوده است، نه از خود اتفاق اصلی. به عنوان مثال پزشک آمده و دارد مغز را جراحی می‌کند، تمام تمرکز او روی غده‌ای است ولی در قسمت دیگری از مغز اتفاقی می‌افتد و خون‌ریزی رخ می‌دهد که اصلاً توجهی به آن قسمت نداشت و علت خونریزی هم این قسمت توده‌ای نبود. وقتی این‌ها را در کنار هم بگذاریم متفاوت می‌شوند. لذا وقتی که صحبت از جرایم هوش مصنوعی ناشی از غفلت می‌کنیم باید ببینیم که کدام‌یک از این پدیده‌ها است؟ گاهی اوقات ناشی از بی‌احتیاطی است. گاهی اوقات ناشی از یک پدیده‌ی ثانوی در کنار آن است. گاهی اوقات هم واقعاً خودش کوتاهی کرده است. هر کدام از این‌ها در جای خود حکمی دارند. پس باید یکی یکی و جداگانه بررسی شوند.

ولی یک نکته‌ی خیلی مهمی که در اینجا داریم، کمااین‌که در مثالی که جناب آقای دکتر عندلیب گفتند درباره‌ی هوش مصنوعی که دارو را تجویز کرده و بعد معلوم شده بود که این دارو اشتباه تجویز شده است، در همان پرونده‌ای که اتفاق افتاد... . ما در جلسات قبل یک مبنایی را مطرح کردیم و گفتیم هوش مصنوعی ضعیف که الان تحقق پیدا کرده است، دارای اختیار نیست. مسئولی که در آنجا باید باشد چه کسی است؟ این نکته مهم است. شبیه به چیست؟ هوش مصنوعی شبیه به چاقویی است که در کناری افتاده است، شخصی آمده و از این چاقو استفاده کرده و به دیگری آسیب زده است. خب در اینجا یک چاقویی به نام چاقوی جراحی هست و چاقوی جراحی هم که معمولاً در کارهای درمانی استفاده می‌شود، شخص هم که اطلاعات جراحی پایینی دارد، از چاقوی جراحی استفاده کرد و به یک نفر آسیب زد. در اینجا مقصر کیست؟ چاقو که اختیار ندارد مقصر است یا آن کسی که از این چاقو استفاده کرده است؟ در اینجا باید دقت کنیم.

جناب استاد عندلیب یک نکته‌ای فرمودند، ظاهراً این مطلب هنوز از جلسات گذشته کامل نشده است. ببینید ما یک زمانی صحبت از هوش مصنوعی ضعیف می‌کنیم که این یک حرف است، یک زمانی هم صحبت از هوش مصنوعی قوی می‌کنیم که دقیقاً طابق النعل بالنعل مثل انسان عمل می‌کند. این‌ها یک حرف دیگری است. بحثی که ما داشتیم در جای خیلی خیلی مهم تر از این بود؛ آیا اصلاً هوش مصنوعی مستقل از انسان هست یا نیست؟ ممکن است یک زمانی حتی هوش مصنوعی قوی هم اتفاق بیافتد، دقیقاً مثل انسان عمل کند، ولی سؤال اینجا است که؛ آیا مستقل از انسان است یا نیست؟ یعنی اصلاً یک سؤال دیگری را مطرح می‌کنیم. بله، جان سل هوش مصنوعی ضعیف و قوی را تعریف کرد و هنوز هم داریم استفاده می‌کنیم. حالا ما اصلاً رویکرد را عوض کنیم و هوش مصنوعی مستقل از انسان، هوش مصنوعی وابسته به انسان تعریف کنیم. آن چیزی که بنده در این چند جلسه روی آن تأکید می‌کنم این است که هوش مصنوعی هیچ‌گاه از انسان مستقل نخواهد شد. اگر ما صحبت از غفلت هوش مصنوعی کردیم، در حقیقت غفلت ناشی از آن فردی بود که در رتبه‌ی متقدم بر این بود. آن انسان، آن پزشک، آن دکتر، آن پلیس آگاهی یا آن معلم... . چون در آینده خودبه‌خود این انسان‌واره‌ها و سایبورگ‌ها می‌آیند و معلم‌هایی پدید می‌آیند که با هوش مصنوعی کار می‌کنند، اصلاً ممکن است معلم نسل آینده‌ی ما مرکب از هوش مصنوعی و انسان باشد. سؤالی که ما در اینجا داریم این است که این جرمی که ناشی از غفلت است، غفلت از چه کسی سر زد؟ اگر پذیرفتیم، فرض کنیم هوش مصنوعی قوی اما وابسته به انسان شکل گرفت، در آن زمان باید درصدیابی کنیم که ببینیم چند درصد مربوط به این است و چند درصد مال آن اصل است و این تابع و آن اصل است. هر کدام درصدی دارند. در آن زمان نمی‌توانیم با صراحت بگوییم که در اینجا هوش مصنوعی یا انسان مقصر است.

مجری: منظورتان از این‌که وابستگی به انسان دارد این است که سازنده‌ی آن یک انسان بوده و یا در ادامه فعالیت‌های این هوش مصنوعی مبتنی بر فعالیت‌های انسان است؟

اصلاً وجود خارجی آن... .

مجری: خب طبیعتاً همه قبول داریم که هوش مصنوعی چه قوی و چه ضعیف باشد، قطعاً سازنده‌ی آن یک انسان است.

بحث ما سازنده نیست، بحث ما آن وجود خارجی هوش مصنوعی است. فرض کنید که این گوشی همراه من هوش مصنوعی است و مشغول فعالیت است، هیچ‌گاه این ربات و یا این گوشی همراه من که یک هوش مصنوعی قوی است، جدا از من نیست، یعنی وابسته به من است. این حیث وابستگی خیلی مهم است.

مجری: پس فعالیت‌های هوش مصنوعی مدنظر شما است.

دقیقاً فعالیت‌هایش است، شیء آن که در اینجا موضوعیتی پیدا نمی‌کند و فعالیت‌هایش است که منتسب به جرم یا غیرجرم می‌شود. این‌که مستقل از من نیست. هوش مصنوعی قوی است، دقیقاً مثل من می‌تواند کار کند ولی تابع من است. الان مثلاً بچه و یا یک پسری که در سن ۱۸ سالگی به پدرش علاقه‌ی زیادی دارد، تمام کارها را می‌تواند عین انسان‌ها انجام دهد ولی تابع پدر است. شما یک لشگر نظامی را مثال بزنید، سربازی که در خط مقدم است، مستقل است و دقیقاً کار انسانی انجام می‌دهد، اما آیا استقلال آن تام است و یا وابسته به فرماندهی است؟ نباید از این حیث وابستگی غفلت کنیم. برخی‌ها قائل می‌شوند که هوش مصنوعی مستقل امکان‌پذیر است، ما روی این بخش اشکال داریم که هوش مصنوعی مستقل امکان‌پذیر نیست، اما هوش مصنوعی قوی ممکن است در آینده تحقق پیدا کند.

ربات‌ها در جایگاه متهم! / آیا می‌توان ربات‌ها را به خاطر غفلت مجازات کرد؟

مجری: بسیار متشکرم. جناب آقای دکتر سخاوتیان، پاسخ شما ناقص ماند، این سؤال را دوباره تکرار می‌کنم که از نظر فقهی آیا سیستم‌های هوش مصنوعی جرایم مبتنی بر غفلت را می‌توانند مرتکب شوند یا خیر؟

ما یک زمانی درباره‌ی هوش مصنوعی موجود صحبت می‌کنیم که هوش مصنوعی موجود هم ضعیف و هم وابسته است. پس جرایم که الان از حیث غفلت اتفاق می‌افتد، ما نمی‌توانیم به هوش مصنوعی فعلی هیچ نسبتی بدهیم، چون هوش مصنوعی ضعیفی است و این هوش مصنوعی ضعیف هم در عین حال وابسته به انسان است و مستقل نیست. اما این‌که این جرم را به چه کسی می توانیم نسبت دهیم، گاهی اوقات مربوط به کاربر آن می‌شود و گاهی اوقات هم کاربر دقیقاً عین همان برنامه درست استفاده کرد ولی این اشکال ناشی از الگوریتم‌ها یا کلان‌داده‌هایش بوده که در آن صورت مربوط به بهینه‌سازان آن می‌شود که این جرم یا این غفلت و این خطایی که صورت گرفته به آن بهینه‌سازان آن منتسب می‌شود، یعنی منتسب به خود هوش و یا حتی ممکن است منتسب به کاربر هم نشود. ما یک برنامه‌ای را به آن داده‌ایم و گفته‌ایم که شما در چنین شرایطی از این هوش مصنوعی می‌توانید این‌گونه استفاده کنید و کاربر هم دقیقاً طبق دستورالعمل‌ها استفاده کرده و خطایی نکرده است. این خطا ناشی از چه بود؟ ناشی از طراحی و بهینه‌سازی آن بود. پس در اینجا این غفلت و این جرم به آن بهینه‌سازان و طراحان منتسب می‌شود، به کسانی که این را طراحی کردند و تحویل دادند. گاهی اوقات آن هم غفلتی نکرده و این کاربر غفلت کرده است. پس ما باید ببینیم که هر کدام در چه مرتبه‌ای است؟ اما اگر بخواهیم به خود هوش مصنوعی نسبت دهیم، چنین چیزی امکان‌پذیر نیست. چرا؟ چون اختیار و اراده ندارد و یک موجود کاملاً بی‌اختیار است.

دوم این‌که گاهی اوقات این هوش مصنوعی ما دارای توانایی خاص می‌شود، کمااین‌که امروزه بحث هوش مصنوعی خبره به معنای توانایی خاص است. امروزه نوع دیگری از هوش مصنوعی هم مطرح می‌شود که هوش مصنوعی عمومی و هوش مصنوعی خبره می‌گویند. هوش مصنوعی خبره فقط در یک تخصص خاص کاربرد پیدا می‌کند، مثلاً هوش مصنوعی مربوط به پزشکی که باز حتی در پزشکی هم تخصص می‌خورد و می‌گویند هوش مصنوعی مربوط به جراحی قلب که فقط در فضای قلب کار می‌کند. یعنی تخصصی می‌شود. اصطلاحاً به این‌ها هوش مصنوعی خبره می‌گویند. همان حرف‌هایی که زدیم در این هوش مصنوعی خبره‌ی فعلی هم اتفاق می‌افتد، یعنی جدا نمی‌شود. چرا؟ چون هوش مصنوعی خبره‌ی فعلی هم اختیاری ندارد.

ما باز در این فرض جلوتر می‌رویم، شاید در آینده یک هوش مصنوعی طراحی شود و به جامعه و به مردم ارائه شود که دارای اختیار باشد. وقتی که دارای اختیار است، حالا در اینجا سؤال اصلی پیش می‌آید که؛ آیا می‌توانیم این جرم را به آن منتسب کنیم یا نه؟ این به همان چیزی برمی‌گردد که بنده قبلاً عرض کرده‌ام. باید ببینیم که درصد اختیار چقدر است. نمی‌توانیم با صراحت بگوییم که ۱۰۰ درصد جرم منتسب به این می‌شود. چرا؟ چون با آن مبنایی که هم در این جلسه با صراحت گفتیم و هم در جلسات قبل به صورت اشاره‌ای چند بار بیان شد، هوش مصنوعی مستقل از نظر بنده هیچ گاه تحقق پیدا نخواهد کرد. وقتی که تحقق پیدا نمی‌کند و غیرمستقل است، به همان میزانی که عوامل دیگر در این نقش دارند، در این غفلت و در این جرم ناشی از غفلت هم نقش خواهند داشت.

مجری: متشکرم. جناب آقای دکتر عندلیب، ارکان ثلاثه‌ای را برای اثبات جرم و مجازات بیان کردید، چه مقدار از این ارکانی که فرمودید در جرایم مبتنی بر غفلت در هوش مصنوعی مؤثر هستند؟

- آقای عندلیب

حقوقدانانی که در این‌باره بحث کرده‌اند معتقدند که اگر ما یک بازنویسی از معادلاتی که هوش مصنوعی انجام می‌دهد داشته باشیم و ببینیم که این سیستم می‌توانسته تصمیم دیگری متفاوت از آن تصمیم بگیرد... . چون در واقع خارجی وقتی این مسئله پیش می‌آید، قاضی رسیدگی کننده پرونده را به کارشناس هوش مصنوعی ارجاع می‌دهد که این موضوع را بررسی کند و ببیند که این سیستم می‌توانسته تصمیم دیگری بگیرد یا نه؟ حقوقدانان می‌گویند که ما اگر بتوانیم سه سؤال را در خصوص سیستم دارای هوش مصنوعی به اثبات برسانیم، می‌توانیم مسئولیت کیفری را بر آن بار کنیم. یکی این‌که این سیستم دارای هوش مصنوعی از آن اجزای مادی که اصطلاحاً به آن داده‌های واقعی می‌گوید، آگاه بوده است یا خیر؟ ببینید این‌ها بحث را به این سمت می‌برند که آیا یک فرد معقول در شرایط شبیه به این کاری که ربات انجام داده است، داده‌های واقعی که در اختیارش بوده، به آن‌ها دسترسی داشته یا نه؟ یا این‌که داده‌ها به او اشتباه داده شده است. یعنی در بحث کارشناسی، زمانی با این مواجه هستیم که ربات داده‌های اشتباهی دریافت کرده است، زمانی هم مواجه هستیم که داده‌های اولیه‌ی ربات صحیح بوده و خود ربات در تجزیه و تحلیل‌ها هم دچار اشتباه شده است. می‌گویند در صورتی که خود ربات داده‌ها را داشته است و در تجزیه و تحلیل اشتباه کرده است، اگر پاسخ این یک سؤال مثبت شود، جواب یکی از آن سه سؤال ما برای بار کردن مسئولیت کیفری بر آن مثبت است. دوم این است که؛ اساساً هوش مصنوعی ظرفیت عمومی آگاهی یافتن از اجزای مادی را داشته است یا نه؟ سومین سؤال هم این است که؛ فرد متعارف در این شرایط چه تصمیمی می‌گرفته است؟

یعنی در حقیقت این حقوقدانان که بحث هوش مصنوعی را مطرح کرده‌اند، این را با یک فرد متعارف مقایسه کرده‌اند و گفته‌اند که اگر ما این اطلاعات را به یک فرد متعارف می‌دادیم، اگر این اطلاعات را به خود پزشک می‌دادیم، این پزشک در اینجا چه تصمیمی می‌گرفت؟ حالا همین را با ربات پزشک مقایسه کنید. آیا این ربات پزشک هوش مصنوعی شبیه به انسان تمام آن داده‌ها و اطلاعات را داشته است یا نداشته است؟ آیا تمام احتیاط‌ها را کرده است یا نکرده است؟ تمام آن امور معقول... . چون اینجا یک پله فراتر است و می‌گوید که باید امور معقول را هم در نظر بگیرد، آیا این کارها را کرده است یا نه؟

حالا شبیه به این را در حقوق خودمان در قانون مجازات اسلامی، ماده‌ی ۴۹۵ و ۴۹۶ داریم. اجازه می‌خواهم که این دو ماده را قرائت کنم. ماده‌ی ۴۹۵ قانون مجازات اسلامی مصوب ۱۳۹۲: هرگاه پزشک در معالجاتی که انجام می‌دهد موجب تلف یا صدمه‌ی بدنی گردد، ضامن دیه است، مگر آن‌که عمل او مطابق مقررات پزشکی و موازین فنی باشد.

دقیقاً این بحث در این رفتار پزشک هست که قانون‌گذار می‌گوید که باید ببینید ایشان موازین پزشکی و فنی را رعایت کرده است یا نه؟ یا این‌که قبل از معالجه برائت گرفته باشد. به این هم دقت کنید که گاهی اوقات الان در نظام حقوقی فکر می‌کنند همین که ما قبل از عمل به پزشک یک رضایتنامه دادیم تمام است و هر کاری که پزشک مرتکب شود بری الذمه است، در حالی که قانون‌گذار می‌گوید که؛ یا باید برائت گرفته باشد و یا باید آن موازین پزشکی را رعایت کرده باشد. بنابراین اگر برائت گرفته باشد و موازین پزشکی را رعایت نکرده باشد، باز هم مسئول است. باید دقت کنید که گاهی اوقات این غفلت انجام می‌شود. یا این‌که قبل از معالجه برائت گرفته باشد و مرتکب تقصیری هم نشود. چنان‌چه اخذ برائت از بیمار به دلیل نابالغ بودن و یا مجنون بودن... . در اینجا بحث این است که باید از ولیّ او برائت گرفته و یا اگر ولیّ نیست از حاکم و غیره گرفت.

پس ببینید دارد آن اقدامات فنی و پزشکی را در اینجا لازم می‌داند و در بحث احراز می‌گوید که؛ آقای قاضی، تو باید این را کارشناسی کنی که معمولاً به هیئت‌های نظام پزشکی می‌دهند که این موضوع بررسی شود.

ماده‌ی ۴۹۶ می‌گوید: پزشک در معالجاتی که دستور انجام آن را به بیمار یا پرستار و مانند آن صادر می‌کند - مثلاً به بیمار می‌گوید که این قرص را بخور و یا به پرستار می‌گوید که ساعت ۸ این آمپول را به بیمار تزریق کن - در صورت تلف یا صدمه‌ی بدنی ضامن است، مگر آن‌که طبق ۴۹۵ عمل کرده باشد. یعنی موازین پزشکی را رعایت کرده باشد، تقصیری نکرده باشد و یا برائت گرفته باشد. البته این برائت هم مقید است، برائت به اضافه‌ی این است که تقصیری نکرده باشد.

پس این نکته در نگاه قانون‌گذار ما وجود دارد. اما یک بحثی در اینجا داریم که به نظرم حقوقدانان غربی از آن غفلت کرده‌اند، چرا که چنین قاعده‌ای را ندارند. ما یک قاعده‌ای داریم که در مباحث فقهی هم هست و از فقه گرفته شده است و آن هم قاعده‌ی احسان است. «لیس علی المحسنین الّا الیمین»؛ فقط محسن باید قسم بخورد که؛ من هیچ کوتاهی نکردم. البته بحث کارشناسی و این‌ها در جای خود هست.

مجری: لطفاً این قاعده را برای شنوندگان عزیزمان توضیح دهید.

قاعده‌ی احسان می‌گوید اگر کسی با قصد و انگیزه‌ی خدمت‌رسانی یا برای حفظ جان، مال و ناموس دیگری یک کاری را انجام داد و به دیگری ضربه زد، نیروهای هلال احمر می‌بینند که دو نفر در ماشین گیر افتاده‌اند و در اینجا می‌خواهند دو نفر را نجات دهند. برای نجات این‌ها دو راه هست که یا صبر کنند و با یک راه دیرتری برسند و یا این‌که قیچی آهن‌بُر بیاورند و ماشین را قیچی کنند. متأسفانه گاهی اوقات این افراد بعد از نجات از نیروهای هلال احمر شکایت می‌کنند و این را به کارشناس می‌دهند که ببینند این کاری که این‌ها انجام داده‌اند طبق موازین بوده یا این‌که می‌توانستند خسارت کمتری را بزنند؟ چون اینجا باید قاعده‌ی الأقرب فالأقرب جاری شود و اگر می‌شود مثلاً شیشه یا قفل را شکست، دیگر نباید درب را با قیچی آهن‌بُر برید. حالا این بحث یک نمونه و مثال بود برای کسی که می‌خواهد کسی را نجات دهد و کاری را به قصد احسان انجام دهد ولی به دیگری خسارت می‌کند. حالا این‌که این خسارت متعارف یا نامتعارف است، باید کارشناس تشخیص دهد. در اینجا از نظر موازین فقهی این فرد ضمانتی ندارد. ماده‌ی ۵۱۰ قانون مجازات اسلامی هم این را تأیید کرده و می‌گوید: هر گاه شخصی با انگیزه‌ی احسان و کمک به دیگری رفتاری را که به جهت حفظ مال، جان، عرض یا ناموس او لازم است انجام دهد و همان عمل موجب صدمه و یا خسارت شود، در صورت رعایت مقررات قانونی و نکات ایمنی - به این دقت کنید، یعنی حتی محسن هم باید مقررات قانونی و نکات ایمنی را رعایت کند - ضامن نیست.

حالا من در مورد پزشک هم می‌خواهم همین را بگویم. اگر پزشک ما، چه ربات پزشکی که بحث ما است... اگر ما به کارشناس بدهیم و کارشناس این بحث را بررسی کرد که هدف این ربات هوش مصنوعی خدمت‌رسانی به بیمار بوده، بالأخره او هم اشتباه می‌کند، اینجا دیگر نمی‌توانیم مسئولیت کیفری داشته باشیم و آن بحث مسئولیت مدنی در جای دیگر می‌ماند که خودش باید بحث شود. پس اگر این تقصیری نکرده باشد و کارشناسی هم بشود، مسئولیت کیفری ندارد، در مورد مسئولیت مدنی آن باید بحث شود که فعلاً طبق این ماده می‌گوید اگر تقصیری نکرده باشد و مقررات را هم رعایت کرده باشد، ضمانتی ندارد. ما می‌توانیم شبیه به این را در مورد هوش مصنوعی هم بگوییم، البته ما فعلاً در مورد هوش مصنوعی قانونی نداریم ولی می‌گویم که می‌توانیم این را در آنجا هم عرض کنیم.

- آقای سخاوتیان

آقای دکتر عندلیب، در توضیحات‌شان فرمودند که در برخی از شرایط این خطا و این غفلت را با یک پزشک معمولی مقایسه می‌کنیم. این «معمولی مقایسه می‌کنیم» باید دقیق‌تر بیان شود، به چه شکلی است؟ پزشک معمولی به کلان‌داده‌ها دسترسی ندارد، اما هوش مصنوعی به کلان‌داده‌ها دسترسی دارد، پس بحث غفلت در هوش مصنوعی با یک پزشک معمولی به آن معنایی که مردم عادی و عرفی می‌فهمند نیست. به خاطر همین باید یک کار دقیق‌تری انجام دهیم. در مباحث فقهی که ما می‌گوییم باید موضوع‌شناسی خیلی دقیق اتفاق بیافتد، هر چه موضوع‌شناسی دقیق‌تر باشد، کار دقیق‌تر خواهد شد. لازمه‌ی این موضوع‌شناسی در مباحث حقوقی این است که حداقل یک دادسراهای ویژه‌ی هوش مصنوعی راه بیاندازیم، کمااین‌که دادسرای ویژه‌ی خانواده داریم، چرا؟ چون تخصصی است. دادسرای ویژه‌ی نیروهای مسلح داریم، چون کار تخصصی است. دادسرای ویژه‌ی روحانیت داریم، چون کار تخصصی است. جاهایی که کار تخصصی می‌شود، ضرورت دارد که دادسراهای ویژه راه بیاندازیم و اگر بخواهیم در آینده از این نوع اتفاقات به سلامت عبور کنیم، از الان باید به فکر دادسراهای ویژه‌ی آن باشیم.

مجری: متشکرم. بحث بسیار خوبی بود. ما در این برنامه از نظر فقهی و حقوقی بررسی کردیم که آیا سیستم‌های هوش مصنوعی جرایم مبتنی بر غفلت را می‌توانند مرتکب شوند یا خیر. در این برنامه ارکان ثلاثه برای اثبات جرم و مجازات را بیان کردیم و از نظر فقهی و حقوقی جرایم مبتنی بر غفلت را توضیح دادیم.

مجری برنامه: مجید لاهیجانی امیری

تنظیم: محمد رسول صفری عربی

اخبار مرتبط

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.
captcha