به گزارش خبرگزاری حوزه، برنامه فقه پویای رادیو معارف در ۹ جلسه با حضور حجج اسلام والمسلمین سخاوتیان و عندلیب به بررسی فقهی و حقوقی ابعاد گوناگون هوش مصنوعی پرداخته که رسانه رسمی حوزه به انتشار محتوای این برنامهها در شماره های گوناگون پرداخته و در این مطلب به انتشار جلسه چهارم خواهیم پرداخت.
مجری: بسم الله الرحمن الرحیم. عرض سلام و ادب دارم.
در این برنامه میخواهیم موضوع بررسی فقهی و حقوقی ابعاد گوناگون هوش مصنوعی را به بحث و گفتگو بنشینیم.
شنوندگان عزیز، در برنامههای گذشته گفتیم که هوش مصنوعی تکنولوژی است که عملکردی شبیه به انسان یا فراتر از عملکرد انسان پیدا میکند و غالباً به عنوان شاخهای از علوم کامپیوتر شناخته میشود.
با توجه به گسترش و کاربردهای فراوان آن در زندگی مردم میطلبد که جایگاه فقهی و حقوقی آن را مورد بحث و گفتگو قرار دهیم. همچنین گفتیم که ضرر و زیان گاهی منتسب به یک یا چند عامل به طور مستقیم است که به آن عامل مباشر و یا یک یا چند عامل غیرمستقیم است که به آن سبب گفته میشود.
هوش مصنوعی را از جهت فعالیتهای شبیه به انسان به دو دستهی قوی و ضعیف تقسیم کردیم و گفتیم هوش مصنوعی قوی وجود خارجی نداشته و هوش مصنوعی ضعیف در صورت ارتکاب جرم از جهت فقهی و حقوقی ضامن نیست. دربارهی شخصیت مستقل حقیقی یا حقوقی سیستمهای هوش مصنوعی بحث و گفتگو کردیم و گفتیم از آنجایی که نگاه ما به هوش مصنوعی متفاوت است، بسته به نگاه ما اعطای شخصیت به هوش مصنوعی متفاوت خواهد بود.
دربارهی جرایم عمد هوش مصنوعی هم صحبت کردیم که در صورت ارتکاب مجازات متوجه چه کسی است؟ هوش مصنوعی یا مالک آن؟ از نظر فقهی گفتیم که چون اراده و اختیار در هوش مصنوعی که حاصل آن قصد و نیّت است، رخ نداده است، لذا مجازات متوجه آن نیست. اما از جهت حقوقی بیان شد که اگر مالک آن ربات قصد تخریب داشته باشد، از باب أقوی بودن سبب از مباشر، سازندهی آن مجرم و در صورت عدم قصد مالک نسبت به تخریب مباشر مجرم شناخته میشود.
مجری: آقای دکتر عندلیب، بفرمایید که آیا سیستمهای هوش مصنوعی جرایم مبتنی بر غفلت را هم میتوانند مرتکب شوند یا خیر؟ اصلاً جرایم مبتنی بر غفلت چه چیزهایی هستند؟
- آقای عندلیب
در عالم حقوق وقتی تقسیمبندی جرایم را میبینیم، یکسری جرایم عمدی داریم که در جلسات گذشته در مورد آنها بحث شد، یک دسته از جرایم هم جرایم مبتنی بر غفلت است. برای اینکه ذهن ما با این قضیه آشنا شود، یک مثالی را عرض میکنم تا مخاطب و شنوندهی عزیز ما با بحث ارتباط بهتری را برقرار کند.
یک کودکی که دارای تب بسیار بالایی است و آب بدن خودش را از دست داده، تصور کنید، او را به بیمارستان میآورند، وضعیت جسمانی این کودک را به ربات هوش مصنوعی میدهند که در واقع دستیار و کمککار پرستاران در زمانی است که پزشک حضور ندارد، تجویز این ربات هوش مصنوعی تزریق سرم و مسکن است، بعد از ۵ ساعت - این چیزی که من میگویم یک پروندهی واقعی در یکی از کشورهای اروپایی بوده است - این کودک از بین میرود و فوت میکند. وقتی موضوع را بررسی میکنند و به هیئت تخصصی میدهند، وقتی کودک کالبدشکافی میشود، مشخص میشود که چون عفونت شدید باکتریایی داشته باید در این زمان به او آنتیبیوتیک تزریق میشد و سرم و مسکن کافی نبود. لذا تجویز آن ربات هوش مصنوعی اشتباه تشخیص داده میشود. در اینجا بحث میشود که آیا آن ربات هوش مصنوعی که در بیمارستان هست مقصر است؟
- آقای سخاوتیان
در اینجا یک غفلتی صورت گرفته است، قصد نداشت بکشد ولی بیمار فوت شد. در اینجا باید چه کاری انجام دهد؟ از نظر فقهی چند حالت اتفاق میافتد. گاهی اوقات این شخص از روی بیاحتیاطی دست به این کار زده که این یک حرف است، گاهی اوقات هم بیاحتیاطی نکرده ولی بر شرایط مسلط نبوده، حالتهای مختلف بوده و اصلاً خبر نداشته است، این باز یک اتفاق دیگری است، گاهی اوقات هم از شرایط خبر داشته، بیاحتیاطی هم نکرده ولی یک اتفاق مابین آن رخ داده است. وقتی این اتفاق مابین رخ میدهد، این شخص از آن اتفاق دوم کنار غافل بوده است، نه از خود اتفاق اصلی. به عنوان مثال پزشک آمده و دارد مغز را جراحی میکند، تمام تمرکز او روی غدهای است ولی در قسمت دیگری از مغز اتفاقی میافتد و خونریزی رخ میدهد که اصلاً توجهی به آن قسمت نداشت و علت خونریزی هم این قسمت تودهای نبود. وقتی اینها را در کنار هم بگذاریم متفاوت میشوند. لذا وقتی که صحبت از جرایم هوش مصنوعی ناشی از غفلت میکنیم باید ببینیم که کدامیک از این پدیدهها است؟ گاهی اوقات ناشی از بیاحتیاطی است. گاهی اوقات ناشی از یک پدیدهی ثانوی در کنار آن است. گاهی اوقات هم واقعاً خودش کوتاهی کرده است. هر کدام از اینها در جای خود حکمی دارند. پس باید یکی یکی و جداگانه بررسی شوند.
ولی یک نکتهی خیلی مهمی که در اینجا داریم، کمااینکه در مثالی که جناب آقای دکتر عندلیب گفتند دربارهی هوش مصنوعی که دارو را تجویز کرده و بعد معلوم شده بود که این دارو اشتباه تجویز شده است، در همان پروندهای که اتفاق افتاد... . ما در جلسات قبل یک مبنایی را مطرح کردیم و گفتیم هوش مصنوعی ضعیف که الان تحقق پیدا کرده است، دارای اختیار نیست. مسئولی که در آنجا باید باشد چه کسی است؟ این نکته مهم است. شبیه به چیست؟ هوش مصنوعی شبیه به چاقویی است که در کناری افتاده است، شخصی آمده و از این چاقو استفاده کرده و به دیگری آسیب زده است. خب در اینجا یک چاقویی به نام چاقوی جراحی هست و چاقوی جراحی هم که معمولاً در کارهای درمانی استفاده میشود، شخص هم که اطلاعات جراحی پایینی دارد، از چاقوی جراحی استفاده کرد و به یک نفر آسیب زد. در اینجا مقصر کیست؟ چاقو که اختیار ندارد مقصر است یا آن کسی که از این چاقو استفاده کرده است؟ در اینجا باید دقت کنیم.
جناب استاد عندلیب یک نکتهای فرمودند، ظاهراً این مطلب هنوز از جلسات گذشته کامل نشده است. ببینید ما یک زمانی صحبت از هوش مصنوعی ضعیف میکنیم که این یک حرف است، یک زمانی هم صحبت از هوش مصنوعی قوی میکنیم که دقیقاً طابق النعل بالنعل مثل انسان عمل میکند. اینها یک حرف دیگری است. بحثی که ما داشتیم در جای خیلی خیلی مهم تر از این بود؛ آیا اصلاً هوش مصنوعی مستقل از انسان هست یا نیست؟ ممکن است یک زمانی حتی هوش مصنوعی قوی هم اتفاق بیافتد، دقیقاً مثل انسان عمل کند، ولی سؤال اینجا است که؛ آیا مستقل از انسان است یا نیست؟ یعنی اصلاً یک سؤال دیگری را مطرح میکنیم. بله، جان سل هوش مصنوعی ضعیف و قوی را تعریف کرد و هنوز هم داریم استفاده میکنیم. حالا ما اصلاً رویکرد را عوض کنیم و هوش مصنوعی مستقل از انسان، هوش مصنوعی وابسته به انسان تعریف کنیم. آن چیزی که بنده در این چند جلسه روی آن تأکید میکنم این است که هوش مصنوعی هیچگاه از انسان مستقل نخواهد شد. اگر ما صحبت از غفلت هوش مصنوعی کردیم، در حقیقت غفلت ناشی از آن فردی بود که در رتبهی متقدم بر این بود. آن انسان، آن پزشک، آن دکتر، آن پلیس آگاهی یا آن معلم... . چون در آینده خودبهخود این انسانوارهها و سایبورگها میآیند و معلمهایی پدید میآیند که با هوش مصنوعی کار میکنند، اصلاً ممکن است معلم نسل آیندهی ما مرکب از هوش مصنوعی و انسان باشد. سؤالی که ما در اینجا داریم این است که این جرمی که ناشی از غفلت است، غفلت از چه کسی سر زد؟ اگر پذیرفتیم، فرض کنیم هوش مصنوعی قوی اما وابسته به انسان شکل گرفت، در آن زمان باید درصدیابی کنیم که ببینیم چند درصد مربوط به این است و چند درصد مال آن اصل است و این تابع و آن اصل است. هر کدام درصدی دارند. در آن زمان نمیتوانیم با صراحت بگوییم که در اینجا هوش مصنوعی یا انسان مقصر است.
مجری: منظورتان از اینکه وابستگی به انسان دارد این است که سازندهی آن یک انسان بوده و یا در ادامه فعالیتهای این هوش مصنوعی مبتنی بر فعالیتهای انسان است؟
اصلاً وجود خارجی آن... .
مجری: خب طبیعتاً همه قبول داریم که هوش مصنوعی چه قوی و چه ضعیف باشد، قطعاً سازندهی آن یک انسان است.
بحث ما سازنده نیست، بحث ما آن وجود خارجی هوش مصنوعی است. فرض کنید که این گوشی همراه من هوش مصنوعی است و مشغول فعالیت است، هیچگاه این ربات و یا این گوشی همراه من که یک هوش مصنوعی قوی است، جدا از من نیست، یعنی وابسته به من است. این حیث وابستگی خیلی مهم است.
مجری: پس فعالیتهای هوش مصنوعی مدنظر شما است.
دقیقاً فعالیتهایش است، شیء آن که در اینجا موضوعیتی پیدا نمیکند و فعالیتهایش است که منتسب به جرم یا غیرجرم میشود. اینکه مستقل از من نیست. هوش مصنوعی قوی است، دقیقاً مثل من میتواند کار کند ولی تابع من است. الان مثلاً بچه و یا یک پسری که در سن ۱۸ سالگی به پدرش علاقهی زیادی دارد، تمام کارها را میتواند عین انسانها انجام دهد ولی تابع پدر است. شما یک لشگر نظامی را مثال بزنید، سربازی که در خط مقدم است، مستقل است و دقیقاً کار انسانی انجام میدهد، اما آیا استقلال آن تام است و یا وابسته به فرماندهی است؟ نباید از این حیث وابستگی غفلت کنیم. برخیها قائل میشوند که هوش مصنوعی مستقل امکانپذیر است، ما روی این بخش اشکال داریم که هوش مصنوعی مستقل امکانپذیر نیست، اما هوش مصنوعی قوی ممکن است در آینده تحقق پیدا کند.
مجری: بسیار متشکرم. جناب آقای دکتر سخاوتیان، پاسخ شما ناقص ماند، این سؤال را دوباره تکرار میکنم که از نظر فقهی آیا سیستمهای هوش مصنوعی جرایم مبتنی بر غفلت را میتوانند مرتکب شوند یا خیر؟
ما یک زمانی دربارهی هوش مصنوعی موجود صحبت میکنیم که هوش مصنوعی موجود هم ضعیف و هم وابسته است. پس جرایم که الان از حیث غفلت اتفاق میافتد، ما نمیتوانیم به هوش مصنوعی فعلی هیچ نسبتی بدهیم، چون هوش مصنوعی ضعیفی است و این هوش مصنوعی ضعیف هم در عین حال وابسته به انسان است و مستقل نیست. اما اینکه این جرم را به چه کسی می توانیم نسبت دهیم، گاهی اوقات مربوط به کاربر آن میشود و گاهی اوقات هم کاربر دقیقاً عین همان برنامه درست استفاده کرد ولی این اشکال ناشی از الگوریتمها یا کلاندادههایش بوده که در آن صورت مربوط به بهینهسازان آن میشود که این جرم یا این غفلت و این خطایی که صورت گرفته به آن بهینهسازان آن منتسب میشود، یعنی منتسب به خود هوش و یا حتی ممکن است منتسب به کاربر هم نشود. ما یک برنامهای را به آن دادهایم و گفتهایم که شما در چنین شرایطی از این هوش مصنوعی میتوانید اینگونه استفاده کنید و کاربر هم دقیقاً طبق دستورالعملها استفاده کرده و خطایی نکرده است. این خطا ناشی از چه بود؟ ناشی از طراحی و بهینهسازی آن بود. پس در اینجا این غفلت و این جرم به آن بهینهسازان و طراحان منتسب میشود، به کسانی که این را طراحی کردند و تحویل دادند. گاهی اوقات آن هم غفلتی نکرده و این کاربر غفلت کرده است. پس ما باید ببینیم که هر کدام در چه مرتبهای است؟ اما اگر بخواهیم به خود هوش مصنوعی نسبت دهیم، چنین چیزی امکانپذیر نیست. چرا؟ چون اختیار و اراده ندارد و یک موجود کاملاً بیاختیار است.
دوم اینکه گاهی اوقات این هوش مصنوعی ما دارای توانایی خاص میشود، کمااینکه امروزه بحث هوش مصنوعی خبره به معنای توانایی خاص است. امروزه نوع دیگری از هوش مصنوعی هم مطرح میشود که هوش مصنوعی عمومی و هوش مصنوعی خبره میگویند. هوش مصنوعی خبره فقط در یک تخصص خاص کاربرد پیدا میکند، مثلاً هوش مصنوعی مربوط به پزشکی که باز حتی در پزشکی هم تخصص میخورد و میگویند هوش مصنوعی مربوط به جراحی قلب که فقط در فضای قلب کار میکند. یعنی تخصصی میشود. اصطلاحاً به اینها هوش مصنوعی خبره میگویند. همان حرفهایی که زدیم در این هوش مصنوعی خبرهی فعلی هم اتفاق میافتد، یعنی جدا نمیشود. چرا؟ چون هوش مصنوعی خبرهی فعلی هم اختیاری ندارد.
ما باز در این فرض جلوتر میرویم، شاید در آینده یک هوش مصنوعی طراحی شود و به جامعه و به مردم ارائه شود که دارای اختیار باشد. وقتی که دارای اختیار است، حالا در اینجا سؤال اصلی پیش میآید که؛ آیا میتوانیم این جرم را به آن منتسب کنیم یا نه؟ این به همان چیزی برمیگردد که بنده قبلاً عرض کردهام. باید ببینیم که درصد اختیار چقدر است. نمیتوانیم با صراحت بگوییم که ۱۰۰ درصد جرم منتسب به این میشود. چرا؟ چون با آن مبنایی که هم در این جلسه با صراحت گفتیم و هم در جلسات قبل به صورت اشارهای چند بار بیان شد، هوش مصنوعی مستقل از نظر بنده هیچ گاه تحقق پیدا نخواهد کرد. وقتی که تحقق پیدا نمیکند و غیرمستقل است، به همان میزانی که عوامل دیگر در این نقش دارند، در این غفلت و در این جرم ناشی از غفلت هم نقش خواهند داشت.
مجری: متشکرم. جناب آقای دکتر عندلیب، ارکان ثلاثهای را برای اثبات جرم و مجازات بیان کردید، چه مقدار از این ارکانی که فرمودید در جرایم مبتنی بر غفلت در هوش مصنوعی مؤثر هستند؟
- آقای عندلیب
حقوقدانانی که در اینباره بحث کردهاند معتقدند که اگر ما یک بازنویسی از معادلاتی که هوش مصنوعی انجام میدهد داشته باشیم و ببینیم که این سیستم میتوانسته تصمیم دیگری متفاوت از آن تصمیم بگیرد... . چون در واقع خارجی وقتی این مسئله پیش میآید، قاضی رسیدگی کننده پرونده را به کارشناس هوش مصنوعی ارجاع میدهد که این موضوع را بررسی کند و ببیند که این سیستم میتوانسته تصمیم دیگری بگیرد یا نه؟ حقوقدانان میگویند که ما اگر بتوانیم سه سؤال را در خصوص سیستم دارای هوش مصنوعی به اثبات برسانیم، میتوانیم مسئولیت کیفری را بر آن بار کنیم. یکی اینکه این سیستم دارای هوش مصنوعی از آن اجزای مادی که اصطلاحاً به آن دادههای واقعی میگوید، آگاه بوده است یا خیر؟ ببینید اینها بحث را به این سمت میبرند که آیا یک فرد معقول در شرایط شبیه به این کاری که ربات انجام داده است، دادههای واقعی که در اختیارش بوده، به آنها دسترسی داشته یا نه؟ یا اینکه دادهها به او اشتباه داده شده است. یعنی در بحث کارشناسی، زمانی با این مواجه هستیم که ربات دادههای اشتباهی دریافت کرده است، زمانی هم مواجه هستیم که دادههای اولیهی ربات صحیح بوده و خود ربات در تجزیه و تحلیلها هم دچار اشتباه شده است. میگویند در صورتی که خود ربات دادهها را داشته است و در تجزیه و تحلیل اشتباه کرده است، اگر پاسخ این یک سؤال مثبت شود، جواب یکی از آن سه سؤال ما برای بار کردن مسئولیت کیفری بر آن مثبت است. دوم این است که؛ اساساً هوش مصنوعی ظرفیت عمومی آگاهی یافتن از اجزای مادی را داشته است یا نه؟ سومین سؤال هم این است که؛ فرد متعارف در این شرایط چه تصمیمی میگرفته است؟
یعنی در حقیقت این حقوقدانان که بحث هوش مصنوعی را مطرح کردهاند، این را با یک فرد متعارف مقایسه کردهاند و گفتهاند که اگر ما این اطلاعات را به یک فرد متعارف میدادیم، اگر این اطلاعات را به خود پزشک میدادیم، این پزشک در اینجا چه تصمیمی میگرفت؟ حالا همین را با ربات پزشک مقایسه کنید. آیا این ربات پزشک هوش مصنوعی شبیه به انسان تمام آن دادهها و اطلاعات را داشته است یا نداشته است؟ آیا تمام احتیاطها را کرده است یا نکرده است؟ تمام آن امور معقول... . چون اینجا یک پله فراتر است و میگوید که باید امور معقول را هم در نظر بگیرد، آیا این کارها را کرده است یا نه؟
حالا شبیه به این را در حقوق خودمان در قانون مجازات اسلامی، مادهی ۴۹۵ و ۴۹۶ داریم. اجازه میخواهم که این دو ماده را قرائت کنم. مادهی ۴۹۵ قانون مجازات اسلامی مصوب ۱۳۹۲: هرگاه پزشک در معالجاتی که انجام میدهد موجب تلف یا صدمهی بدنی گردد، ضامن دیه است، مگر آنکه عمل او مطابق مقررات پزشکی و موازین فنی باشد.
دقیقاً این بحث در این رفتار پزشک هست که قانونگذار میگوید که باید ببینید ایشان موازین پزشکی و فنی را رعایت کرده است یا نه؟ یا اینکه قبل از معالجه برائت گرفته باشد. به این هم دقت کنید که گاهی اوقات الان در نظام حقوقی فکر میکنند همین که ما قبل از عمل به پزشک یک رضایتنامه دادیم تمام است و هر کاری که پزشک مرتکب شود بری الذمه است، در حالی که قانونگذار میگوید که؛ یا باید برائت گرفته باشد و یا باید آن موازین پزشکی را رعایت کرده باشد. بنابراین اگر برائت گرفته باشد و موازین پزشکی را رعایت نکرده باشد، باز هم مسئول است. باید دقت کنید که گاهی اوقات این غفلت انجام میشود. یا اینکه قبل از معالجه برائت گرفته باشد و مرتکب تقصیری هم نشود. چنانچه اخذ برائت از بیمار به دلیل نابالغ بودن و یا مجنون بودن... . در اینجا بحث این است که باید از ولیّ او برائت گرفته و یا اگر ولیّ نیست از حاکم و غیره گرفت.
پس ببینید دارد آن اقدامات فنی و پزشکی را در اینجا لازم میداند و در بحث احراز میگوید که؛ آقای قاضی، تو باید این را کارشناسی کنی که معمولاً به هیئتهای نظام پزشکی میدهند که این موضوع بررسی شود.
مادهی ۴۹۶ میگوید: پزشک در معالجاتی که دستور انجام آن را به بیمار یا پرستار و مانند آن صادر میکند - مثلاً به بیمار میگوید که این قرص را بخور و یا به پرستار میگوید که ساعت ۸ این آمپول را به بیمار تزریق کن - در صورت تلف یا صدمهی بدنی ضامن است، مگر آنکه طبق ۴۹۵ عمل کرده باشد. یعنی موازین پزشکی را رعایت کرده باشد، تقصیری نکرده باشد و یا برائت گرفته باشد. البته این برائت هم مقید است، برائت به اضافهی این است که تقصیری نکرده باشد.
پس این نکته در نگاه قانونگذار ما وجود دارد. اما یک بحثی در اینجا داریم که به نظرم حقوقدانان غربی از آن غفلت کردهاند، چرا که چنین قاعدهای را ندارند. ما یک قاعدهای داریم که در مباحث فقهی هم هست و از فقه گرفته شده است و آن هم قاعدهی احسان است. «لیس علی المحسنین الّا الیمین»؛ فقط محسن باید قسم بخورد که؛ من هیچ کوتاهی نکردم. البته بحث کارشناسی و اینها در جای خود هست.
مجری: لطفاً این قاعده را برای شنوندگان عزیزمان توضیح دهید.
قاعدهی احسان میگوید اگر کسی با قصد و انگیزهی خدمترسانی یا برای حفظ جان، مال و ناموس دیگری یک کاری را انجام داد و به دیگری ضربه زد، نیروهای هلال احمر میبینند که دو نفر در ماشین گیر افتادهاند و در اینجا میخواهند دو نفر را نجات دهند. برای نجات اینها دو راه هست که یا صبر کنند و با یک راه دیرتری برسند و یا اینکه قیچی آهنبُر بیاورند و ماشین را قیچی کنند. متأسفانه گاهی اوقات این افراد بعد از نجات از نیروهای هلال احمر شکایت میکنند و این را به کارشناس میدهند که ببینند این کاری که اینها انجام دادهاند طبق موازین بوده یا اینکه میتوانستند خسارت کمتری را بزنند؟ چون اینجا باید قاعدهی الأقرب فالأقرب جاری شود و اگر میشود مثلاً شیشه یا قفل را شکست، دیگر نباید درب را با قیچی آهنبُر برید. حالا این بحث یک نمونه و مثال بود برای کسی که میخواهد کسی را نجات دهد و کاری را به قصد احسان انجام دهد ولی به دیگری خسارت میکند. حالا اینکه این خسارت متعارف یا نامتعارف است، باید کارشناس تشخیص دهد. در اینجا از نظر موازین فقهی این فرد ضمانتی ندارد. مادهی ۵۱۰ قانون مجازات اسلامی هم این را تأیید کرده و میگوید: هر گاه شخصی با انگیزهی احسان و کمک به دیگری رفتاری را که به جهت حفظ مال، جان، عرض یا ناموس او لازم است انجام دهد و همان عمل موجب صدمه و یا خسارت شود، در صورت رعایت مقررات قانونی و نکات ایمنی - به این دقت کنید، یعنی حتی محسن هم باید مقررات قانونی و نکات ایمنی را رعایت کند - ضامن نیست.
حالا من در مورد پزشک هم میخواهم همین را بگویم. اگر پزشک ما، چه ربات پزشکی که بحث ما است... اگر ما به کارشناس بدهیم و کارشناس این بحث را بررسی کرد که هدف این ربات هوش مصنوعی خدمترسانی به بیمار بوده، بالأخره او هم اشتباه میکند، اینجا دیگر نمیتوانیم مسئولیت کیفری داشته باشیم و آن بحث مسئولیت مدنی در جای دیگر میماند که خودش باید بحث شود. پس اگر این تقصیری نکرده باشد و کارشناسی هم بشود، مسئولیت کیفری ندارد، در مورد مسئولیت مدنی آن باید بحث شود که فعلاً طبق این ماده میگوید اگر تقصیری نکرده باشد و مقررات را هم رعایت کرده باشد، ضمانتی ندارد. ما میتوانیم شبیه به این را در مورد هوش مصنوعی هم بگوییم، البته ما فعلاً در مورد هوش مصنوعی قانونی نداریم ولی میگویم که میتوانیم این را در آنجا هم عرض کنیم.
- آقای سخاوتیان
آقای دکتر عندلیب، در توضیحاتشان فرمودند که در برخی از شرایط این خطا و این غفلت را با یک پزشک معمولی مقایسه میکنیم. این «معمولی مقایسه میکنیم» باید دقیقتر بیان شود، به چه شکلی است؟ پزشک معمولی به کلاندادهها دسترسی ندارد، اما هوش مصنوعی به کلاندادهها دسترسی دارد، پس بحث غفلت در هوش مصنوعی با یک پزشک معمولی به آن معنایی که مردم عادی و عرفی میفهمند نیست. به خاطر همین باید یک کار دقیقتری انجام دهیم. در مباحث فقهی که ما میگوییم باید موضوعشناسی خیلی دقیق اتفاق بیافتد، هر چه موضوعشناسی دقیقتر باشد، کار دقیقتر خواهد شد. لازمهی این موضوعشناسی در مباحث حقوقی این است که حداقل یک دادسراهای ویژهی هوش مصنوعی راه بیاندازیم، کمااینکه دادسرای ویژهی خانواده داریم، چرا؟ چون تخصصی است. دادسرای ویژهی نیروهای مسلح داریم، چون کار تخصصی است. دادسرای ویژهی روحانیت داریم، چون کار تخصصی است. جاهایی که کار تخصصی میشود، ضرورت دارد که دادسراهای ویژه راه بیاندازیم و اگر بخواهیم در آینده از این نوع اتفاقات به سلامت عبور کنیم، از الان باید به فکر دادسراهای ویژهی آن باشیم.
مجری: متشکرم. بحث بسیار خوبی بود. ما در این برنامه از نظر فقهی و حقوقی بررسی کردیم که آیا سیستمهای هوش مصنوعی جرایم مبتنی بر غفلت را میتوانند مرتکب شوند یا خیر. در این برنامه ارکان ثلاثه برای اثبات جرم و مجازات را بیان کردیم و از نظر فقهی و حقوقی جرایم مبتنی بر غفلت را توضیح دادیم.
مجری برنامه: مجید لاهیجانی امیری
تنظیم: محمد رسول صفری عربی
نظر شما