چهارشنبه ۲۶ دی ۱۴۰۳ - ۱۶:۵۸
ضامن جرائمی که از سوی هوش مصنوعی اتفاق می‌افتد، کیست؟!

حوزه/ اگر هوش مصنوعی مرتکب جرم شود، چه کسی مجازات خواهد شد؟ این سوالی است که با پیشرفت سریع هوش مصنوعی، ذهن بسیاری را به خود مشغول کرده است و در این مطلب به بررسی آن خواهیم پرداخت.

به گزارش خبرگزاری حوزه، برنامه فقه پویای رادیو معارف در ۹ جلسه به بررسی فقهی و حقوقی ابعاد گوناگون هوش مصنوعی پرداخته که رسانه رسمی حوزه به انتشار محتوای این برنامه‌ها در شماره های گوناگون خواهد پرداخت.

مجری: بسم الله الرحمن الرحیم. در این برنامه می‌خواهیم به همراه کارشناسان محترمی که در استودیو حاضر هستند، پیرامون موضوع بررسی فقهی و حقوقی ابعاد گوناگون هوش مصنوعی به بحث و گفتگو بنشینیم.

در خدمت جناب حجت‌الاسلام والمسلمین سید امیر سخاوتیان هستم. خدمت شما عرض سلام دارم، خیلی خوش آمدید.

- آقای سخاوتیان

بنده هم خدمت جنابعالی و همه‌ی شنوندگان عزیز عرض سلام، ادب و احترام دارم. امیدوارم که بتوانیم با هم یک بحث علمی مفید برای جامعه‌ی علمی به همراه داشته باشیم.

مجری: متشکرم. جناب آقای سخاوتیان استاد حوزه و هیئت علمی دانشگاه آزاد اسلامی قم و مسئول راه‌اندازی دانشکده‌ی مطالعات بنیادین هوش مصنوعی هستند.

در خدمت کارشناس دیگر برنامه، جناب حجت‌الاسلام والمسلمین آقای حسین عندلیب هستیم. خدمت شما سلام عرض می‌کنم.

- آقای عندلیب

عرض سلام و احترام خدمت حضرتعالی و همه‌ی شنوندگان محترم، امیدواریم ان‌شاءالله بحث خوبی را در این مدت داشته باشیم.

مجری: سپاسگزارم. جناب آقای عندلیب استاد حوزه و عضو هیئت علمی دانشگاه آزاد اسلامی قم و مسئول راه‌اندازی دانشکده‌ی سبک زندگی اسلامی هستند.

ضامن جرائمی که از سوی هوش مصنوعی اتفاق می‌افتد، کیست؟!

مجری: جناب آقای دکتر سخاوتیان، با توجه به گستردگی مسئله هوش مصنوعی و موضوع بکارگیری و جرائم مربوط به هوش مصنوعی، توضیحاتی را درباره موضوع سبب و مباشر در هوش مصنوعی برای شنوندگان عزیزمان بفرمایید و بیان کنید که از نظر ابعاد فقهی چه حیثیتی دارند؟

- آقای سخاوتیان

البته چه بسا که بسیاری از مخاطبین ما متخصصین فقه و حقوق باشند و سبب و مباشر را می‌شناسند ولی ممکن است برخی از مخاطبین اشخاصی باشند که ندانند این اصطلاح به چه معناست.

یک مثال می‌زنم؛ شما تصور کنید یک کسی چاقویی درست کرد. نفر دوم چاقو را از این شخص گرفت و به نفر سومی آسیبی زد. در این میان ضامن یا مقصر کیست؟ ما باید یقه‌ی چه کسی را بگیریم؟ سازنده‌ی چاقو یا کسی که چاقو را گرفت و به دیگری ضربه زد؟

مجری: یعنی سازنده‌ی چاقو سبب می‌شود.

بله، سازنده‌ی چاقو سبب می‌شود و کسی که چاقو را گرفت و ضربه زد، مباشر می‌شود. این در جایی است که فرد اول و فرد دوم هر دو انسان هستند و اختیار دارند. حالا تصور کنید در اینجا فرد دوم اختیار نداشته باشد، مثلاً یک آقایی (سبب) یک حیوانی داشت، گاو و یا گوسفندی داشت که آن را رها کرد و به زمین دیگری رفت و به مزرعه‌ی آن شخص آسیب زد. در اینجا این گوسفند و گاو آن اختیار لازم را نداشت. توان اختیار و فهم ندارد و آسیب زد.

در اینجا مقصر کیست؟ صاحب گاو و گوسفند، سبب می‌شود و آن گاو و گوسفند مباشر می‌شوند. ما چه کسی را ضامن می‌دانیم و می‌گوییم که باید خسارت بدهید؟ گوسفند باید خسارت دهد یا صاحب آن؟ در اولی انسان بود و در این دومی هم این صاحب انسان است. مباشر کسی است که نزدیک‌ترین عامل به آن خسارت است.

مجری: یا آن کسی که مستقیماً خسارت را وارد کرده است.

بله. اما سبب واسطه است، یک یا دو تا فاصله است. در مثال اول مقصر کیست؟ مباشر. در مثال دوم مقصر کیست؟ سبب. پس سبب و مباشر دو شخص هستند که در یک اتفاق، در یک فعل و در یک حادثه با هم شرکت می‌کنند.

اما در اینجا کدام‌یک از نظر فقهی ضامن آن اتفاق هستند؟ ما در فقه بیان می‌کنیم اگر مباشر دارای اختیار باشد، عاقل باشد، بفهمد که چه می‌کند، به کار خودش التفات داشته باشد، در اینجا مباشر ضامن است. اگر مباشر مختار نباشد، روی سر او اسلحه گذاشته‌اند و او را تهدید کرده‌اند، اکراه است و یا به زور دستش را روی دکمه‌ای گذاشته‌اند که موشک را رها می‌کند. اینجا دیگر هیچ اختیاری ندارد. گاهی اوقات اضطرار است و گاهی اوقات هم اکراه است. بین اکراه و اضطرار هم تفاوت است.

ضامن جرائمی که از سوی هوش مصنوعی اتفاق می‌افتد، کیست؟!

آقای دکتر، از طرح بحثی که داشتید بسیار متشکرم. جناب آقای دکتر عندلیب، از نظر شما سبب و مباشر از نظر ابعاد حقوقی چه حیثی دارند؟

- آقای عندلیب

اولاً ما در مورد حقوق اسلامی بحث می‌کنیم. حقوق اسلامی ما منطبق بر فقه است و بنابراین تفاوت چشمگیری در این زمینه از نظر تعریف و ماهیت‌شناسی نداریم الّا این‌که ما باید یک‌سری از مباحث را در این بحث سبب و مباشر ببینیم.

مثلاً یکی از موضوعاتی که در عالم حقوق مطرح می‌شود این است که ما برای احراز یا انتساب یک فعل - فعل زیان‌بار که مسئولیت مدنی در پی داشته باشد یا جرم - باید حتماً این وحدت قصد بین سبب و مباشر را احراز کنیم. یعنی چه؟

اگر بخواهیم در مورد همین هوش مصنوعی مثال بزنیم.

آن آقایی که این برنامه را طراحی کرده که خودش را در قالب ربات یا چیزهای دیگر نشان می‌دهد، آیا قصد داشته فعل زیان‌باری را به وجود بیاورد یا نه؟ اگر او این قصد را نداشته باشد و ناخودآگاه بر اساس خطاهای سیستمی هوش مصنوعی یک فعل زیان‌باری به وجود آورد، این مباشر ما رابطه‌ی فعل را با سبب قطع کرده و دیگر وحدت قصد وجود ندارد. مثال‌هایی هم در این زمینه هست.

مجری: مگر هوش مصنوعی هم قصد می‌کند؟

هوش مصنوعی طراحی می‌شود، ولی این طراحی ممکن است در عمل اشتباه کند. مثال می‌زنند و می‌گویند اگر یک رباتی مبتنی بر هوش مصنوعی برای خدمت‌رسانی به رستورانی آمد که خدماتی بدهد. آن کسی که این را برای رستوران طراحی کرده است، قطعاً نگاه خدمت‌رسانی دارد و به قول ما حقوقی‌ها هیچ سوءنیتی هم ندارد، ولی این هوش مصنوعی دچار اختلال سیستمی شد و به یکی از مشتری‌های رستوران آسیب زد، به جای این‌که تعارف کند به صورت ایشان زد، اینجا مسئله‌ی کیفری پیش می‌آید. ضرب‌وجرح عمدی شد، الان چه کسی باید پاسخ بدهد؟ چه کسی مسئولیت کیفری دارد؟ لذا این وحدت قصد یک تتمه‌ای بر آن بحثی است که جناب استاد سخاوتیان بیان کردند.

برای این‌که یک یادآوری و یک بازخوانی شود، من ابتدا ارکان مسئولیت‌ها را می‌گویم. چون ما در عالم حقوق دو تا مسئولیت داریم که یکی مسئولیت مدنی است که در تعبیر فقهی به آن ضمان می‌گویند، یکی هم مسئولیت کیفری است که بحث جرم و مجازات است. در مسئولیت مدنی سه تا رکن لازم داریم؛ یکی تحقق ضرر است که این ضرر باید محقق باشد. لذا هم فقها و هم حقوق‌دانان در اینجا بحث می‌کنند که ضرر چیست؟

ضرر بالفعل، ضرر بالقوه، ضرر ممکن الحصول، ضرر قابل الحصول، همه‌ی این‌ها قابل بحث است و یا این‌که کدام‌یک از این‌ها عدم النفع می‌شود؟ چون الان بحث‌های خیلی زیادی در عدم النفع داریم و حقوق‌دانان مباحث زیادی را مطرح کرده‌اند، مثل استادی که می‌خواهد به یک کنفرانس خارجی تشریف ببرد و تعداد زیادی از میهمانان را هم در آنجا دعوت کرده‌اند، راننده‌ی ماشینی که می‌خواهد ایشان را به فرودگاه ببرد در اثر بی‌احتیاطی تصادف می‌کند. استاد به پرواز نمی‌رسد، هزینه‌ی بلیط، هواپیما و درآمدی که می‌خواست از آن سخنرانی بگیرد، کدام‌یک از این موارد ضرر است و کدام‌یک عدم نفع است؟ این‌ها بحث‌های خیلی جالبی دارد و بعضی از آن‌ها هم پرونده‌های قضایی دارد و در کشور ما و کشورهای دیگر مطرح شده است. پس اولین عنصر تحقق ضرر است.

دومین مورد ارتکاب فعل زیان‌بار است که این تحقق پیدا کرده باشد و سومین مورد هم رابطه‌ی سببیت بین فعل و ضرر وارد شده است. یعنی ما باید بین این فعلی که اتفاق افتاده و آن سبب این رابطه را برقرار کنیم. گاهی اوقات در این موارد که مثل هوش مصنوعی است و از خودش اختیاری ندارد، رابطه‌ی سببیت با مباشر قطع می‌شود. رابطه بین فعل و سبب اصلی ایجاد می‌شود که ما در لسان فقهی به این می‌گوییم؛ جایی که سبب أقوا از مباشر است. مثل این‌که فردی بالغ و کامل اسلحه‌ای را به دست دیوانه‌ای می‌دهد که فاقد اراده و اختیار است که می‌گوید شخص سومی را بکشد. اینجا می‌گویند مباشری که هیچ تمییز و اراده و قصدی ندارد، می‌گویند که اینجا آن سبب أقوا از مباشر است. لذا مسئولیت کیفری را متوجه آن می‌کنند. پس این ارکان مسئولیت مدنی است که ما باید در همه‌ی مباحث و از جمله هوش مصنوعی به دنبال آن باشیم و این را احراز کنیم.

یک مسئولیت کیفری هم داریم. در مسئولیت کیفری که ممکن است یک شخص حقیقی باشد و یا ممکن است یک شخص حقوقی مثل شرکت باشد، می‌خواهیم مسئولیت کیفری بار کنیم، یعنی او را مجازات کنیم.

در مسئولیت کیفری همان شرایط عامه‌ی تکلیفی که فقها فرموده‌اند، حقوق‌دانان اسلامی هم همان‌ها را می‌گویند که می‌گویند عقل داشته باشد، بالغ باشد، مختار باشد، اراده داشته باشد. همه‌ی این‌ها هست که مثلاً در اینجا می‌گویند شخصی که خواب است، مسئولیت کیفری بر او بار نمی‌شود ولی مسئولیت مدنی بر او بار می‌شود. مثلاً شخصی خوابیده است و در کنار او طفلی خوابیده، این شخص در خواب غلت می‌خورد و روی طفل می‌افتد و طفل را می‌کشد.

در اینجا هیچ‌یک از حقوق‌دانان مسئولیت کیفری بار نمی‌کنند ولی می‌گویند که مسئولیت مدنی هست، چون مسئولیت مدنی متوقف بر اراده‌ی این آقا و التفات نیست. بنابراین در مسئولیت کیفری هم بحث شرایط عامه‌ی تکلیف که فقها گفتند را داریم و آن بحث قصد در تعبیر فقها که ما در حقوق به آن سوءنیت می‌گوییم که ما باید سوءنیت را احراز کنیم. حالا این‌که اصلاً هوش مصنوعی می‌تواند این شرایط مسئولیت کیفری را داشته باشد یا نه، محل بحث است. در خود آن بحث مسئولیت مدنی هم که باید ببینیم رابطه چگونه برقرار می‌شود.

ضامن جرائمی که از سوی هوش مصنوعی اتفاق می‌افتد، کیست؟!

مجری: از مباحث خوبی که داشتید و توضیحاتی که دادید بسیار ممنونم.

ما تا اینجا پیرامون سبب و مباشر در جرایم هوش مصنوعی صحبت کردیم که اصلاً سبب و مباشر چیستند که می‌خواهیم پیرامون آن صحبت کنیم و مثال‌هایی را از نظر فقهی و حقوقی مطرح کردیم. جناب آقای دکتر سخاوتیان، حالا که این مقدمه را مطرح کردیم بفرمایید کاری که هوش مصنوعی انجام می‌دهد و با آن مواجه شده، به عنوان مباشر ضامن هست یا مالک و طراح آن؟ نظر فقه پیرامون این موضوع چیست؟

- آقای سخاوتیان

قبل از این‌که به این مطلب بپردازیم، باید به این مسئله دقت کنیم که اصلاً هوش مصنوعی چیست؟ یک تقسیم‌بندی در اینجا وجود دارد که حالا این‌که این تقسیم‌بندی درست یا غلط است باید در جای خود در مباحث فلسفی بحث شود.

در یک تقسیم‌بندی هوش مصنوعی به دو دسته‌ی ضعیف و قوی تقسیم می‌شوند. هوش مصنوعی ضعیف چیزی است که امروز تحقق پیدا کرده است که یک کارهایی را شبیه به انسان انجام می‌دهد. اما هوش مصنوعی قوی دقیقاً عین انسان عمل می‌کند. خب هر کدام چه پیامدهایی می‌توانند داشته باشند؟ ما در بحث ضمان چه چیزی را مطرح کردیم؟ گفتیم که مختار باشد، عاقل باشد، اختیار دارد، نسبت به فعل خودش التفات دارد. این شرایط را گذاشتیم.

هوش مصنوعی ضعیف این ویژگی‌ها را ندارد، خودش اختیار ندارد، خودش قدرت تعقل ندارد، نسبت به فعل خودش اذعان و التفات ندارد و در نتیجه خودبه‌خود این بحث ضمان درباره‌ی هوش مصنوعی ضعیف تحقق پیدا نمی‌کند. یعنی آن چیزی که امروزه تحقق دارد هوش مصنوعی ضعیف است و هنوز هوش مصنوعی قوی تحقق پیدا نکرده است. ضمان نمی‌تواند متوجه این هوش مصنوعی ضعیف شود. پس ضمان به سراغ سبب می‌رود و در مباشر تحقق ندارد.

اما اگر یک زمانی، یک روزی هوش مصنوعی رشد پیدا کند، نمی‌گویم امکان دارد یا امکان ندارد، این یک حرف دیگری است. فرض کنیم در آینده هوش مصنوعی قوی تحقق پیدا کرد، هوش مصنوعی قوی که دقیقاً مثل انسان اقدام می‌کند، فکر می‌کند، اختیار دارد، قدرت اذعان، قدرت فهم و قدرت تعقل دارد. فرض کنیم که تحقق پیدا کند که علی المبنا تحقق پیدا نخواهد کرد و دلیل هم این است که هوش مصنوعی در صورتی می‌تواند عین انسان اقدام کند که خودش دارای نفس انسانی مستقل شود و چون نمی‌تواند دارای نفس انسانی مستقل شود، پس هیچ‌گاه تحقق پیدا نمی‌کند. این‌ها در بحث‌های فلسفه‌ی هوش مصنوعی بیان شده و از آنجا در اینجا استفاده می‌کنیم ولی با این‌حال فرض کنیم یک زمانی هوش مصنوعی قوی - با این قید - که دارای نفس انسانی مستقل باشد - نه نفس انسانی وابسته به انسانی دیگر - که دارای قدرت تعقل، قدرت اختیار و قدرت اذعان و التفات هست، در چنین جایی اگر فعلی از او سر زد که ضمان‌آور بود، دقیقاً همین بحث مطرح می‌شود که آیا مباشر یا سبب ضامن است؟ بر طبق مبنا باید حرف بزنیم، در جایی که مباشر اقوا باشد، مباشر ضامن می‌شود و در جایی که سبب اقوا باشد، سبب ضامن می‌شود.

پس در آن فرض اول ما، ضمان متوجه هوش مصنوعی نیست و فقط متوجه سبب است. در فرض دوم باید ببینیم که در رخ دادن این فعل ضمان‌آور، کدام اقوا است؟ اگر مباشر اقوا باشد، ضامن است، اگر سبب اقوا باشد، سبب ضامن است.

مجری: ممنونم. پس با توجه به نکاتی که داشتید، در تقسیم‌بندی دوم که هوش مصنوعی را به ضعیف و قوی تقسیم کرده بودید، هم‌چنان دارای هوش مصنوعی قوی با آن ابعادی که بیان کردید در جامعه‌ی فعلی نیستیم.

بله و حتی در مبانی خودمان هیچ‌گاه امکان ندارد هوش مصنوعی قوی با این قید که دارای نفس انسانی مستقل باشد، تحقق پیدا کند. بله، امکان دارد هوش مصنوعی قوی با نفس انسانی وابسته به انسان دیگر باشد که در آن صورت این هوش مصنوعی اصلاً مستقل نیست و خودش بخشی از انسانی دیگر خواهد بود.

مجری: متشکرم. جناب آقای دکتر عندلیب، با توجه به نکاتی که آقای دکتر سخاوتیان داشتند و از نظر فقهی هوش مصنوعی را ضامن نمی‌دانند، می‌خواستم نظر شما را هم بدانم.

- آقای عندلیب

اجازه می‌خواهم که در این‌باره به برخی از مواد قانونی اشاره کنم و ببینیم که از این مواد قانونی چه استفاده و بهره‌برداری حقوقی می‌توان داشت. ماده‌ی ۵۲۶ قانون مجازات اسلامی ما می‌گوید: مباشر در جنایت، بی‌اختیار، جاهل، صغیر غیرممیّز یا مجنون یا مانند آن‌ها باشد. این کلمه‌ی «مانند آن‌ها باشد» محل بحث ما است. می‌گوید کسی که مانند این‌ها است. حالا نیازی نیست که این شخص حتماً یک شخص حقیقی یا حقوقی باشد، مانند آن‌ها است. اصطلاحاً می‌گوییم این بحث مشعر به این است که این موارد تمثیلی است. بنابراین اگر مانند این‌ها، یعنی مانند کسی که اختیار و اراده ندارد، باشد، هوش مصنوعی و آن محصول برخاسته از هوش مصنوعی هم مثل این‌ها است. اگر مثل این‌ها باشد، خب نمی‌توانیم به آن انتسابی بدهیم و نمی‌توانیم به این مباشر مسئولیتی را بار کنیم. در اینجا باید سبب را مسئول - اعم از مسئولیت کیفری یا مسئولیت مدنی - بدانیم.

ماده‌ی دیگری از قانون مجازات اسلامی مصوب ۱۳۹۲ کشور خودمان، ماده‌ی ۵۰۱ هست که می‌گوید: هر گاه کسی به روی شخصی سلاح بکشد، یا حیوانی مانند سگ را به سوی او برانگیزد و یا هر کار دیگری که موجب هراس او گردد، مانند فریاد کشیدن یا انفجار صوتی انجام دهد، بر اثر این ارعاب شخص بمیرد یا مصدوم گردد.

این آقا یک رباتی را درست کرده که این ربات در محل اجتماع مردم یک کاری را ایجاد کرد و باعث هراس و ترس شد و این به فردی صدمه زد و یا باعث شد که او بمیرد. در اینجا می‌گوید: حسب مورد بر اساس تعاریف انواع جنایات به قصاص یا دیه محکوم می‌شود. خب هر کار دیگری که موجب هراس وی گردد، یکی همین بحثی است که ربات‌های مبتنی بر هوش مصنوعی انجام می‌دهند.

مجری: یعنی به هوش مصنوعی هم اشاره دارد.

بله، به این اشاره دارد و می‌توان در اینجا از این هم نام برد.

اگر بخواهیم بحث مسئولیت کیفری را در نظر بگیریم، در جنایات اساساً می‌گوییم یا باید قصد جنایت را داشته باشد که قصد داشته باشد به این فرد صدمه‌ای بزند که چه صدمه‌ی جزئی و چه قتل باشد و یا آن رفتار نوعاً کشنده باشد، ولو این‌که قصد قتل نداشته باشد، مثلاً فردی بدون قصد قتل یک بیلی را به گیجگاه طرف مقابل می‌زند، وقتی هم که به دادگاه می‌آید قسم می‌خورد که من قصد قتل نداشتم، ولی قاضی رسیدگی کننده می‌گوید که فعل تو نوعاً کشنده بوده است. چون این رفتار نوعاً کشنده است.

یک فردی با یک کسی دیگر درگیر شده، چاقو را به سفید ران آن فرد زده است. این نمونه پرونده‌ای بود که بعد به دیوان عالی کشور رفت و مطرح شد که آیا این سفید ران نوعاً کشنده هست یا نه؟ این آقا می‌گوید که من قصد قتل نداشتم و قسم می‌خورد. یک اختلاف نظری شد که برخی از حقوق‌دانان این را پذیرفتند و بعد هم آرائی از دیوان عالی کشور صادر شد که سفید ران نوعاً کشنده است. چرا؟ چون در طی چند ثانیه خون انسان تخلیه می‌شود و باعث مرگ می‌شود. بنابراین این رفتار نوعاً کشنده است.

حالا در این‌که کاری که هوش مصنوعی انجام می‌دهد، آیا این رفتار نوعاً زیانی به دیگران وارد می‌کند یا نه؟ چون گاهی اوقات ممکن است آن فردی که هوش مصنوعی را طراحی می‌کند واقعاً قصد جنایت نداشته باشد ولی کار او نوعاً کشنده است. مثلاً این فرد یک شیء خطرناکی را طراحی کرده است و این ربات هم این شیء خطرناک را بدون قصد قتل می‌گیرد ولی این باعث صدمه به دیگران می‌شود. این باز چون نوعاً کشنده است، مستند به بند ب ماده‌ی ۲۹۰ قانون مجازات اسلامی که می‌گوید «یا رفتار نوعاً کشنده باشد» در اینجا می‌توانیم مسئولیت کیفری را بگوییم.

ضامن جرائمی که از سوی هوش مصنوعی اتفاق می‌افتد، کیست؟!

مجری: یعنی الان شما مسئولیت کیفری را بر عهده‌ی سبب یا هوش مصنوعی می‌گذارید؟

بر عهده‌ی سبب است. ببینید همان‌طور که عرض کردم واقعیت این است که هوش مصنوعی شبیه به بچه‌ی غیرممیّزی است که هیچ اراده‌ای ندارد، یک آلت است. البته این‌که می‌گوییم شبیه به بچه است، چون در بعضی از موارد که برخی از آقایان فقها (رحمة الله علیهم اجمعین) بحث داشتند، بعضی از موارد را در مورد کودک که قبح ذاتی دارد بحث می‌کردند. قانون‌گذار ما هم در مواد اول قانون مجازات اسلامی یک بحث‌هایی را دارد که در جای خود باید بحث شود، یک‌سری امور مثل قتل هستند که یک بچه‌ی کمتر از سن ۱۵-۱۶ هم متوجه این قبح ذاتی می‌شود و یا مسائلی مثل سرقت را متوجه می‌شود. شما اگر پاک‌کن یک بچه‌ی کوچک را بگیرید، چه می‌گوید؟ می‌گوید: پاک‌کن من را دزدی، پس بده. او این قبح را می‌فهمد. حالا اینجا یک اختلاف نظری هست، اگر اوایل قانون مجازات را مطالعه بفرمایید، ‌آنجایی که قانون‌گذار در مجازات‌های صغیر بحث می‌کند، برای افراد نابالغ کمتر از ۱۵ سال هم مجازات می‌گوید، حالا مجازاتش نگهداری در کانون اصلاح است، ولی اسمش مجازات است. ما به آن‌ها مجازات می‌گوییم. نیازی نیست که حتماً مجازات‌های بدنی باشد که مجازات بدانیم.

پس به این دقت کنید، مثلاً یک ربات جنگجویی که برای جنگ خلق شده است، آقای سبب و مهندس، این ربات جنگجو را در معابر عمومی بیاورد. خب ممکن است او یک پالس اشتباه بگیرد و مردم عادی را بزند. این رفتار نوعاً کشنده است، با این‌که آن آقای سبب بگوید که من اصلاً قصد قتل مردم خودم را نداشتم، این را برای جنگ درست کرده بودم. ولی به او می‌گویند که رفتار تو نوعاً کشنده است. حالا در فرصت بعدی هم به موارد دیگری اشاره خواهم کرد.

مجری: متشکرم. جناب آقای سخاوتیان، با توجه به صحبت‌های آقای دکتر عندلیب که گفتند از نظر حقوقی هم هوش مصنوعی ضامن نیست، می‌خواستم نظر شما را بدانم که از نظر فقهی چه نظری دارید؟

- آقای سخاوتیان

البته باید به این نکته توجه داشته باشیم که حتی جناب آقای دکتر عندلیب هم نگفتند که ضمان متوجه هوش مصنوعی نیست. ایشان بیان کردند که در مفاد قانونی این‌چنین آمده است. مفاد قانونی هم ناظر به وضع موجود است. در وضع موجود هم درباره‌ی هوش مصنوعی ضعیف صحبت می‌شود، یعنی ایشان درباره‌ی هوش مصنوعی قوی هیچ نظری ندارند و درست هم همین است. چرا؟ چون حقوق به چه چیزی می‌پردازد؟ به این چیزی که الان هست. اگر فردا هوش مصنوعی قوی تحقق پیدا کرد، حقوق‌دان ما مباحث حقوقی مربوط به هوش مصنوعی قوی را هم می‌نویسد. حقوق‌دان ما الان چه چیزهایی را نوشت؟ خب درباره‌ی آینده که قانون نمی‌نویسد. چرا؟ چون اگر بخواهد این‌طور بنویسد که کتاب حقوقی ما خیلی طولانی خواهد شد، درباره‌ی وضع موجود می‌نویسد. وضع موجود ما به چه شکلی است؟ هوش مصنوعی ضعیف. هوش مصنوعی ضعیف هم دارای قدرت اختیار نیست، دارای قدرت تعقل نیست، التفات و اذعان به فعل خودش ندارد، خب وقتی که این‌ها نبود، در هر فعلی، چه مدنی، چه جزایی و چه کیفری بخواهد اتفاق بیافتد، نوک پیکان و هدف ما به طرف سبب می‌رود و مباشر در اینجا عملاً کنار می‌رود. چرا؟ چون اختیار و تعقل ندارد، چون قدرت محاسبه‌اش ناظر به بحث اذعان و التفاتش نیست.

اما اگر هوش مصنوعی قوی تحقق پیدا کند، با آن قیدی که گفتیم که هوش مصنوعی دارای نفس انسانی مستقل باشد، چون اگر هوش مصنوعی دارای نفس انسانی مستقل نباشد، خودش مستقل نیست و ادامه‌ی شیء دیگری است. مثال می‌زنم؛ انسانی آمده و دستش مصنوعی و هوشمند است. در اینجا این هوش مصنوعی تحت سیطره‌ی نفس انسانی است، پس مستقل نیست. رباتی خارج از انسان ساخته شد، ظاهرش این است که مستقل است، ولی در کنه آن می‌بینیم که این ربات تحت اشراف یک انسان دیگری است، پس باز مستقل نیست. ما این قید استقلال را داریم، چون اگر مستقل نباشد، اصلاً شیء جدایی نیست و فعل از دیگری سر زده است. اگر مستقل باشد، با این فرض بقیه‌ی مباحث فقهی آن مطرح می‌شود و مباحث حقوقی الان درباره‌ی هوش مصنوعی قوی نیست و ناظر به هوش مصنوعی ضعیف است.

مجری: یعنی اصلاً نظری پیرامون این قضیه ندارد.

البته فقه نظر دارد و صحبت می‌کند. چرا؟ چون فقه تمام فروضات را حل می‌کند، اما حقوق‌دان ما فعلاً به این بحث وارد نمی‌شود. چرا؟ چون می‌گوید که اصلاً مبتلابه من نیست. ناظر به چه چیزی قانون را وضع می‌کند؟ ناظر به آن چیزی که الان هست. اما فقه چه می‌کند؟ تمام آن فروض محتمل را هم بررسی می‌کند که اگر فرضاً در یک زمانی هوش مصنوعی قوی با آن قیدی که گفتیم تحقق پیدا کرد، چه احکامی خواهد داشت؟ فقه در این زمینه بحث می‌کند، اما حقوق‌دان وارد این مبحث نمی‌شود.

مجری: آقای دکتر، می‌توان گفت ضمان یک حکمی است که بر روی یک فردی که مکلف است بار می‌شود و با توجه به صحبت‌هایی که جنابعالی و همچنین آقای دکتر عندلیب داشتید، هوش مصنوعی مکلف نیست، چرا؟ به خاطر این‌که شرایط تکلیف را ندارد.

حتی فراتر از آن برویم، هوش مصنوعی ضعیف اصلاً ملکه‌اش را ندارد، یعنی اصلاً مورد خطاب به آن تعلق نمی‌گیرد.

که همان نفس انسانی مستقل است.

بله. ببینید ما زمانی می‌گوییم که شرایطش نیست، مثلاً یک بچه و یک صبی سن کمی دارد، توان درک ندارد، ملکه‌ی او هست ولی مورد خطاب نیست.

مجری: در مورد این ملکه هم برای شنوندگان عزیزمان یک توضیحی بفرمایید.

ببینید ما درباره‌ی بینایی صحبت می‌کنیم، سنگ اصلاً ملکه‌ی بینایی ندارد و اصلاً مورد خطاب نیست.

یعنی قابلیتش را ندارد.

بله. ما اصلاً نمی‌توانیم به سنگ بینایی یا نابینایی را نسبت دهیم، چون اصلاً ملکه‌ی بینایی در سنگ نیست. اما در انسان ملکه‌ی بینایی مطرح است. لذا اگر نبیند، به او نابینا می‌گوییم و اگر ببیند به او بینا می‌گوییم.

ولی هیچ‌گاه به سنگ نابینا یا بینا گفته نمی‌شود، چون قابلیت بینایی ندارد.

بله. تکلیف هم از این سنخ است. این سنگ اصلاً قابلیت تکلیف ندارد که من به آن مکلف یا عدم مکلف بگویم، چون ملکه‌ی تکلیف در آن نیست. اما در انسان ملکه‌ی تکلیف هست، اگر مجنون باشد، می‌گویم که او مکلف نیست، چون عقل ندارد، ولی ملکه‌ی تکلیف در او مطرح است. هوش مصنوعی ضعیف به علت این‌که آن نفس انسانی مستقل را ندارد، اصلاً ملکه‌ی تکلیف در آن نیست که بگویم مکلف هست یا نیست. این نیاز به دقت بالایی دارد.

مجری: بسیار متشکرم. آقای دکتر عندلیب، آقای دکتر سخاوتیان بیان کردند که از نظر فقهی، اصلاً قابلیت آوردن حکم ضمان بر هوش مصنوعی ضعیف وجود ندارد، البته ایشان بیان کردند که فقه برای هوش مصنوعی قوی هم حرفی دارد. با توجه به صحبت‌های آقای سخاوتیان، آیا حقوق مدنی ما پیرامون هوش مصنوعی قوی حرفی زده است؟

- آقای عندلیب

ببینید واقعیت قضیه این است که ما در بحث تقنین چیزی به صراحت در مورد هوش مصنوعی نداریم.

یعنی هم‌چنان در جامعه‌ی ما حقوق مدنی اسلامی حرفی درباره‌ی هوش مصنوعی نزده است.

نه. ببینید دکترین حقوقی یک بحث‌های علمی است که داریم انجام می‌دهیم ولی تقنین یک بحث دیگر است که قانون‌گذار ما یک قانونی را با عنوان قانون جرایم هوش مصنوعی تأسیس کند، ما فعلاً چنین چیزی نداریم. یعنی یکی از بایسته‌های حکمرانی قانونی در هوش مصنوعی تدوین یک قانون جامع در خصوص هوش مصنوعی است که ابتدا باید کارهای موضوع‌شناسی آن انجام شود و بعد هم کارهای قانونی آن صورت بگیرد. پس ما فعلاً قانونی درباره‌ی هوش مصنوعی در کشور خودمان نداریم. در اتحادیه‌ی اروپا و برخی از کشورها دارند قانون‌گذاری می‌کنند و مشغول تقنین شده‌اند. تا جایی که من اطلاع دارم، در کشور ما کاری برای تقنین شروع نشده است. این مواردی هم که ما عرض می‌کنیم از قواعد عام استفاده می‌کنیم و با قوانینی که فعلاً موجود است مطالبی را عرض می‌کنیم.

من در فرصت‌های قبلی داشتم عرض می‌کنم و اکثر مثال‌های من هم جرایم علیه تمامیت جسمانی افراد بود که مثال زدم. در تقسیم‌بندی‌هایی که در حقوق داریم، یک بخشی را داریم که با عنوان جرایم علیه اموال و مالکیت است. من قصد دارم که مباحث را با مثال‌ها پیش ببرم که این مصداق‌ها و عینیت‌ها برای مخاطب عزیزمان و شنوندگان محترم‌مان بهتر مشخص باشد.

یکی از مباحثی که ما الان در جرایم علیه اموال داریم و مثال شاخص و بارز آن بحث سرقت است. تصور بفرمایید توسط هوش مصنوعی سرقتی را از فردی انجام دهند، فرضاً برنامه‌نویس این کار را انجام دهد و یا یک کاربری مبتنی بر هوش مصنوعی سرقتی را انجام دهد. در این سرقت چه کسی را مسئول بدانیم؟ ماده‌ی ۲۷۲ قانون مجازات اسلامی را که می‌خوانیم می‌گوید هر گاه کسی مال را توسط مجنون، طفل غیرممیّز، حیوان یا هر وسیله‌ی بی‌اراده‌ای - ببینید هوش مصنوعی مصداق «هر وسیله‌ی بی‌اراده» است، وسیله است و بی‌اراده هم هست - از حرز خارج کند. خود آن کسی که این کار را کرده، یعنی سبب در اینجا مباشر حساب می‌شود. ما در اینجا می‌گوییم که سبب به نحو فاعلیت معنوی مقصر است و او باید جبران خسارت کند و حتی بر اساس همین ماده می‌توانیم مجازات حدی و تعزیری را بسته به شروطی که قانون‌گذار برای ما تعیین کرده، نسبت به کسی که سبب این سرقت بوده بار کنیم، یعنی همان کسی که برنامه‌نویس این هوش مصنوعی و یا کاربر هوش مصنوعی است.

باز یکی دیگر از جرایم علیه اموال و مالکیت جرم تخریب است. ما در تخریب ماده‌ی ۶۷۷ قانون تعزیرات داریم که؛ هر کسی عمداً اشیاء منقول یا غیرمنقول متعلق به دیگری را تخریب نماید و یا به هر نحو کلاً یا بعضاً تلف نماید و یا از کار بیاندازد، به مجازات حبس از ۶ ماه تا ۳ سال محکوم می‌شود. البته این مجازات با قانون مجازات کاهش حبس تعزیری مصوب ۱۳۹۹ تغییر کرده است. حالا با مجازاتش کاری نداریم ولی اصل موضوع تغییر نکرده است. خب اگر رباتی مال متعلق به دیگری را تخریب کرد، چگونه می‌شود که در اینجا مسئولیت را منتسب کنیم؟ اینجا هم می‌بینیم اگر آن کسی که طراحی کرده، در طراحی این ربات سهل‌انگاری کرده است که آن ربات تخریب کرده و ضرر زده است. ما در بحث مسئولیت مدنی به دنبال قصور یا تقصیر هستیم که اگر اینجا قصور یا تقصیری باشد باید مسئولیت مدنی را بیاوریم، اگر سوءنیت باشد تخریب عمدی می‌شود. اگر صرفاً اشتباه سیستمی باشد آن بحث ضمان فقهی را دارد که ما به آن مسئولیت مدنی می‌گوییم ولی اگر سوءنیت باشد، تخریب عمدی می‌شود و طبق ماده‌ی ۶۷۷ جرم است، چون می‌گوید به هر نحوی کلاً یا بعضاً مال دیگری را تلف کند. ما باید عنصر عمد را در آن سبب دنبال کنیم و ببینیم که آن سبب این عمد را داشته یا نه. اگر عمد را داشت، تخریب عمدی می‌شود و موضوع مسئولیت کیفری است و اگر این عنصر عمد را نداشتیم، صرفاً ضمان می‌شود و آن مسئولیت مدنی را در پی دارد.

مجری: بسیار متشکرم. بیان کردید که هم‌چنان قانون‌گذار پیرامون احکام حقوقی و مدنی هوش مصنوعی ورود پیدا نکرده است. مقام معظم رهبری اخیراً صحبتی پیرامون این قضیه داشتند که لازم است آن‌قدر نقش پررنگی پیرامون هوش مصنوعی داشته باشیم که کاری کنیم که حداقل به ۱۰ کشور اول دنیا در این مسئله برسیم. این سخن خیلی کارگشاست و امیدوارم قانون‌گذاران ما پیرامون این مسئله سرعت به خرج بدهند.

البته من نکته‌ای را هم عرض کنم. الحمدلله در حوزه‌های علمیه بحث فقه و فلسفه‌ی هوش مصنوعی راه افتاده و برخی از اساتید همین الان دروس دوره‌ی خارج خودشان که تقریباً به تربیت مجتهد می‌پردازد را به مسئله‌ی فقه هوش مصنوعی اختصاص داده‌اند که امیدواریم این ادامه پیدا کند و بالندگی‌هایش بیشتر شود.

ان‌شاءالله. بسیار ممنون و سپاس‌گزارم.

مجری برنامه: مجید لاریجانی
تنظیم: محمد رسول صفری عربی

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.
captcha