به گزارش خبرگزاری حوزه، برنامه فقه پویای رادیو معارف در ۹ جلسه با حضور حجج اسلام والمسلمین سخاوتیان و عندلیب به بررسی فقهی و حقوقی ابعاد گوناگون هوش مصنوعی پرداخته که رسانه رسمی حوزه به انتشار محتوای این برنامهها در شماره های گوناگون پرداخته و در این مطلب به انتشار جلسه هفتم خواهیم پرداخت.
مجری: بسم الله الرحمن الرحیم. عرض سلام و ادب دارم.
امروز با جناب آقای دکتر عندلیب این سؤال را آغاز میکنیم که جناب آقای دکتر، ما در بحث گذشته دربارهی قابلیت اعمال دفاعیات عام در حوزهی سیستمهای هوش مصنوعی صحبت کردیم و موانع مسئولیت کیفری را بیان کردیم. امروز میخواهم این سؤال را از شما بپرسم که عوامل موجه جرم در سیستمهای دارای هوش مصنوعی چیستند؟
- آقای عندلیب
یک عامل از مباحث قبلی ما باقی مانده است و اجازه میخواهم ابتدا آن را مطرح کنم. چون ما چند عامل را عرض کردیم که در حقیقت موانع مسئولیت کیفری بودند، این آخرین مانع از موانع مسئولیت کیفری است که تحت عنوان مصونیت است. من مصونیت را در قالب یک مثال عرض میکنم. تصور بفرمایید در جایی آتشسوزی شده و آتشنشانها وارد صحنه میشوند و یک ربات آتشنشان هم همراه خودشان میآورند. این ربات آتشنشان که وارد صحنه میشود میبیند برای نجات افرادی که در آتش گیر افتادهاند، باید تخریب عمدی کند و باید ورود به عنف کند که اصطلاحاً ما در حقوق ورود بدون اجازه میگوییم که همان ورود به عنف است. خب این ربات وارد میشود، دیواری را تخریب میکند و در حریم خصوصی افراد ورود به عنف میکند. اینجا در واقع چون مصونیت دارد و برای نجات میرود، در عالم حقوق میگوییم که او مسئولیت ندارد و به خاطر مباحث فقهی که میگوییم این فرد محسن است و محسن قابل مسئولیت کیفری نیست. البته کمیسیونهایی در هلال احمر و در آتشنشانی هستند برای اینکه ببینند آیا این میزان تخریبی که انجام شده مناسب و متناسب با آن حادثه بوده یا نه؟ ممکن است این مسئله را تجاوز از حد لازم بدانند و تشخیص دهند که این میزان از تخریب لازم نبوده است. اینها مباحثی است که باید کارشناسی شود ولی اصل این موضوع یک امر پذیرفته شده است. یا یک زندانبانی که مبتنی بر هوش مصنوعی است، به او دستور داده شده زمانی که زندانیان میخواهند فرار کنند، تو باید جلوی آنها را بگیری. برای جلوگیری از فرار زندانیان، ربات هوش مصنوعی میایستد و تعدادی از زندانیان مجروح میشوند، این زندانبان هوش مصنوعی مصونیت دارد و نمیتوان مسئولیت کیفری را بر او بار کرد.
ما بعد از موانع مسئولیت کیفری به سراغ عوامل موجههی جرم میرویم. عوامل موجههی جرم چند عامل است که اولین آنها دفاع مشروع است که ما در دفاع مشروع ۵ شرط را لازم میدانیم. یکی اینکه منافع حمایت شده که عبارت از حق حیات، آزادی، جسمانیت فرد، اموال فرد، ناموس و عرض است، اینها باید مشروع باشند. یعنی آن مال، آن جان، آن تن، آن ناموس، اینها باید در قالب مشروع در نظر گرفته شده باشد و الان خطری این منافع مشروع را تهدید کند.
دوم اینکه منافع حمایت شده به صورت غیرقانونی نقض شده باشند. یعنی آن کسی که مهاجم است، حق تعرض نداشته باشد و به صورت غیرقانونی دارد تهاجم میآورد که در مقابل آن هم این ربات یا این سیستم دارای هوش مصنوعی میخواهد از خودش در مقابل مهاجم غیرقانونی دفاع کند.
سوم اینکه منفعت حمایت شده باید در معرض خطر حتمی قریب الوقوع باشد که این خطری که او احساس میکند باید اولاً حتمیت داشته باشد و ثانیاً قریب الوقوع باشد، نه اینکه صرفاً احتمال دهد خطری هست تا در مقام دفاع از خودش برآید. عکسالعمل فرد باید در دفاع مشروع در مقابل حمله و متناسب باشد. اصل تناسب در اینجا مطرح است. یعنی باید حملهای باشد و دوم اینکه تناسب در دفع هم رعایت شود. یعنی چه؟ یعنی ممکن است این فرد با یک تکانهی کوچک دور شود، لازم نیست که حتماً او کشته شود و یا حتماً سر او شکسته شود. ممکن است حتی با یک فریاد فرار کند. این سیستم دارای هوش مصنوعی باید این تجزیه و تحلیل صحیح را داشته باشد که به صورت الأقرب فالأقرب و به صورت پلکانی نسبت به دفاع از خودش عمل کند، نه اینکه از ابتدا مهاجم را از بین ببرد. ممکن است با یک فریاد زدن، با یک آژیر کشیدن، با یک صدای مهیب ایجاد کردن مهاجم را فراری دهد و دیگر نوبت به مراحل بعدی دفاع نمیرسد.
مدافع در موقعیتی باشد که نتواند شرایط حمله و وقوع را کنترل کند و اصطلاحاً راه فراری نداشته باشد. یعنی این سیستم دارای هوش مصنوعی اگر بتواند موقعیتش را عوض کند و دیگر به آن حملهای نشود، باید موقعیتش را عوض کند، ولی اگر دیگر راهی نداشته باشد و نتواند مهاجم را کنترل کند، در حقیقت میتوان گفت در اینجا دفاع او یک دفاع مشروع است و اشکالی ندارد.
در هستهی دفاع مشروع یک منفعت حمایت شدهی قانونی داریم که توسط هوش مصنوعی برای خودش در نظر گرفته شده و اگر کسی بخواهد به این ضربه بزند، در حقیقت هوش مصنوعی هم میتواند مثل یک انسان از خودش دفاع کند.
مجری: متشکرم. جناب آقای دکتر سخاوتیان، از نظر فقهی عوامل موجههی جرم در سیستمهای دارای هوش مصنوعی چیستند؟
- آقای سخاوتیان
قبل از اینکه به مسئلهی عوامل موجههی جرم در سیستمهای هوش مصنوعی بپردازیم، اصلاً بگوییم که عوامل موجههی جرم در فقه ما چه چیزهایی است و بعد به سراغ مسئله برویم. در فضای فقهی که دقت میکنیم میبینیم اگر یک انسان مرتکب جرمی شود در چند حالت نسبت به جرم خودش مسئولیت کیفری ندارد. باز هم در اینجا تأکید میکنم که این به این معنا نیست که مسئولیت مدنی نداشته باشد. این دو از هم جدا هستند. وقتی که به همهی آنها نگاه میکنیم، مهمترین موارد اضطرار و اکراه است. اضطرار و اکراه در این میان چه میگوید؟ من مضطر هستم که مثلاً به خاطر شرایطی که قرار گرفتهام، مثل اینکه فرد در حالت بیغذایی و مرگ است و مجبور است که شراب بخورد و زنده بماند. در اینجا چون این اضطرار و اجبار هست، خب مصرف هم میکند و گناه هم نکرده است. ما این را داریم و مشابه همین دربارهی گوشت مُردار هم مطرح میشود و یا بسیاری از داروهایی که ما مصرف میکنیم از این سنخ هستند که چون اضطرار دارد مصرف میشود. اگر در حالت عادی بخواهد این دارو را مصرف کند برای فرد ضرر دارد و باعث آسیب دیدن خودش میشود و نمیتواند مصرف کند. این اضطرارها باعث میشوند که حکم اولیه به یک حکم دومی تغییر میکند که آن حکم دوم مبتلابه خود فرد است و باید آن را انجام دهد. الان یک نفری آمده و مثلاً دارد رانندگی میکند. دقیقاً قبل از رانندگی و حرکت کردن آمد و بررسی کرد و ماشین او هیچ اشکالی نداشت. حالا با این رانندگی دارد میرود، وسط راه ترمز میبرّد و دیوار خانهی مردم را خراب میکند و خودش هم آسیب میبیند. در اینجا ما نمیتوانیم بگوییم این شخص مجرم است. مجرم کیفری نیست. بله، نسبت به آن ساختمان ضامن است و باید پولش را پرداخت کند و درست کند، ولی او مجرم نیست. چرا؟ چون یک کار اضطراری برای او اتفاق افتاده است. یا اینکه اسلحه را بالای سرش گذاشتهاند که باید فلان کار را انجام دهی و اگر انجام ندهی، تو را میکشیم. اینجا اکراه است، دست به کاری زده و مجبور است انجام دهد. در چنین حالتهایی این جرم را برای او حساب نمیکنیم و آن را کیفری محسوب نمیکنیم. بله، مدنی هست ولی کیفری نیست. ضامن هست و باید خسارت را پرداخت کند، اما در ازای آن مجازات نیست. حالا این مطالب چند استثناء هم میخورد که بین مراجع و بزرگان اختلاف است. اگر شخصی مکرَه باشد، اسلحه روی سر او گذاشتهاند و گفتهاند که باید یک نفر دیگر را بکشد. او میتواند بکشد یا نمیتواند بکشد؟ اینجا اختلاف فتوا است و برخی اجازه نمیدهند که این اتفاق بیافتد.
حالا ما میخواهیم ببینیم که همین مطلب در هوش مصنوعی هم اتفاق میافتد یا نه؟ آیا هوش مصنوعی هم میتواند مضطر و مکرَه شود یا نه؟ اگر این هوش مصنوعی مکرَه شد... . با این پیشفرض که ما در اصل داشتیم که به کلاندادهها دسترسی دارد و نمیشود و اگر هم بشود - فرض را به اینجا میآوریم - در این صورت باید بررسی کنیم که این اکراه او نسبت به چیست؟ جان انسان است؟ که در این صورت حق ندارد اقدام کند. چرا حق ندارد اقدام کند؟ علتش هم این است که انسان شرافت دارد و هوش مصنوعی هر قدر هم گرانقیمت باشد، شرافت انسان بیش از آن است و حق اقدام ندارد، حتی اگر به نابودی خودش هم منجر شود. این از نظر فقهی قابل اثبات و قابل تبیین است. یعنی اگر هوش مصنوعی مکرَه باشد، روی سرش اسلحه بگذارند و بگویند که تو را نابود میکنیم، مگر اینکه فلان انسان را بکشی. او حق چنین کاری را ندارد و اگر هم انجام دهد، با اینکه مکرَه است، مجرم محسوب خواهد شد. چرا؟ چون ما در اینجا یک بحثی به اسم مصلحت أقوی داریم. مصالحی در خارج وجود دارد که این مصلحت، مصلحت أقوی است. مصلحت أقوی در اینجا چیست؟ شرافت آن انسان از این هوش مصنوعی بیشتر است، هر چند ممکن است قیمت این هوش مصنوعی بیشتر باشد، چندهزار میلیارد هزینه کردهاند و این را ساختهاند. دیهی انسان کمتر از ۱ میلیارد است. ولی با این حال چون شرافت انسان بیشتر است، هوش مصنوعی در چنین جایی حق ندارد دست به اقدام بزند.
اما گاهی اوقات هوش مصنوعی مضطر میشود و دیگر اکراه نیست، اصلاً اراده و اختیار از دست او خارج میشود و توانی ندارد. در چنین حالتی اگر دست زد، حالا دوباره بررسی میکنیم که این اختلال ناشی از چه چیزی بود؟ اگر این اختلال ناشی از غفلت طراحان و کاربران نبود، فقط خود این هوش مصنوعی بود، بله، اضطرار بود و هیچ اشکالی بر هیچکسی وارد نیست. اما اگر ناشی از خود هوش مصنوعی و شرایط خاص نبود، ناشی از غفلت یا اشتباهی در کاربران و یا طراحان بود، آن زمان باید نسبتسنجی کنیم و ببینیم که هر کدام از اینها به چه میزان در این تخلف نقش دارند؟ باید بررسی شود. یعنی به صرف اینکه مضطر شد، دلیل نمیشود بگوییم جرم از او برداشته میشود و هیچ جرمی در این میان ندارد.
گهگاهی نکتهی دیگری را هم اضافه میکنند که با عنوان فرمانبرداری از آمر است. او یک دستوردهنده، یک آمر، یک مدیر و یا فرماندهی دارد که به او دستور داده است. اینجا دقیقاً همان مباحثی که ما در سرباز و فرمانده مطرح میکنیم که یک فرمانده دستور داد و چون سرباز هم نظامی بود، چشم گفت و تبعیت کرد، هر چه در آنجا گفتیم، اینجا هم خواهد آمد، ولی باز هم تذکر میدهیم و تأکید میکنیم، ما همهی اینها را پیشفرض گرفتهایم که هوش مصنوعی قوی تحقق پیدا کرده است. اما اگر مبنای ما این نباشد و بگوییم که هوش مصنوعی قوی تحقق پیدا نمیکند و یا اگر هم تحقق پیدا کند، مستقل نیست و وابسته به یک انسان دیگر است. در آن صورت تمام حرفهای ما متوجه آن کسی خواهد شد که بر این ولایت و سیطره دارد که گاهی اوقات مالک و سازنده است و گاهی هم طراح و بهینهساز است. چون مالک طبق برنامهی آن استفاده میکند، این دیتاها و الگوریتمها را چه کسی در اینجا قرار داده است؟ بهینهساز و طراح. پس باید به این نکته دقت داشته باشیم.
مجری: این نکاتی که شما دربارهی اکراه و اضطرار فرمودید فقط در مورد انسانها و خون انسان است و یا در تمام جرمها صدق پیدا میکند؟
دربارهی اکراه و اضطرار باز بررسی میکنیم تا ببینیم که ضرر کدام بیشتر و ضرر کدام کمتر است؟ مثلاً اگر یک انسانی در رودخانه افتاده و دارد غرق میشود و برای نجات دادن او، لازمهاش این باشد که من از وسط مزرعهی کسی رد شوم و بسیاری از گندمهای او را خراب کنم. در چنین جایی همه میگویند که اصلاً بر شما واجب است که از وسط این مزرعه رد شوید. چرا؟ چون یک مصلحت أقوی در اینجا هست. کمااینکه ابتدای جلسه جناب آقای دکتر عندلیب هم مثال زدند که یک ربات امدادگر است که در آتشسوزی میخواهد پشت دیوار برود و انسانهایی که گیر افتادهاند را نجات دهد. او دیوار را خراب کرده است. در اینجا باید چه کاری انجام دهد؟ اصلاً بر او واجب است و باید حتماً دیوار را خراب کند. چرا؟ چون جان انسان مهمتر است. در جایی که ما مصلحت أقوی داریم، چه بحث جان و چه بحث غیرجان باشد، مصلحت أقوی همیشه مقدم میشود.
مجری: متشکرم. آقای دکتر عندلیب، با توجه به نکتهای که در قسمت قبل آقای دکتر سخاوتیان پیرامون اضطرار و اکراه فرمودند، آیا اینها عامل موجه جرم از نظر حقوقی شمرده میشوند یا خیر؟
- آقای عندلیب
در تأیید فرمایش آقای دکتر سخاوتیان، دقیقاً همین مباحث از فقه ما به عالم حقوق ما وارد شده است، البته در سیستمهای حقوقی دنیا هم همینها هست. یعنی در سیستمهای حقوقی دنیا هم اگر مطالعه بفرمایید میبینید همین عواملی که در فقه ما گفته شده است، در آنجا هم این را پذیرفتهاند. فقط میخواهم به تفاوت بین اضطرار و اکراه اشاره کنم. اضطرار همیشه یک عامل درونی دارد که فرد را به وضعیت خطرناک میکشاند. یعنی یک عامل درونی باعث میشود که این فرد در وضعیت خطرناک و وضعیت غیرعادی قرار بگیرد. برای مثال خدایی ناکرده یکی از بستگان فردی در بیمارستان است، برای اینکه پول درمان را تهیه کند، مجبور میشود خانهاش را بفروشد. این اضطرار است. اما در اکراه حتماً یک عامل خارجی است که دارد این فرد را تهدید میکند. یعنی یک مکرِه و یک مکرَه داریم که یک فردی است که دارد این را تهدید میکند. به تعبیری که آقای دکتر سخاوتیان مثال فرمودند که فردی تفنگ خود را روی سر این فرد قرار داده و میگوید که فلان کار را انجام بده، یعنی عامل خارجی دارد و آن را تهدید میکند. البته این یک تفاوتها و مباحثی در فقه ما دارد که بحث اهم و مهم مطرح میشود و در بحث خون اکثر فقها میگویند که چون بین خون اهم و مهم نیست، اگر شما را تهدید به کشتن دیگری کرد، نمیتوانید انجام دهید، ولی در مورد مادون خون باز آن ترازوی اهم و مهم را میچینند و میگویند که باید اهم و مهم را بررسی کنید و تشخیص دهید.
اجازه میخواهم مثل بحثی که در دفاع مشروع عرض کردم، در اضطرار هم ببینیم که شرایط چیست. همان شرایطی که ما در دفاع مشروع کنیم، یعنی باید آن منفعت مورد حمایت قانونی و مشروع باشد، منفعت مورد حمایت باید در معرض خطر حتمی و قریب الوقوع باشد، سومین شرطی که در اینجا اضافه میکنیم این است که این منفعتی که دارد دیده میشود، تهاجم و عامل خارجی نسبت به آن اتفاق نمیافتد، چون گفتیم که اضطرار عامل درونی دارد. بقیهی شرایطی که در آنجا گفتیم، در اینجا هم هست. برای اینکه مشخص شود یک مثال بزنم.
- آقای سخاوتیان
همینجا نکتهی دقیقی اتفاق میافتد، ما وقتی میگوییم عامل درونی، دیگر یک حالت نفسانی میشود و دقیقاً به همان اشکال اول برمیگردد که آیا هوش مصنوعی دارای کیف نفسانی هست یا نه؟
- آقای عندلیب
اجازه دهید که مثال بزنم و ببینیم که نظر جنابعالی هم در اینباره چیست؟ ما یک لوکوموتیو مبتنی بر هوش مصنوعی ساختهایم. این لوکوموتیو اتوماتیک دارد مسیر طی میکند و به جایی میرسد که باید ریل را عوض کند. اگر ریل را عوض کند، ۲۰ نفر یا ۲۰۰ نفر مسافر دارد، جان اینها نجات پیدا میکند و در ریلی که ریل دوم است ادامهی مسیر میدهد. در ریل اول اگر بخواهد ادامهی مسیر دهد، یک کودکی روی آن ریل هست و نمیتواند در آنجا ادامهی مسیر بدهد. در آن تقاطع که میرسد، یا مجبور است به ریل دوم برود که باید به ریل دوم برود. این کودک سر همان تقاطع نشسته است. اگر از روی کودک رد نشود، در آن ریل اول دیگر ادامهای نیست، به کوه میخورد و جان ۲۰۰ مسافر را از دست میدهد، اگر بخواهد به ریل ۲ بیاید که کار درست هم همین است، یک بچهای سر همان ریل نشسته است. اینجا برای لوکوموتیو مبتنی بر هوش مصنوعی یک تزاحمی پیش میآید، بین حفظ جان ۲۰۰ مسافر و بین حفظ جان یک کودک. اینجا دقیقاً این لوکوموتیو مبتنی بر هوش مصنوعی است و الان دوربینهایی که در اینجا هست به او تجزیه و تحلیل میدهند. او تصمیم میگیرد که ۲۰۰ بر ۱ ترجیح دارد، من جان ۲۰۰ نفر را نمیگیرم و یک نفر را فدای ۲۰۰ نفر میکنم. ما دقیقاً این را در مسائل انسانی هم داریم. مثال میزنند که اگر رانندهی اتوبوسی در یک سرازیری دارد میرود و یک نفری از روبهرو سبقت غیرمجاز گرفت، ۴ نفر در آن خودروی روبهرو هستند و او ۳۵ نفر مسافر دارد. او به کوه بزند و ۳۵ نفر را به کشتن بدهد؟ یا به همان ماشین ۴ نفر بزند؟ اینجا اضطرار میشود و در واقع باید در اینجا تصمیم بگیرد. لوکوموتیو دارای سیستم هوش مصنوعی هم دقیقاً همین کار را میکند.
- آقای سخاوتیان
آنجا رانندهی مستقلی هست که آن راننده دارای کیف نفسانی انسانی است، اما هوش مصنوعی این را ندارد، در حقیقت هوش مصنوعی دستیار یک انسانی است که به عنوان اپراتور و راهبر اصلی قرار دارد.
- آقای عندلیب
نه، این طراحی شده است.
- آقای سخاوتیان
به همان هم که نگاه میکنیم... . تعریفی که خودتان در چند جلسهی قبل فرمودید، تعریف هوش مصنوعی قوی چیست؟ نیاز به اپراتور ندارد. این نکته خیلی مهم است. یعنی آن راهبر را ندارد.
- آقای عندلیب
یعنی خودش مستقل است. الان هم مستقل است. ببینید حضرتعالی با همین اطلاعات اولیه دادن، استقلال آن را نفی میکنید. من میگویم اطلاعات اولیه دادن، استقلال سیستم هوش مصنوعی را... .
- آقای سخاوتیان
یک سؤال میپرسم: شرایط اطمینان و عدم اطمینان در هوش مصنوعی را چطور میبینید؟
- آقای عندلیب
من میگویم اطمینان یعنی ما اطلاعات را دادهایم، تمام آن اقدامات معقول، تمام آن اقدامات احتیاطی، استانداردها و همهی آن آزمایشات را با موفقیت پاس کرده و گذراندهایم و الان این سیستم تولید شده است.
- آقای سخاوتیان
ساده بگویم، راسل و نورویک در کتاب خودشان که با عنوان درآمدی نوین بر هوش مصنوعی است، مطرح میکنند که در شرایط عدم اطمینان... یعنی هنوز هوش مصنوعی که کامل در شرایط اطمینان قرار بگیرد طراحی نشده است. میگوید: در شرایط عدم اطمینان هوش مصنوعی توقف میکند تا راهبر و اپراتور انسانی بیاید و به او جواب دهد. این نکته مهم است. وقتی این اتفاق میافتد به معنای هوش مصنوعی ضعیف است. شما میگویید که چنین لوکوموتیوی طراحی شد که به صورت خودکار حرکت میکند. اما همین راهبر میخواهد، همین برای خودش یک اپراتور میخواهد. در کجا؟ در دفتر مرکزی. تنها مطلبش چیست؟ کارهای داخلی و همه را به این ماشین سپرده است، ولی خود همین ماشینی که دارد تصمیم میگیرد و حیطهی اختیاراتی دارد، همهی اینها باز تحت اشراف آن راهبر است. یعنی جدا از آن راهبر نیست.
مجری: یعنی الان خود این لوکوموتیو هوش مصنوعی دارای تجزیه و تحلیل نیست که تصمیم بگیرد که در ریل اول یا ریل دوم حرکت کند؟
تجزیه و تحلیل یک واژهی مبهم است و باید دقیق مشخص کنیم. زمانی من به دستهبندیها و طبقهبندیهای اطلاعات و دادهها به وسیلهی الگوریتم، تجزیه و تحلیل میگویم، دستهبندی میکند و در جای خودش میگذارد، بله، این هست، این را انکار نمیکنم که داریم. اما زمانی هم مراد ما از تجزیه و تحلیل فهم و درک و اذعان است که ما این مطلب را در هوش مصنوعی نداریم.
اجازه دهید از واژگان غربی استفاده کنم، ببینید از مرتبهی دیتا به اینفورمیشن را وارد میشود، ولی هرگز به Knowledge تبدیل نمیشود، اما انسان به مرتبهی Knowledge وارد میشود.
Knowledge چیست؟
ببینید وقتی که ما مجموعهای از اطلاعات و دادهها را داریم، اگر این مجموعهی اطلاعات و دادهها درهم ریخته باشد، صرفاً اطلاعات و دادهها است، وقتی طبقهبندی میکنیم، اینفورمیشن شکل میگیرد، زمانی که آن را ادراک میکنیم و میفهمیم، Knowledge شکل میگیرد که ما در فارسی به علم و دانش ترجمه کردهایم. ببینید سه مرتبه را طی میکند.
حالا این هوش مصنوعی مرتبهی اول و دوم را هم دارد، اینکه شما دستهبندی کردن و طبقهبندی کردن به وسیلهی الگوریتم را بخواهید تجزیه و تحلیل معنا کنید، بله، چنین چیزی دارد و ما هم انکار نمیکنیم. اما اگر درک و اذعان و فهم بخواهید معنا کنید که مال مرتبهی بعدی یعنی Knowledge است که ما در فارسی به دانش و علم ترجمه کردهایم - حالا اینکه معنای آن دقیقاً دانش و علم است یا نه، بحث دیگری است و من فعلاً وارد این بحث نمیشوم - هوش مصنوعی نمیتواند وارد این مرتبه شود. ببینید نکتهی مهم ما اینجا است، چون نمیتواند وارد این مرتبه شود، هیچگاه مثل انسان نخواهد شد. انسان همیشه یک مرتبه جلوتر خواهد بود.
مجری: بسیار خوب، آقای دکتر، در خدمت شما هستیم.
- آقای عندلیب
بله، من عامل دیگری را تحت عنوان اکراه عرض کنم. در اکراه تسلیم شدن در برابر یک تهدید از طریق ارتکاب جرم است. ما را تهدید میکند و میگوید که باید این جرم را انجام دهی، وگرنه جان، مال، عرض یا ناموس تو را در خطر میگذارم که ما به این اکراه میگوییم. یک ربات نگهبان زندان، یک زندانی فراری را دستگیر کرده است. از طرفی زندانی یک اسلحه را به سمت یک زندانبان انسان گرفته است. یعنی ربات این زندانی فراری را گرفت، این آقای زندانی در حال فرار تفنگ خودش را درآورد و به سمت یکی دیگر از زندانبانان انسان نشانه رفته است. الان این سیستم دارای هوش مصنوعی باید چه کند؟ باید در اینجا بین جان آن انسان، یعنی نگهبان و بین اینکه الان این زندانی فرار میکند تصمیم بگیرد. آیا در اینجا این تهدید موجه جرم، یعنی مساعدت در خلاصی زندانی، چون اگر اجازه دهد که او از زندان فرار کند، خودش جرم است، این کار را برای حفظ جان آن زندانبان مرتکب شود؟ میگوییم: بله. دقیقاً اگر یک انسان در جای این ربات بود چه میکرد؟ همین را در فضای واقعی انسانی هم میبینیم که اگر یک انسانی یک انسان دیگری را تهدید به مرگ بکند، ما مجبور میشویم برای حفظ جان او کوتاه بیاییم و حتی به او در فراری و خلاصی در دام قانون کمک کنیم. حالا اینکه بعداً او را دستگیر کنیم، اقدامات بعدی است ولی فعلاً باید این تصمیم را بگیریم و این موضوع یک مساعدتی است که اتفاق میافتد.
موضوع چهارم که باز هم من فکر میکنم آقای دکتر سخاوتیان از اینجا هم علیه این بحث حتماً استفاده میکنند امر آمر قانونی است. امر آمر قانونی یعنی دقیقاً استقلال هوش مصنوعی را زیر سؤال میبرد. چرا؟
- آقای سخاوتیان
مشابه همان سرباز و فرمانده است که در انسان هم تعریف کردیم.
- آقای عندلیب
بله، همان سرباز و فرمانده است. میگوییم که در این هوش مصنوعی یک آمر قانونی در پشت صحنه بوده که به این دستور داده و او تصمیمات اشتباهی گرفته است. این آقای سرباز که حالا ربات هوش مصنوعی است را میآورند و از او استنطاق میکنند. میگویند: تو چرا این کار را کردی؟ میگوید: دستور فرمانده بود. اینجا یک مقداری بحث متفاوت است و میگویند که باید آن دیتاها و اطلاعاتی که در فضای اطلاعات و دیتاهای این هوش مصنوعی هست را بررسی کنیم و ببینیم که چنین دستوری از آن طرف آمده است یا نه؟
ولی مجموعاً تحلیل من این است که خاتمهی عرایضم باشد. من میگویم که اطلاعات اولیه دادن به یک انسان یا حتی به یک دستگاه، اختیار بعدی او را نفی نمیکند. درست است که تقسیم مسئولیت میکنیم. چطور اگر به یک انسانی به اشتباه تعلیم دهیم و او را مجرم بیافرینیم، او برود و جرم مرتکب شود و آن سبب را هم در نظر کارشناسی بررسی میکنند؟ ما یک بچهای را فضای جرم متولد کنیم، در فضای جرم پرورش دهیم، از او یک مجرم ساختهایم. در سیستمهای حقوقی، هر چند در مباحث جامعهشناسی جرم کمتر دیده میشود، ولی این از مباحث مهم است. ولی من میگویم که ما اختیار آن کودک را سلب نکردهایم که حالا این بزرگ شده است. دقیقاً در رباتهای هوش مصنوعی هم همینطور است. درست است که یک اطلاعاتی به آنها دادهایم، ولی این بعداً بر اساس اطلاعات خودش تصمیم میگیرد. اینکه ما کنترل داشته باشیم و از اتاق فرمان این را کنترل کنیم، باعث محو استقلال او نمیشود. بله، ما یک کنترلی هم داریم که میتوانیم این را کنترل کنیم و میتوانیم الان دستور دهیم که استپ کند، ولی اگر ما آن دستور را ندهیم، خودش بر اساس آن اطلاعات میتواند تصمیم بگیرد و تصور من این است که یک استقلالی در این تصمیم هست.
مجری: متشکرم. آقای دکتر سخاوتیان، شما دربارهی عوامل موجههی جرم در فقه دو تا نکته را پیرامون اضطرار و اکراه فرمودید، آیا غیر از این دو مورد میتوان عوامل موجه دیگری را در فقه مثال زد یا خیر؟
- آقای سخاوتیان
اگر بخواهیم عوامل موجهه را ذکر کنیم، حدیث رفع خیلی به ما کمک میکند، ولی اگر به غالب آنها نگاه کنیم مال فضای انسانی است و برای هوش مصنوعی به سختی میتوان آن را تصور کرد، مثلا «رُفِعَ عَنْ أُمَّتِی تِسْعٌ»؛ ۹ چیز از امت من برداشته شده است. اینها عوامل رافعه حساب میشوند، ولی در بین آنها آن چیزی که ما میتوانیم با آن پیشفرضها... . من گفتهام که فرض میکنیم پیشفرضها را پذیرفتهایم و به عنوان جدال احسن داریم بحث میکنیم. بین آنها صریحترین چیزهایی که در اینجا میتوانند حضور پیدا کنند و در بحث ما کمک کنند، اضطرار و اکراه است. اگر هوش مصنوعی واقعاً بتواند مستقل شود، در آن صورت میتوانیم این بحث اضطرار و اکراه را در مورد هوش مصنوعی مطرح کنیم و مشکل خاصی در این زمینه نیست.
گفتیم که بحث ما بحث مبنایی است. در اینجا یک نکتهای را به عنوان تذکر بیان کنم. ما مخالف خوبیها و فایدهی این فناوری نیستیم، ولی مطلب این است که ما در این مقام هستیم که میخواهیم ببینیم این شیء چیست؟ مجموعهای از حقوق و تکالیف را برای آن تعریف کنیم و تخلف از این تکالیف را هم برای آن جرمانگاری کنیم. یعنی اگر آن را به درستی نشناسیم، یک چیزی را تصویب میکنیم که برای چیز دیگری خواهد شد و این چیزی که در بیرون هست، آن نیست. لازمهاش این است که باید به درستی بشناسیم، تا ببینیم این موجودی که الان دارد پدید میآید، چه حقوقی دارد که اگر کسی به آن تجاوز کرد، مجرم باشد. چه تکالیفی دارد که اگر از آن تخلف کرد، این هوش مصنوعی مجرم شود. لذا باید دقیق بشناسیم. بحث ما روی این دقت شناخت است که بتوانیم قوانینی که تنظیم میکنیم دقیق باشد.
مجری: آقای دکتر سخاوتیان با توجه به حالتهای مختلفی که دربارهی هوش مصنوعی گفتیم، بالأخره تکلیف این جرمانگاری چه میشود؟
ببینید با توجه به آن پیشفرضهایی که پذیرفتیم، چند حالت برای هوش مصنوعی اتفاق میافتد که ما این حالتها را به صورت فرضی مطرح میکنیم. اولین فرض ما که خود هوش مصنوعی ضعیف است که هوش مصنوعی ضعیف در بحث جرمانگاری اصلاً موضوعیتی پیدا نخواهد کرد. چون ضعیف است و کاملاً هم وابسته به انسان است، آن کاربر یا آن مسئول طراح و بهینهساز در این جرم شریک خواهد شد و الّا این در حد یک ابزار ورود کرده است، مثل چاقو که شخصی چاقو را گرفته و با آن جرمی انجام داده است، در اینجا مجرم چاقو است یا آن شخص؟
پس در هوش مصنوعی ضعیف این مسئله اصلاً موضوعیت پیدا نخواهد کرد. موضوعیت بحث ما کجا مهم میشود؟ در کجا وارد میشود؟ هوش مصنوعی قوی است. در اینجا دو تا فرض داریم؛ یکی هوش مصنوعی قوی مستقل که جناب آقای دکتر عندلیب بیشتر روی آن تأکید دارند و قائلانی هم در دنیا برای خودش دارد، خیلیها قائل به این هستند و نمیتوان انکار کرد. هوش مصنوعی قوی که همانند انسان اقدام میکند، اگر دچار جرم شود، نسبت به آن جرم خودش دارای تکالیف قانونی است. یعنی حقوق و تکالیفی دارد که باید به تکالیفش بپردازد و اگر تخلف کند مجرم است.
حالا که مجرم شد، گاهی اوقات رافع و دافع از جرم دارد و گاهی اوقات هم ندارد. اگر ندارد که برای آن مجازات تعریف میشود و مجازات میشود. اگر رافع و دافع دارد، این جرم از او سلب میشود و فقط آن مسئولیت مدنی برای او میماند و کیفری نیست. همین مثالی که امروز گفتیم.
مجری: همین مسئولیت مدنی هم برای آن بماند، این ضمانت بر عهدهی کیست؟ بر عهدهی خودش هوش مصنوعی است؟
اگر هوش مصنوعی قوی مستقل را پذیرفتیم، بله، بر عهدهی خودش است. اما با توجه به مبنایی که ما داریم و گفتیم که هوش مصنوعی قوی مستقل امکانپذیر نیست، هوش مصنوعی همیشه وابسته خواهد بود، حتی اگر قوی شود. در این صورت این ناظر به آن کاربر یا طراح و بهینهساز آن است. چون گاهی اوقات ناشی از نوعی اختلال است که کوتاهی از بهینهساز و طراح است و گاهی اوقات هم ناشی از نوع استفادهاش است که مربوط به کاربر است و ما باید نوع آن را بشناسیم تا بتوانیم به درستی دربارهی این مطلب صحبت کنیم.
مجری: بسیار متشکر و ممنونم. بحث خوبی بود. جناب آقای دکتر عندلیب، به صورت خلاصه و در حد ۳۰ ثانیه از مباحثی که امروز گفته شد را بفرمایید.
- آقای عندلیب
ممنونم. ما در این جلسه عوامل موجههی جرم را بررسی کردیم، دفاع مشروع، اضطرار، اکراه، امر آمر قانونی، این چهار عنصر را بیان کردیم و آقای دکتر سخاوتیان همانطور که فرمودند بیشتر در خصوص اکراه و اضطرار فرمودند که در فقه داریم، البته دفاع مشروع هم هست، ولی تطابق آن بر بحث هوش مصنوعی خودش یک بحث است.
- آقای سخاوتیان
ولی باز هم به نوعی به اضطرار برمیگردد.
- آقای عندلیب
ما یک عنوانی هم داریم که انشاءالله در جلسات بعدی اگر توانستیم مطرح میکنیم. اگر توفیق باشد در جلسات بعد در خصوص بحث صدور حکم برای سیستمهای دارای هوش مصنوعی صحبت خواهیم کرد.
مجری برنامه: مجید لاهیجانی امیری
تنظیم: محمد رسول صفری عربی
نظر شما