به گزارش خبرگزاری حوزه، برنامه فقه پویای رادیو معارف در ۹ جلسه با حضور حجج اسلام والمسلمین سخاوتیان و عندلیب به بررسی فقهی و حقوقی ابعاد گوناگون هوش مصنوعی پرداخته که رسانه رسمی حوزه به انتشار محتوای این برنامهها در شماره های گوناگون پرداخته و در این مطلب به انتشار جلسه هشتم خواهیم پرداخت.
مجری: بسم الله الرحمن الرحیم. عرض سلام و ادب دارم.
آقای دکتر عندلیب، اصول، ضوابط و قواعدی که در صدور حکم برای سیستمهای هوش مصنوعی از جهت حقوقی بیان میشود چیست؟
- آقای عندلیب
پیشفرضی که ما داریم این است که میتوانیم سیستمهای دارای هوش مصنوعی را مسئول کیفری بدانیم و مسئولیت کیفری را بر آنها بار کنیم. بعد از مباحثی که در جلسات گذشته داشتیم به این نتیجه رسیدیم که مسئولیت کیفری قابل انتساب به سیستمهای دارای هوش مصنوعی است و اکنون و در فرجام مباحث باید به بحث صدور حکم برسیم. طبیعتاً وقتی اثبات شد که سیستمهای دارای هوش مصنوعی قابلیت مسئولیت کیفری را دارند، حالا باید بگوییم که اصول، ضوابط و قواعد صدور حکم چیست؟
ما در سیستمهای حقوقی دنیا چهار رویکرد را در باب مجازات یا صدور حکم داریم.
یک رویکرد، رویکرد سزا دهی است، یعنی بر ویژگیهای جرم متمرکز است و در این رویکرد بر این باور است که ما باید حتماً این فرد را به مجازات و سزای عمل ننگینش برسانیم.
رویکرد دوم رویکرد بازدارندگی است. بازدارندگی در واقع انعکاس آرزوی انسان برای یک جامعهی بهتر است. برای اینکه بزهکاران و مجرمین کمتر دست به جرم بزنند و آنها را از ارتکاب جرم منصرف کند و پیشگیری شود. بازدارندگی به این معنا است که برای مجرمین بالقوّه ترس از ارتکاب باشد و کسانی هم که یک بار جرم مرتکب شدهاند بترسند و دوباره به سمت ارتکاب جرم نروند. این یک اصل خیلی مهم است و خیلی هم تأکید میشود که مجازاتها باید آن جنبهی بازدارندگی را داشته باشند.
سومین رویکرد، رویکرد بازپروری است که اینجا شخصیت مجرم را مدنظر قرار میدهد و میگوید ما علاوه بر اینکه باید به جامعه توجه داشته باشیم، باید مجرم را درمان کنیم و شرایط اجتماعی شدن او را دوباره برای او فراهم کنیم، بگذاریم که دوباره مجرم مثل یک انسان و شهروند سالم به آغوش جامعه بازگردد.
رویکرد چهارم که دیگر راهی برای سیستم مجازات کیفری باقی نمیماند، میگوید که ما ناتوانسازی کنیم، یعنی پیشگیری فیزیکی از مجرمان، محدودسازی فیزیکی آنها صورت بگیرد که در قالب حبس یا مجازاتهای دیگر قابل تصور است. ما ابتدا باید ببینیم که این چهار رویکرد چه وضعیتی را دارد و در سیستمهای دارای هوش مصنوعی کدامیک از این چهار رویکرد بهتر است؟ کدامیک از این چهار رویکرد مناسبتر است و به اهداف مجازات نزدیکتر است؟ رویکرد اول که بحث سزا دهی است که بر ویژگیهای جرم تمرکز میکند که ما سزا دهی کنیم، تقریباً امروزه طرفداران کمی را در سیستمهای حقوقی دنیا دارد. حتی در سیستم حقوقی کشور خود ما هم قانونگذار کیفری ما در قانون مجازات اسلامی ۱۳۹۲ اصلاً به سمت نهادهایی رفت که این نهادها نهادهایی هستند که به سمت بازپروری، به سمت بازدارندگی و به سمت اصلاح جرم و مجرم میروند، مثلاً قانونگذار ما برای اولین بار بحثهای تخفیف مجازات، معافیت از مجازات، تعویق صدور حکم، تعلیق اجرای مجازات، نظام نیمهآزادی، نظام آزادی مشروط و حتی مجازاتهای جایگزین حبس را آورد. یعنی قانونگذار از نظر اول که برای خیلی از جرایم حبس و زندان را در نظر گرفت، بعد از گذشت چند دهه از مجازات زندان که بازخوردهای موفقی نداشت، به این سمت آمد که به سمت جایگزینهای حبس برویم. در آخرین ارادهی خود که در قانون کاهش مجازات حبس تعزیری ۱۳۹۹ اتفاق افتاد باز یک طیفی از جرایم را به جرایم قابل گذشت برد و آنها را از جنبهی عمومی خارج کرد. البته دوباره قانونگذار بعد از این قانون کاهش مجازات حبس تعزیری با سرقتهای خُرد و کلاهبرداریهای خُرد مواجه شد که این دوباره آن را به یک اصلاحی وادار کرد، یعنی با قانون کاهش مجازات حبس تعزیری، سرقتهای زیر ۲۰ میلیون تومان، قابل گذشت شد، کلاهبرداری در حکم کلاهبرداری زیر ۱۰۰ میلیون تومان قابل گذشت شد. یکدفعه دید که با قابل گذشت شدن اینها در جامعه تعداد جرایم بالا رفت و در ذهن برخی از مجرمین این آمد که وقتی دزدی خُرد میکنیم، رضایت شاکی را میگیریم و دیگر هم جنبهی عمومی ندارد والسلام و تمام. به خاطر همین قانونگذار از همین خرداد یا تیرماه امسال این قابل گذشت بودن سرقتها و کلاهبرداریهای زیر ۱۰۰ میلیون و سرقت زیر ۲۰ میلیون را برداشت و کلاً دوباره سرقت و کلاهبرداری غیر قابل گذشت شد. یعنی هم جنبهی خصوصی و هم جنبهی عمومی دارد.
حالا اطالهی سخن نشود، بههرحال قانونگذار ما از سال ۹۲ به بعد در ذهن و رویکردش به سمت جایگزینهای حبس رفت. اگر آراء قضایی را هم مشاهده بفرمایید از ۹۲ به بعد اکثر آراء قضایی به سمت نهادهای ارفاقی رفت که جایگزین حبس، جزای نقدی و این چیزهایی هستند که به آنها نهادهای ارفاقی میگوییم که حبس را به مجازات جایگزین تبدیل میکند. بنابراین باید ببینیم که در خصوص سیستمهای دارای هوش مصنوعی کدامیک از این رویکردها بهتر است.
مجری: متشکرم. جناب آقای دکتر سخاوتیان، از نظر فقهی چه اصول و قواعدی برای صدور حکم سیستمهای هوش مصنوعی وجود دارد؟
- آقای سخاوتیان
قبل از اینکه به اصل مطلب بپردازم یک پیشفرضی را عرض کنم. ما تا الان در جلساتی که گذشت به این پیشفرض رسیده بودیم که هوش مصنوعی مستقل از انسان امکان ندارد و لذا جرایمی که توسط هوش مصنوعی انجام میشود - من تعبیر دقیق به کار بردم و «انجام میشود» گفتم، نگفتم که هوش مصنوعی انجام میدهد، بلکه یک شخصی است که به وسیلهی هوش مصنوعی جرایم را انجام میدهد - همهی اینها منتسب به ماقبل از هوش مصنوعی و آن سبب أقوی میشوند. ولی با این پیشفرض، یعنی ما تسالم میکنیم و میگوییم از باب جدال احسن میپذیریم که مثلاً هوش مصنوعی جدا از انسان امکانپذیر باشد. ما این پیشفرض را قبول نداریم، ولی با این حال چون میخواهیم بحث علمی جلو برود، فرض میکنیم که چنین چیزی تحقق پیدا کرد. حالا تحقق پیدا کرد چه باید کرد؟
مباحث ابتدایی را که برادر عزیزمان جناب آقای دکتر عندلیب فرمودند، بحثهایی است که در فلسفهی حقوق هم در دنیا و هم در ایران به آنها پرداخته میشود که اصلاً وقتی میخواهیم مجازاتی انجام دهیم، هدف و غرض از این مجازات چیست؟ این مرحلهی اول است. مرحلهی دوم؛ روش این مجازات چیست؟ اینها دو تا بحث جدا از هم هستند. اگر ما بخواهیم به اغراض و اهداف بپردازیم، در حقیقت باید مباحث مقاصد الشریعه را در اینجا بیان کنیم که اصلاً چرا میخواهیم مجازات کنیم و قصد شارع از این مجازات چیست؟ این یک سؤال است.
مطلب دوم این است که اصلاً روش انجام این مجازاتها چیست که ما در مباحث فقهی بحث حد و تعزیر را داریم، این دو تا از هم جدا میشوند. اغراضی که از مجازات وجود دارد، دقیقاً هر ۴ حالتی که جناب آقای دکتر فرمودند قابل تصور است، ولی این چهار حالت به دو دستهی اصلی تقسیم میشوند: اغراض و اهدافی که رویکرد تنبیهی دارند، اغراض و اهدافی که رویکرد تربیتی دارند. بله، در این میان گاهی اوقات هم جرایمی هست که با رویکرد خسارت است که عملاً میتوان گفت اغراض و اهداف جبران خسارت دارند که ما میتوانیم قصاص و دیه را در این سنخ جا دهیم. چه بسا هدف از قصاص تنبیه نباشد، هدف از قصاص تربیتی نباشد، صرفاً جبران خسارتی باشد که به آن شخص وارد شد که آن شخص میتواند در ازای آن دیه هم تعریف کند که اینها باز در آن روشها مطرح میشوند. رویکردهای دیگر مثل سزا دهی، مثل بازپروری که آقای دکتر فرمودند، همهی اینها ذیل همین دو تا بحث میگنجند.
ما میخواهیم تنبیه کنیم، در اینجا با چه شکلی میخواهیم برویم؟ میخواهیم بازپروری کنیم، چرا میخواهیم انجام دهیم؟ اینها اغراض میشوند و دقیقاً همهی اینها در فضای فقهی هست. حتی در اینجا میتوانیم بحث بازدارندگی را مطرح کنیم. ما میبینیم برخی از مجازاتهایی که در فقه برای جرایم تعریف میشود، اصلاً رویکرد بازدارنده دارد که میخواهد این گناه و این اشتباه در جامعه شیوع پیدا نکند. حتی گاهی اوقات چشمپوشی از یک گناه، خودش دلیلی بر این است که اشاعه پیدا نکند. مثلاً ما در باب زنا، میگوییم زنا در چه صورتی اثبات میشود؟ زمانی که چهار شاهد عادل شهادت دهند، به همراه بقیهی شرایطی که در کنار آن ذکر میشود. خب سه تا شاهد عادل آمد، زنا اثبات نمیشود. چرا شارع میگوید که اثبات نمیشود؟ به خاطر اینکه میخواهد قبح آن در جامعه نشکند. گاهی اوقات در بحث مجازاتها وارد این فضا هم میشویم.
پس این دفاع از قبحی که وجود دارد و جامعه نسبت به آن یک قبحی دارد، بیشتر آن رویکرد تربیتی مورد توجه واقع میشود. ما اگر با مجازاتها و برخوردهایی که میشود، این قبح را بشکنیم، دیگر جامعه نسبت به این جرم احساس قبح نمیکند، همان احساس قبح خودش یک نوع بازدارندگی است. لذا برخی از احکام را میبینیم که رویکرد آنها بازدارندگی است. اما به چه شکلی؟ با تنبیه یا با ایجاد یک قبح ذهنی و حفظ آن قبح و فرهنگ اجتماعی. لذا همیشه مجازاتهای ما رویکرد تنبیهی یا تربیتی به این معنا نیست که اعمال خشونت کنیم. خیلی اوقات هم میپوشانیم و مخفی میکنیم، تا قبح این در جامعه نشکند. اینها حالتهای مختلفی است که اتفاق میافتد.
حالا ما بر فرض یکی از طرحها و سناریوهایی که در غرب مطرح میشود تصور کنیم. تا الان ۸ تا طرح و سناریو برای هوش مصنوعی در دنیا مطرح شده است. یکی از این سناریوها و طرحها آرمانشهروندی آزادیخواه است. در آرمانشهروندی آزادیخواه... . ببینید من گفتم که پیشفرضش را قبول نداریم و از باب جدال احسن داریم بحث میکنیم. فرض میکنیم که تحقق پیدا کند، در آن صورت این هوش مصنوعی یک شهروندی در جامعه همانند ما میشود که میتواند خانه بخرد، میتواند ماشین بخرد و یا زندگی عادیاش را داشته باشد. مثل ما ممکن است دچار خطا و اشتباه شود، این هم ممکن است دچار جرم و یا هر چیز دیگری شود. حالا بحث در اینجا این میشود که در این حالت آرمانشهروندی آزادیخواه که هوش مصنوعی به عنوان یک شهروند در جامعه حضور پیدا کرد، اولاً آیا میتوانیم باز هم جرایمی مثل حد، تعزیر با رویکردهای تنبیهی و رویکردهای تربیتی را برای آن بگوییم یا نه؟ ثانیاً هوش مصنوعی با آن ظرفیتهایی که دارد، چون به یک کلاندادهای دسترسی دارد که میتواند تشخیصهای خاص دهد - همانطور که گفتم اگر آن پیشفرض را بپذیریم اینطور است - حالا سؤال میپرسیم که تربیت به معنای انسانی که در تشخیصش دچار خطا شد، آیا باز در هوش مصنوعی با این معنا هم قابل تصور است یا نه؟ انشاءالله در طی بحث به آن خواهیم پرداخت.
مجری: متشکرم. جناب آقای عندلیب، پیرامون مباحثی که مطرح کردید و آن چهار رویکردی که پیرامون مجازات سیستمهای هوش مصنوعی بیان فرمودید، چه تطبیقی میتوان بر هوش مصنوعی ارائه داد؟
- آقای عندلیب
ما برای اینکه بهتر این چهار رویکرد را در خصوص صدور حکم برای سیستمهای دارای هوش مصنوعی ملاحظه و تأمل کنیم، لازم است که این رویکردها و همچنین فراز و نشیبهایی که این رویکردها داشتند را با هم مرور کنیم. ببینید رویکرد بازدارندگی خیلی خوب است، در واقع الان این موضوع را به همهی انسانها ارائه کنید، ولو اینکه حقوقدان هم نباشند، از آنها بپرسید که مجازاتها باید چطور باشد؟ میگویند: طوری باشد که فرد دیگر مرتکب نشود. این همان بازدارندگی است. اما یک نکتهای دارد. گاهی اوقات این مجازاتهای بازدارنده در دفعات اول تأثیر میگذارد ولی در دفعات بعدی تأثیر نمیگذارد. یعنی تأثیر خودش را از دست میدهد. یعنی ممکن است یک مجرمی دفعهی اول با این مجازات بترسد و انجام ندهد ولی بعد از مدتی به خاطر فشارها و عوامل اجتماعی دوباره ارتکاب جرم داشته باشد و این دیگر برای او عادی میشود. ما همین را در سیستم حقوقی آمریکا داشتیم که میگفتند این بیسرپناهان و کارتنخوابها در ایام سرد برای اینکه جای گرم و غذای گرمی داشته باشند، عمداً مرتکب جرم میشوند که به زندان بیایند و از باران و برف و سرمای زمستان نجات پیدا کنند. پس در اینجا مجازات تبدیل به منفعت جرم شد. یعنی سیستم حقوقی و سیستم قضایی باید خیلی حواسش را جمع کند که زمانی خودش اشتباهاً یک زمینهای را برای ارتکاب جرم فراهم نکند. این هوشمندی و این بهروز بودن و پویا بودن سیستم جزادهی خیلی مهم است.
در سیستم بازپروری که میتوان گفت از یک مفهوم مذهبی نشأت گرفته بود که ما به فکر اصلاح انسانها و اصلاح مجرمان باشیم. این سیستم بازپروری از ۱۸۹۵ تا ۱۹۷۴ یک سیستم مدرن و نرخ روزی شد که به سمت بازپروری مجرمان برویم. نکات خیلی خوبی هم دارد و کارهای خیلی مثبتی هم انجام شد ولی باز هم این رویکرد در کشورهای غربی و اروپایی به این نتیجه رسید که صرفاً بازپروری نمیتواند مشکلی را حل کند و گاهی اوقات باید مجازات و سزا دهی کرد. اینها به یک مدل جدید به نام عدالت استحقاقی رسیدند که گفتند عدالت اقتضاء میکند که این را هم بازپروری و هم مجازات کنیم که این هر دو را در نظر میگرفت.
مجری: یعنی میتوان گفت که در کنار مجازات بازپروری انجام شود؟
بله. در اینجا این سیستم دو تا کار را انجام میداد. میگفت که ما ابتدا به کمک مددکاران اجتماعی علل بزهکاری را شناسایی کنیم که این خیلی خوب است. یعنی واقعاً یک رویکرد بسیار علمی و کارشناسانه است که ما به کمک مددکاران اجتماعی علل بروز بزهکاری و جرم را شناسایی کنیم و سعی کنیم علل را برطرف کنیم. این نگاه پیشگیرانه است و خیلی هم خوب است. دوم اینکه میگفت ما در کنار مجازات به او مهارت اجتماعی یاد دهیم. این آقا که سارق است، چون حرفهای بلد نبود، در زندانها - در کشور خود ما هم همین اتفاق افتاد - کارگاههای مهارتآفرینی و فنیوحرفهای راه انداختند و در کل کشور خیلی کارهای خوبی شد. در کشور ما و در کشورهای دیگر این اتفاق افتاد و این خیلی کمک میکرد که این فرد هم بتواند کاری را یاد بگیرد، هم درآمدزایی داشته باشد و هم پس از طی دوران حبس به سراغ شغلی برود. ما در این صورت عملاً زمینهی بزهکاری را در او از بین برده بودیم، یک کاری را یاد گرفته بود و سر کار میرفت. این خیلی رویکرد خوبی است و همچنان هم طرفدارانی دارد.
خب اگر ما بخواهیم این را در سیستمهای هوش مصنوعی تطبیق کنیم، همان چیزی که حضرتعالی سؤال فرمودید. ببینید ما میتوانیم در سیستمهای هوش مصنوعی از طریق آن تجهیزات و ابزارهایی که بر هوش مصنوعی تسلط دارد و میتواند برنامهنویسی آنها را تغییر دهد، ما اینها را به یکسری برنامههای جدیدی مجهز کنیم که رفتارهای مجرمانهی هوش مصنوعی را اصلاح کند. این اطلاعاتی که به هوش مصنوعی داده میشود، یک بار دیگر بازخوانی شود، یک بار دیگر بررسی شود، یک بار دیگر تأمل شود و اطلاعات صحیح به سیستمهای دارای هوش مصنوعی داده شود که آن سیستم دارای هوش مصنوعی به سمت ارتکاب جرم نرود.
- آقای سخاوتیان
اینجا دقیقاً اول اشکال ما میشود که اگر ما این حرف را بپذیریم، دیگر هوش مصنوعی قوی نیست، هوش مصنوعی ضعیف است و وقتی هم که هوش مصنوعی ضعیف باشد، باز دوباره به همان ابتدا برمیگردیم، یعنی ما پیشفرض خودمان را در اینجا خراب کردهایم. ببینید بر طبق برهانی که شما ارائه کردید، دقیقاً این برعکس پیشفرض ما شد. پیشفرض ما این است که هوش مصنوعی قوی تحقق پیدا کرد، اگر ما دوباره بخواهیم به مرحلهی اول برگردیم و اطلاعات جدید به آن بدهیم و آن را بازپروری کنیم، این اتفاق یعنی هوش مصنوعی قوی نیست، یعنی ما داریم اطلاعات جدید به آن میدهیم. یعنی اینجا یک طراح و اپراتوری آمده و ورود میکند.
مجری: اصلاً ممکن است بتوان گفت که این هوش مصنوعی دیگر آن هوش مصنوعی قبلی نیست.
دیگر قوی نیست، هوش مصنوعی ضعیف است.
مجری: نه، قبلی نیست.
قبلی هم نیست. حالا آن فرض دیگر است. ولی این دیگر هوش مصنوعی قوی نخواهد بود. ما گفتیم که هوش مصنوعی قوی مستقل از ما است. یعنی یک موجودی در خارج مثل ما میشود. اگر من بخواهم دوباره روی اطلاعات ذهنی آن دست ببرم، آن پیشفرض اول را خراب کردهام. ما اطلاعاتمان را که طراحی میکنیم، یعنی شخصی دیتاها و اطلاعات را به هوش مصنوعی میدهد و دوباره الگوریتمها را طراحی میکند، این مرحله مربوط به هوش مصنوعی ضعیف است. هوش مصنوعی قوی مثل انسان توانایی یادگیری را دارد، پس من نمیتوانم اطلاعاتش را دستکاری کنم. او کلاندادههایی را دارد و باید رویکردهای تربیتی بگیرم. اگر اطلاعات را دستکاری کردم، هوش مصنوعی ضعیف میشود و دیگر نمیتوانم دوباره این بحثها را بکنم. اگر هوش مصنوعی ضعیف باشد هم که دیگر مستقل نیست و اصلاً جرایم ناظر به این نیست و ناظر به ماقبل آن است.
مجری: اینجا اختلاف مبنایی است.
- آقای عندلیب
حالا من یک نکتهای عرض کنم. ببینید بالأخره هوش مصنوعی ابتدا یک سازندهای دارد، یعنی ما بر اساس آن چیزهایی که مطالعه کردیم و به این نتیجه رسیدیم که هوش مصنوعی قوی هم امکان تحقق دارد، میگوییم بالأخره همین هوش مصنوعی قوی هم سازندهای دارد که انسان است، از آسمان که به زمین نمیآید، سازندهی انسانی دارد. اطلاعات داده میشود، طراحی میشود و بعد از آن دیگر خود هوش مصنوعی عمل میکند.
- آقای سخاوتیان
مرحبا. ببینید نتیجه دیگر مستقل از انسان شد. وقتی مستقل میشود دیگر من نمیتوانم به اطلاعات حافظهاش دست بزنم، باید رویکردها را بروم.
- آقای عندلیب
ببینید قابل تعمیر و اصلاح که هست. شبیه به یک خودروی اتوماتیک است. البته خیلی با هم متفاوت هستند ولی شبیه به یک خودروی اتوماتیک است که شما این را اتوماتیک تعریف کردهاید، یکسری اطلاعات هم به آن دادهاید.
- آقای سخاوتیان
خیلی متفاوت است. آقای دکتر، هوش مصنوعی قوی به خاطر آن کلاندادهها و آن الگوریتمهایی که دارد، اصلاً بیماری یا خراب شدن یا هر چیزی را که بخواهید به آن نسبت دهید، برخلاف این تصور ذهنی است که الان من و شما داریم. چرا؟ چون کلاندادهها را که دارد، الگوریتمهایش هم که به درستی طراحی شده است، چون اگر الگوریتمش به غلط طراحی شده باشد باز هوش مصنوعی قوی نمیشود.
- آقای عندلیب
میدانم. میتوانید این هوش مصنوعی را یک بار دیگر... . ببینید انسان هم قابل تعلیم و تعلّم است، هوش مصنوعی را هم دوباره میآوریم و بازطراحی میکنیم.
- آقای سخاوتیان
آقای دکتر، جواب خودتان را دادید. ببینید انسان قابل تعلیم و تعلّم است، نه اینکه حافظهاش را پاک کنید و اطلاعات جدید بریزید. تعلیم و تعلّم روی فرآیند تربیتی میرود. من با این پیشفرض صحبت میکنم، اگر هوش مصنوعی قوی تحقق پیدا کند، دیگر آن رویکرد اطلاعات و دیتاها جواب نخواهد داد و باید روی رویکرد سایکولوژیکال و روانشناختی بیاییم. باید روی فضای تربیتی بیاییم. ببینید اینجا عوض میشود. اینکه من بگویم دوباره اطلاعات ذهن او را اصلاح کنم، دقیقاً هوش مصنوعی ضعیف میشود.
- آقای عندلیب
خب قوی هم قابل بازپروری و کنترلی هست.
- آقای سخاوتیان
نه، هوش مصنوعی قوی از این مرحله عبور میکند.
- آقای عندلیب
یعنی آن حتی قابل تربیت نیست.
- آقای سخاوتیان
قابل تربیت هست.
- آقای عندلیب
خب تربیت هم مثل اطلاعات است.
- آقای سخاوتیان
آن زمان کلاسهای آموزشی میشود.
- آقای عندلیب
بله، یکسری کلاسهای آموزشی برای رفتارهای اشتباه او میگذاریم. چطور برای انسانها کلاسهای آموزشی میگذارید؟
- آقای سخاوتیان
پس نمیتوانیم اطلاعات و الگوریتم را دستکاری کنم. با توجه به آن اطلاعات و الگوریتم بنیادی که دارد باید کاری کنم.
- آقای عندلیب
ما بحثهای فنی را نمیدانیم، ولی ما میگوییم که این قابلیت اصلاح را دارد که چه از نظر سیستمهای فنی و چه از نظر کلاسهای آموزشی باشد. ما با روشهایش کاری نداریم، ولی اینکه حتی هوش مصنوعی قوی امکان اصلاح و بازپروری دارد. با روشهای آن کاری نداریم.
- آقای سخاوتیان
با آن پیشفرض بله. دیگر روش روی تربیتی میرود.
- آقای عندلیب
بالأخره قابل اصلاح است.
- آقای سخاوتیان
دیگر پاک کردن حافظه در اینجا معنا نخواهد داشت.
- آقای عندلیب
پس بالأخره ما میتوانیم رویکرد بازپروری را در مورد اینها داشته باشیم. رویکرد دیگر ما رویکرد ناتوانسازی است. گفتیم که گاهی اوقات ما ناچار از این هستیم که اینها را ناتوان کنیم. یعنی چه؟ یعنی اجازهی فعالیت به آنها ندهیم و بگوییم که تو دیگر ممنوع الفعالیت هستی. شبیه به همان حبس است. انشاءالله در ادامه اگر فرصت شد در این جلسه و یا در جلسات بعد در مورد نحوهی مجازاتها هم عرض خواهم کرد که به چه نحوهای است. ولی بههرحال ما میتوانیم چه با آن رویکرد تربیتی که آقای دکتر سخاوتیان گفتند و چه در هوش مصنوعی ضعیف با طراحی و بازطراحی الگوریتمها، اینها را نسبت به ارتکاب جرم ناتوان کنیم. یعنی طوری طراحی و یا تربیت کنیم - که روشهای اینها هم متفاوت است و بر آن دو مبنای هوش مصنوعی قوی و ضعیف است - که او دیگر نتواند جرمی را مرتکب شود.
مجری: متشکرم. آقای دکتر سخاوتیان، پیرامون مبانی فقهی صحبت میکردیم و میخواستیم رویکردهای تنبیهی و تربیتی برای هوش مصنوعی را از شما بشنویم.
- آقای سخاوتیان
قبل از اینکه به این مطلب بپردازم، یک نکتهای را به عنوان تذکر بگویم. هوش مصنوعی قوی و ضعیف را اولین بار جان سل مطرح کرده بود و نظر شخصی بنده این است که این اصلاً یک مغالطهای است که وارد عرصهی علمی شد که باید در جای خودش صحبت شود. جان سل یک ادبیاتی مطرح کرد و جلو رفت ولی بعدها میبینیم که خود غربیها از هوش مصنوعی قوی و ضعیف عبور کردند و به هوش مصنوعی عمومی و خبره رسیدند و این فضا را عوض میکند. هوش مصنوعی خبره و عمومی خیلی خیلی دقیقتر از ادبیات هوش مصنوعی قوی و ضعیف است. ولی خب در ادبیات علمی کشور ما فعلاً قوی و ضعیف رایج است و عمومی و خبره چندان رایج نیست، هر چند بسیاری از اساتید و بزرگان امروزه بحث هوش مصنوعی عمومی و خبره را مطرح میکنند. در ضمن اینکه بحث هوش مصنوعی قوی و ضعیف را میگویند، در عین حال خبره و عمومی را هم میگویند، یعنی الان چنین چیزی هست، ولی اینها بحثهای فلسفی مبنایی است و باید در جای خودش صحبت شود و بعدها به آن میپردازیم.
اما چون مباحث فقهی است، اجازه دهید که من بخشهایی از مقاصد الشریعه را مطرح کنم که اصلاً ببینیم غرض ما از تنبیه چه چیزهایی است و آیا همهی اینها را در هوش مصنوعی قوی که با پیشفرض تحقق رخ داده میتوان انجام داد یا نه؟
ما وقتی که از این صحبت میکنیم که چرا شارع مقدس جرمانگاری میکند و مجازات برای آن تعیین میکند، اهدافی دارد. اولین هدف عدالت و حفظ حقوق است. یعنی اگر من مجازات نکنم، حقوق دیگران ضایع میشود و عدالت در جامعه زیر سؤال میرود. حالا سؤالی که ما در اینجا میپرسیم این است که عدالت و حقوق دربارهی هوش مصنوعی چگونه تحقق پیدا میکند؟ زمانی یک نفر یک میلیون تومان پول دارد و از این یک میلیون تومان، ۱۰ هزار تومان صدقه میدهد. یک نفری هزار میلیارد تومان سرمایه دارد و از آن هزار میلیارد تومان، ۱۰۰ هزار تومان صدقه میدهد. شاید مردم عادی بگویند که او ۱۰۰ هزار تومان صدقه داد و بیشتر بود، ولی واقعیت امر این است که آن درصدی که پرداخت کرد خیلی خیلی بیشتر از درصد این است.
ما یک دادههایی در ذهنمان داریم و بر اساس آن یک محاسباتی میکنیم و دچار خطا میشویم. این یک سنخ است. اما هوش مصنوعی یک کلاندادهای دارد که بر اساس آن کلانداده دچار خطا میشود. چه بسا اگر دقیقاً از همان کلانداده به درستی استفاده میکرد، سودی چند برابر این جرم درمیآورد، یعنی مرتکب جرم نمیشد و سودی چند برابر هم دقیقاً از راه قانونی به دست میآورد. وقتی او میتواند از راه قانونی سود چند برابری به دست بیاورد و بلد هم هست و اطلاعات لازم را هم دارد، دست به تخلف میزند، با آن کسی که این اطلاعات را ندارد کاملاً متفاوت است. یعنی اصلاً مجازات یک انسان با مجازات یک هوش مصنوعی اگر از حیث عدالت و حقوق بخواهیم صحبت کنیم، در یک نسبت نیست و در اینجا باید تناسب جرم را هم در نظر بگیریم.
دوم اینکه تناسب جرم در جای دیگری هم مطرح میشود، کجا؟ هر جایی که حقوقی باشد، تکالیفی هست. همیشه تخلف از حقوق به معنای جرم نیست. گاهی اوقات تخلف از تکلیف هم به معنای جرم است. خودبهخود آن کسی که امکان بیشتری دارد، تکلیف بیشتری دارد. کسی که ماشین میخرد، نسبت به ماشینش تکلیف بیشتری هم دارد. درست است که حق رانندگی هم دارد، ولی تکلیف رانندگی را هم دارد.
اینجا هوش مصنوعی به علت داشتن کلاندادهها درست است که ممکن است یک حقوق بیشتری در جامعه پیدا کند، ولی در عین حال تکالیف بیشتر هم پیدا میکند، آن زمان اصلاً این عدم تخلف از قوانین عمومی جامعه یکی از تکالیف خیلی مهم برای هوش مصنوعی میشود. وقتی که تخلف میکند، برخلاف آن کسی است که از چراغ قرمز رد شده است. ساده بگویم؛ از چراغ قرمز رد شدن هوش مصنوعی با از چراغ قرمز رد شدن یک انسان عادی به یک معنا نیست. در اینجا باید جرم متناسب تعریف شود. چرا؟ چون یکی از اهداف مجازاتها، عدالت و حقوق اجتماعی است و این عدالت متناسب با آن اطلاعات، دادهها و متناسب با آن حقوق و تکالیفی است که نسبت به این اطلاعات و دادهها طراحی میشود.
یکی دیگر هم اصلاح فردی و اجتماعی است. کسی که کلاندادهای را دارد، تمام نقاط قوّت و ضعف را میداند و در عین حال از این کلاندادهاش سوءاستفاده و تخلف میکند، برخلاف کسی است که این کلانداده را ندارد و دست به یک تخلف میزند. باید این دو را دقیق نگاه کنیم. لذا اصلاح فردی آن برخلاف اصلاح فردی ما خواهد بود. من با یک مشاوره و با یک فرآیند تربیتی شاید بتوانم یک انسان را اصلاح کنم. شما تصور کنید که یک کسی واقعاً میداند که این جرم تخلف است و دست به این جرم و تخلف میزند. این غیر از کسی است که نمیداند و تخلف میکند. یا اینکه میداند ولی دچار خطا شده است. ببینید شخص در یک جایی متجرّی میشود. وقتی که تجرّی بر او صدق کرد، شخصی که متجرّی است، به این راحتیها با روشهای مختلف نمیتوان او را اصلاح کرد. مثال عرفی مردم عادی این است؛ کسی که خوابیده را میتوان بیدار کرد، اما آن کسی که خودش را به خواب زده، نمیتوان بیدار کرد. هوش مصنوعی دقیقاً در این حکم قرار میگیرد. چرا؟ چون تمام نقاط قوّت و ضعف را میدانست، حق استفاده نداشت ولی از نقطه ضعف استفاده کرد و دست به جرم زد. این غیر از بقیه میشود. لذا روی مباحث جرایم خیلی باید دقت کنیم. انشاءالله بقیهی صحبتها را در فرصتهای بعد خواهم گفت.
مجری: متشکرم. بحث بسیار خوبی بود.
مجری برنامه: مجید لاهیجانی امیری
تنظیم: محمد رسول صفری عربی
نظر شما