یکشنبه ۲۶ اسفند ۱۴۰۳ - ۱۴:۴۲
آیا هوش مصنوعی حق دفاع از خود را دارد؟

حوزه/ با پیشرفت فناوری هوش مصنوعی، این سؤال مطرح می‌شود که آیا سیستم‌های هوش مصنوعی می‌توانند از خود دفاع مشروع کنند؟ در برنامه فقه پویای رادیو معارف، کارشناسان به بررسی فقهی و حقوقی دفاع مشروع ربات‌ها پرداختند و شرایطی مانند تناسب دفاع و خطر قریب‌الوقوع را تحلیل کردند.

به گزارش خبرگزاری حوزه، برنامه فقه پویای رادیو معارف در ۹ جلسه با حضور حجج اسلام والمسلمین سخاوتیان و عندلیب به بررسی فقهی و حقوقی ابعاد گوناگون هوش مصنوعی پرداخته که رسانه رسمی حوزه به انتشار محتوای این برنامه‌ها در شماره های گوناگون پرداخته و در این مطلب به انتشار جلسه هفتم خواهیم پرداخت.

مجری: بسم الله الرحمن الرحیم. عرض سلام و ادب دارم.

امروز با جناب آقای دکتر عندلیب این سؤال را آغاز می‌کنیم که جناب آقای دکتر، ما در بحث گذشته درباره‌ی قابلیت اعمال دفاعیات عام در حوزه‌ی سیستم‌های هوش مصنوعی صحبت کردیم و موانع مسئولیت کیفری را بیان کردیم. امروز می‌خواهم این سؤال را از شما بپرسم که عوامل موجه جرم در سیستم‌های دارای هوش مصنوعی چیستند؟

- آقای عندلیب

یک عامل از مباحث قبلی ما باقی مانده است و اجازه می‌خواهم ابتدا آن را مطرح کنم. چون ما چند عامل را عرض کردیم که در حقیقت موانع مسئولیت کیفری بودند، این آخرین مانع از موانع مسئولیت کیفری است که تحت عنوان مصونیت است. من مصونیت را در قالب یک مثال عرض می‌کنم. تصور بفرمایید در جایی آتش‌سوزی شده و آتش‌نشان‌ها وارد صحنه می‌شوند و یک ربات آتش‌نشان هم همراه خودشان می‌آورند. این ربات آتش‌نشان که وارد صحنه می‌شود می‌بیند برای نجات افرادی که در آتش گیر افتاده‌اند، باید تخریب عمدی کند و باید ورود به عنف کند که اصطلاحاً ما در حقوق ورود بدون اجازه می‌گوییم که همان ورود به عنف است. خب این ربات وارد می‌شود، دیواری را تخریب می‌کند و در حریم خصوصی افراد ورود به عنف می‌کند. اینجا در واقع چون مصونیت دارد و برای نجات می‌رود، در عالم حقوق می‌گوییم که او مسئولیت ندارد و به خاطر مباحث فقهی که می‌گوییم این فرد محسن است و محسن قابل مسئولیت کیفری نیست. البته کمیسیون‌هایی در هلال احمر و در آتش‌نشانی هستند برای این‌که ببینند آیا این میزان تخریبی که انجام شده مناسب و متناسب با آن حادثه بوده یا نه؟ ممکن است این مسئله را تجاوز از حد لازم بدانند و تشخیص دهند که این میزان از تخریب لازم نبوده است. این‌ها مباحثی است که باید کارشناسی شود ولی اصل این موضوع یک امر پذیرفته شده است. یا یک زندانبانی که مبتنی بر هوش مصنوعی است، به او دستور داده شده زمانی که زندانیان می‌خواهند فرار کنند، تو باید جلوی آن‌ها را بگیری. برای جلوگیری از فرار زندانیان، ربات هوش مصنوعی می‌ایستد و تعدادی از زندانیان مجروح می‌شوند، این زندانبان هوش مصنوعی مصونیت دارد و نمی‌توان مسئولیت کیفری را بر او بار کرد.

ما بعد از موانع مسئولیت کیفری به سراغ عوامل موجهه‌ی جرم می‌رویم. عوامل موجهه‌ی جرم چند عامل است که اولین آن‌ها دفاع مشروع است که ما در دفاع مشروع ۵ شرط را لازم می‌دانیم. یکی این‌که منافع حمایت شده که عبارت از حق حیات، آزادی، جسمانیت فرد، اموال فرد، ناموس و عرض است، این‌ها باید مشروع باشند. یعنی آن مال، آن جان، آن تن، آن ناموس، این‌ها باید در قالب مشروع در نظر گرفته شده باشد و الان خطری این منافع مشروع را تهدید کند.

دوم این‌که منافع حمایت شده به صورت غیرقانونی نقض شده باشند. یعنی آن کسی که مهاجم است، حق تعرض نداشته باشد و به صورت غیرقانونی دارد تهاجم می‌آورد که در مقابل آن هم این ربات یا این سیستم دارای هوش مصنوعی می‌خواهد از خودش در مقابل مهاجم غیرقانونی دفاع کند.

سوم این‌که منفعت حمایت شده باید در معرض خطر حتمی قریب الوقوع باشد که این خطری که او احساس می‌کند باید اولاً حتمیت داشته باشد و ثانیاً قریب الوقوع باشد، نه این‌که صرفاً احتمال دهد خطری هست تا در مقام دفاع از خودش برآید. عکس‌العمل فرد باید در دفاع مشروع در مقابل حمله و متناسب باشد. اصل تناسب در اینجا مطرح است. یعنی باید حمله‌ای باشد و دوم این‌که تناسب در دفع هم رعایت شود. یعنی چه؟ یعنی ممکن است این فرد با یک تکانه‌ی کوچک دور شود، لازم نیست که حتماً او کشته شود و یا حتماً سر او شکسته شود. ممکن است حتی با یک فریاد فرار کند. این سیستم دارای هوش مصنوعی باید این تجزیه و تحلیل صحیح را داشته باشد که به صورت الأقرب فالأقرب و به صورت پلکانی نسبت به دفاع از خودش عمل کند، نه این‌که از ابتدا مهاجم را از بین ببرد. ممکن است با یک فریاد زدن، با یک آژیر کشیدن، با یک صدای مهیب ایجاد کردن مهاجم را فراری دهد و دیگر نوبت به مراحل بعدی دفاع نمی‌رسد.

مدافع در موقعیتی باشد که نتواند شرایط حمله و وقوع را کنترل کند و اصطلاحاً راه فراری نداشته باشد. یعنی این سیستم دارای هوش مصنوعی اگر بتواند موقعیتش را عوض کند و دیگر به آن حمله‌ای نشود، باید موقعیتش را عوض کند، ولی اگر دیگر راهی نداشته باشد و نتواند مهاجم را کنترل کند، در حقیقت می‌توان گفت در اینجا دفاع او یک دفاع مشروع است و اشکالی ندارد.

در هسته‌ی دفاع مشروع یک منفعت حمایت شده‌ی قانونی داریم که توسط هوش مصنوعی برای خودش در نظر گرفته شده و اگر کسی بخواهد به این ضربه بزند، در حقیقت هوش مصنوعی هم می‌تواند مثل یک انسان از خودش دفاع کند.

مجری: متشکرم. جناب آقای دکتر سخاوتیان، از نظر فقهی عوامل موجهه‌ی جرم در سیستم‌های دارای هوش مصنوعی چیستند؟

- آقای سخاوتیان

قبل از این‌که به مسئله‌ی عوامل موجهه‌ی جرم در سیستم‌های هوش مصنوعی بپردازیم، اصلاً بگوییم که عوامل موجهه‌ی جرم در فقه ما چه چیزهایی است و بعد به سراغ مسئله برویم. در فضای فقهی که دقت می‌کنیم می‌بینیم اگر یک انسان مرتکب جرمی شود در چند حالت نسبت به جرم خودش مسئولیت کیفری ندارد. باز هم در اینجا تأکید می‌کنم که این به این معنا نیست که مسئولیت مدنی نداشته باشد. این دو از هم جدا هستند. وقتی که به همه‌ی آن‌ها نگاه می‌کنیم، مهم‌ترین موارد اضطرار و اکراه است. اضطرار و اکراه در این میان چه می‌گوید؟ من مضطر هستم که مثلاً به خاطر شرایطی که قرار گرفته‌ام، مثل این‌که فرد در حالت بی‌غذایی و مرگ است و مجبور است که شراب بخورد و زنده بماند. در اینجا چون این اضطرار و اجبار هست، خب مصرف هم می‌کند و گناه هم نکرده است. ما این را داریم و مشابه همین درباره‌ی گوشت مُردار هم مطرح می‌شود و یا بسیاری از داروهایی که ما مصرف می‌کنیم از این سنخ هستند که چون اضطرار دارد مصرف می‌شود. اگر در حالت عادی بخواهد این دارو را مصرف کند برای فرد ضرر دارد و باعث آسیب دیدن خودش می‌شود و نمی‌تواند مصرف کند. این اضطرارها باعث می‌شوند که حکم اولیه به یک حکم دومی تغییر می‌کند که آن حکم دوم مبتلابه خود فرد است و باید آن را انجام دهد. الان یک نفری آمده و مثلاً دارد رانندگی می‌کند. دقیقاً قبل از رانندگی و حرکت کردن آمد و بررسی کرد و ماشین او هیچ اشکالی نداشت. حالا با این رانندگی دارد می‌رود، وسط راه ترمز می‌برّد و دیوار خانه‌ی مردم را خراب می‌کند و خودش هم آسیب می‌بیند. در اینجا ما نمی‌توانیم بگوییم این شخص مجرم است. مجرم کیفری نیست. بله، نسبت به آن ساختمان ضامن است و باید پولش را پرداخت کند و درست کند، ولی او مجرم نیست. چرا؟ چون یک کار اضطراری برای او اتفاق افتاده است. یا این‌که اسلحه را بالای سرش گذاشته‌اند که باید فلان کار را انجام دهی و اگر انجام ندهی، تو را می‌کشیم. اینجا اکراه است، دست به کاری زده و مجبور است انجام دهد. در چنین حالت‌هایی این جرم را برای او حساب نمی‌کنیم و آن را کیفری محسوب نمی‌کنیم. بله، مدنی هست ولی کیفری نیست. ضامن هست و باید خسارت را پرداخت کند، اما در ازای آن مجازات نیست. حالا این مطالب چند استثناء هم می‌خورد که بین مراجع و بزرگان اختلاف است. اگر شخصی مکرَه باشد، اسلحه روی سر او گذاشته‌اند و گفته‌اند که باید یک نفر دیگر را بکشد. او می‌تواند بکشد یا نمی‌تواند بکشد؟ اینجا اختلاف فتوا است و برخی اجازه نمی‌دهند که این اتفاق بیافتد.

حالا ما می‌خواهیم ببینیم که همین مطلب در هوش مصنوعی هم اتفاق می‌افتد یا نه؟ آیا هوش مصنوعی هم می‌تواند مضطر و مکرَه شود یا نه؟ اگر این هوش مصنوعی مکرَه شد... . با این پیش‌فرض که ما در اصل داشتیم که به کلان‌داده‌ها دسترسی دارد و نمی‌شود و اگر هم بشود - فرض را به اینجا می‌آوریم - در این صورت باید بررسی کنیم که این اکراه او نسبت به چیست؟ جان انسان است؟ که در این صورت حق ندارد اقدام کند. چرا حق ندارد اقدام کند؟ علتش هم این است که انسان شرافت دارد و هوش مصنوعی هر قدر هم گران‌قیمت باشد، شرافت انسان بیش از آن است و حق اقدام ندارد، حتی اگر به نابودی خودش هم منجر شود. این از نظر فقهی قابل اثبات و قابل تبیین است. یعنی اگر هوش مصنوعی مکرَه باشد، روی سرش اسلحه بگذارند و بگویند که تو را نابود می‌کنیم، مگر این‌که فلان انسان را بکشی. او حق چنین کاری را ندارد و اگر هم انجام دهد، با این‌که مکرَه است، مجرم محسوب خواهد شد. چرا؟ چون ما در اینجا یک بحثی به اسم مصلحت أقوی داریم. مصالحی در خارج وجود دارد که این مصلحت، مصلحت أقوی است. مصلحت أقوی در اینجا چیست؟ شرافت آن انسان از این هوش مصنوعی بیشتر است، هر چند ممکن است قیمت این هوش مصنوعی بیشتر باشد، چندهزار میلیارد هزینه کرده‌اند و این را ساخته‌اند. دیه‌ی انسان کمتر از ۱ میلیارد است. ولی با این حال چون شرافت انسان بیشتر است، هوش مصنوعی در چنین جایی حق ندارد دست به اقدام بزند.

اما گاهی اوقات هوش مصنوعی مضطر می‌شود و دیگر اکراه نیست، اصلاً اراده و اختیار از دست او خارج می‌شود و توانی ندارد. در چنین حالتی اگر دست زد، حالا دوباره بررسی می‌کنیم که این اختلال ناشی از چه چیزی بود؟ اگر این اختلال ناشی از غفلت طراحان و کاربران نبود، فقط خود این هوش مصنوعی بود، بله، اضطرار بود و هیچ اشکالی بر هیچ‌کسی وارد نیست. اما اگر ناشی از خود هوش مصنوعی و شرایط خاص نبود، ناشی از غفلت یا اشتباهی در کاربران و یا طراحان بود، آن زمان باید نسبت‌سنجی کنیم و ببینیم که هر کدام از این‌ها به چه میزان در این تخلف نقش دارند؟ باید بررسی شود. یعنی به صرف این‌که مضطر شد، دلیل نمی‌شود بگوییم جرم از او برداشته می‌شود و هیچ جرمی در این میان ندارد.

گهگاهی نکته‌ی دیگری را هم اضافه می‌کنند که با عنوان فرمان‌برداری از آمر است. او یک دستوردهنده، یک آمر، یک مدیر و یا فرماندهی دارد که به او دستور داده است. اینجا دقیقاً همان مباحثی که ما در سرباز و فرمانده مطرح می‌کنیم که یک فرمانده دستور داد و چون سرباز هم نظامی بود، چشم گفت و تبعیت کرد، هر چه در آنجا گفتیم، اینجا هم خواهد آمد، ولی باز هم تذکر می‌دهیم و تأکید می‌کنیم، ما همه‌ی این‌ها را پیش‌فرض گرفته‌ایم که هوش مصنوعی قوی تحقق پیدا کرده است. اما اگر مبنای ما این نباشد و بگوییم که هوش مصنوعی قوی تحقق پیدا نمی‌کند و یا اگر هم تحقق پیدا کند، مستقل نیست و وابسته به یک انسان دیگر است. در آن صورت تمام حرف‌های ما متوجه آن کسی خواهد شد که بر این ولایت و سیطره دارد که گاهی اوقات مالک و سازنده است و گاهی هم طراح و بهینه‌ساز است. چون مالک طبق برنامه‌ی آن استفاده می‌کند، این دیتاها و الگوریتم‌ها را چه کسی در اینجا قرار داده است؟ بهینه‌ساز و طراح. پس باید به این نکته دقت داشته باشیم.

مجری: این نکاتی که شما درباره‌ی اکراه و اضطرار فرمودید فقط در مورد انسان‌ها و خون انسان است و یا در تمام جرم‌ها صدق پیدا می‌کند؟

درباره‌ی اکراه و اضطرار باز بررسی می‌کنیم تا ببینیم که ضرر کدام بیشتر و ضرر کدام کمتر است؟ مثلاً اگر یک انسانی در رودخانه افتاده و دارد غرق می‌شود و برای نجات دادن او، لازمه‌اش این باشد که من از وسط مزرعه‌ی کسی رد شوم و بسیاری از گندم‌های او را خراب کنم. در چنین جایی همه می‌گویند که اصلاً بر شما واجب است که از وسط این مزرعه رد شوید. چرا؟ چون یک مصلحت أقوی در اینجا هست. کمااین‌که ابتدای جلسه جناب آقای دکتر عندلیب هم مثال زدند که یک ربات امدادگر است که در آتش‌سوزی می‌خواهد پشت دیوار برود و انسان‌هایی که گیر افتاده‌اند را نجات دهد. او دیوار را خراب کرده است. در اینجا باید چه کاری انجام دهد؟ اصلاً بر او واجب است و باید حتماً دیوار را خراب کند. چرا؟ چون جان انسان مهم‌تر است. در جایی که ما مصلحت أقوی داریم، چه بحث جان و چه بحث غیرجان باشد، مصلحت أقوی همیشه مقدم می‌شود.

مجری: متشکرم. آقای دکتر عندلیب، با توجه به نکته‌ای که در قسمت قبل آقای دکتر سخاوتیان پیرامون اضطرار و اکراه فرمودند، آیا این‌ها عامل موجه جرم از نظر حقوقی شمرده می‌شوند یا خیر؟

- آقای عندلیب

در تأیید فرمایش آقای دکتر سخاوتیان، دقیقاً همین مباحث از فقه ما به عالم حقوق ما وارد شده است، البته در سیستم‌های حقوقی دنیا هم همین‌ها هست. یعنی در سیستم‌های حقوقی دنیا هم اگر مطالعه بفرمایید می‌بینید همین عواملی که در فقه ما گفته شده است، در آنجا هم این را پذیرفته‌اند. فقط می‌خواهم به تفاوت بین اضطرار و اکراه اشاره کنم. اضطرار همیشه یک عامل درونی دارد که فرد را به وضعیت خطرناک می‌کشاند. یعنی یک عامل درونی باعث می‌شود که این فرد در وضعیت خطرناک و وضعیت غیرعادی قرار بگیرد. برای مثال خدایی ناکرده یکی از بستگان فردی در بیمارستان است، برای این‌که پول درمان را تهیه کند، مجبور می‌شود خانه‌اش را بفروشد. این اضطرار است. اما در اکراه حتماً یک عامل خارجی است که دارد این فرد را تهدید می‌کند. یعنی یک مکرِه و یک مکرَه داریم که یک فردی است که دارد این را تهدید می‌کند. به تعبیری که آقای دکتر سخاوتیان مثال فرمودند که فردی تفنگ خود را روی سر این فرد قرار داده و می‌گوید که فلان کار را انجام بده، یعنی عامل خارجی دارد و آن را تهدید می‌کند. البته این یک تفاوت‌ها و مباحثی در فقه ما دارد که بحث اهم و مهم مطرح می‌شود و در بحث خون اکثر فقها می‌گویند که چون بین خون اهم و مهم نیست، اگر شما را تهدید به کشتن دیگری کرد، نمی‌توانید انجام دهید، ولی در مورد مادون خون باز آن ترازوی اهم و مهم را می‌چینند و می‌گویند که باید اهم و مهم را بررسی کنید و تشخیص دهید.

اجازه می‌خواهم مثل بحثی که در دفاع مشروع عرض کردم، در اضطرار هم ببینیم که شرایط چیست. همان شرایطی که ما در دفاع مشروع کنیم، یعنی باید آن منفعت مورد حمایت قانونی و مشروع باشد، منفعت مورد حمایت باید در معرض خطر حتمی و قریب الوقوع باشد، سومین شرطی که در اینجا اضافه می‌کنیم این است که این منفعتی که دارد دیده می‌شود، تهاجم و عامل خارجی نسبت به آن اتفاق نمی‌افتد، چون گفتیم که اضطرار عامل درونی دارد. بقیه‌ی شرایطی که در آنجا گفتیم، در اینجا هم هست. برای این‌که مشخص شود یک مثال بزنم.

- آقای سخاوتیان

همین‌جا نکته‌ی دقیقی اتفاق می‌افتد، ما وقتی می‌گوییم عامل درونی، دیگر یک حالت نفسانی می‌شود و دقیقاً به همان اشکال اول برمی‌گردد که آیا هوش مصنوعی دارای کیف نفسانی هست یا نه؟

- آقای عندلیب

اجازه دهید که مثال بزنم و ببینیم که نظر جنابعالی هم در این‌باره چیست؟ ما یک لوکوموتیو مبتنی بر هوش مصنوعی ساخته‌ایم. این لوکوموتیو اتوماتیک دارد مسیر طی می‌کند و به جایی می‌رسد که باید ریل را عوض کند. اگر ریل را عوض کند، ۲۰ نفر یا ۲۰۰ نفر مسافر دارد، جان این‌ها نجات پیدا می‌کند و در ریلی که ریل دوم است ادامه‌ی مسیر می‌دهد. در ریل اول اگر بخواهد ادامه‌ی مسیر دهد، یک کودکی روی آن ریل هست و نمی‌تواند در آنجا ادامه‌ی مسیر بدهد. در آن تقاطع که می‌رسد، یا مجبور است به ریل دوم برود که باید به ریل دوم برود. این کودک سر همان تقاطع نشسته است. اگر از روی کودک رد نشود، در آن ریل اول دیگر ادامه‌ای نیست، به کوه می‌خورد و جان ۲۰۰ مسافر را از دست می‌دهد، اگر بخواهد به ریل ۲ بیاید که کار درست هم همین است، یک بچه‌ای سر همان ریل نشسته است. اینجا برای لوکوموتیو مبتنی بر هوش مصنوعی یک تزاحمی پیش می‌آید، بین حفظ جان ۲۰۰ مسافر و بین حفظ جان یک کودک. اینجا دقیقاً این لوکوموتیو مبتنی بر هوش مصنوعی است و الان دوربین‌هایی که در اینجا هست به او تجزیه و تحلیل می‌دهند. او تصمیم می‌گیرد که ۲۰۰ بر ۱ ترجیح دارد، من جان ۲۰۰ نفر را نمی‌گیرم و یک نفر را فدای ۲۰۰ نفر می‌کنم. ما دقیقاً این را در مسائل انسانی هم داریم. مثال می‌زنند که اگر راننده‌ی اتوبوسی در یک سرازیری دارد می‌رود و یک نفری از روبه‌رو سبقت غیرمجاز گرفت، ۴ نفر در آن خودروی روبه‌رو هستند و او ۳۵ نفر مسافر دارد. او به کوه بزند و ۳۵ نفر را به کشتن بدهد؟ یا به همان ماشین ۴ نفر بزند؟ اینجا اضطرار می‌شود و در واقع باید در اینجا تصمیم بگیرد. لوکوموتیو دارای سیستم هوش مصنوعی هم دقیقاً همین کار را می‌کند.

- آقای سخاوتیان

آنجا راننده‌ی مستقلی هست که آن راننده دارای کیف نفسانی انسانی است، اما هوش مصنوعی این را ندارد، در حقیقت هوش مصنوعی دستیار یک انسانی است که به عنوان اپراتور و راهبر اصلی قرار دارد.

- آقای عندلیب

نه، این طراحی شده است.

- آقای سخاوتیان

به همان هم که نگاه می‌کنیم... . تعریفی که خودتان در چند جلسه‌ی قبل فرمودید، تعریف هوش مصنوعی قوی چیست؟ نیاز به اپراتور ندارد. این نکته خیلی مهم است. یعنی آن راهبر را ندارد.

- آقای عندلیب

یعنی خودش مستقل است. الان هم مستقل است. ببینید حضرتعالی با همین اطلاعات اولیه دادن، استقلال آن را نفی می‌کنید. من می‌گویم اطلاعات اولیه دادن، استقلال سیستم هوش مصنوعی را... .

- آقای سخاوتیان

یک سؤال می‌پرسم: شرایط اطمینان و عدم اطمینان در هوش مصنوعی را چطور می‌بینید؟

- آقای عندلیب

من می‌گویم اطمینان یعنی ما اطلاعات را داده‌ایم، تمام آن اقدامات معقول، تمام آن اقدامات احتیاطی، استانداردها و همه‌ی آن آزمایشات را با موفقیت پاس کرده و گذرانده‌ایم و الان این سیستم تولید شده است.

- آقای سخاوتیان

ساده بگویم، راسل و نورویک در کتاب خودشان که با عنوان درآمدی نوین بر هوش مصنوعی است، مطرح می‌کنند که در شرایط عدم اطمینان... یعنی هنوز هوش مصنوعی که کامل در شرایط اطمینان قرار بگیرد طراحی نشده است. می‌گوید: در شرایط عدم اطمینان هوش مصنوعی توقف می‌کند تا راهبر و اپراتور انسانی بیاید و به او جواب دهد. این نکته مهم است. وقتی این اتفاق می‌افتد به معنای هوش مصنوعی ضعیف است. شما می‌گویید که چنین لوکوموتیوی طراحی شد که به صورت خودکار حرکت می‌کند. اما همین راهبر می‌خواهد، همین برای خودش یک اپراتور می‌خواهد. در کجا؟ در دفتر مرکزی. تنها مطلبش چیست؟ کارهای داخلی و همه را به این ماشین سپرده است، ولی خود همین ماشینی که دارد تصمیم می‌گیرد و حیطه‌ی اختیاراتی دارد، همه‌ی این‌ها باز تحت اشراف آن راهبر است. یعنی جدا از آن راهبر نیست.

مجری: یعنی الان خود این لوکوموتیو هوش مصنوعی دارای تجزیه و تحلیل نیست که تصمیم بگیرد که در ریل اول یا ریل دوم حرکت کند؟

تجزیه و تحلیل یک واژه‌ی مبهم است و باید دقیق مشخص کنیم. زمانی من به دسته‌بندی‌ها و طبقه‌بندی‌های اطلاعات و داده‌ها به وسیله‌ی الگوریتم، تجزیه و تحلیل می‌گویم، دسته‌بندی می‌کند و در جای خودش می‌گذارد، بله، این هست، این را انکار نمی‌کنم که داریم. اما زمانی هم مراد ما از تجزیه و تحلیل فهم و درک و اذعان است که ما این مطلب را در هوش مصنوعی نداریم.

اجازه دهید از واژگان غربی استفاده کنم، ببینید از مرتبه‌ی دیتا به اینفورمیشن را وارد می‌شود، ولی هرگز به Knowledge تبدیل نمی‌شود، اما انسان به مرتبه‌ی Knowledge وارد می‌شود.

Knowledge چیست؟

ببینید وقتی که ما مجموعه‌ای از اطلاعات و داده‌ها را داریم، اگر این مجموعه‌ی اطلاعات و داده‌ها درهم ریخته باشد، صرفاً اطلاعات و داده‌ها است، وقتی طبقه‌بندی می‌کنیم، اینفورمیشن شکل می‌گیرد، زمانی که آن را ادراک می‌کنیم و می‌فهمیم، Knowledge شکل می‌گیرد که ما در فارسی به علم و دانش ترجمه کرده‌ایم. ببینید سه مرتبه را طی می‌کند.

حالا این هوش مصنوعی مرتبه‌ی اول و دوم را هم دارد، این‌که شما دسته‌بندی کردن و طبقه‌بندی کردن به وسیله‌ی الگوریتم را بخواهید تجزیه و تحلیل معنا کنید، بله، چنین چیزی دارد و ما هم انکار نمی‌کنیم. اما اگر درک و اذعان و فهم بخواهید معنا کنید که مال مرتبه‌ی بعدی یعنی Knowledge است که ما در فارسی به دانش و علم ترجمه کرده‌ایم - حالا این‌که معنای آن دقیقاً دانش و علم است یا نه، بحث دیگری است و من فعلاً وارد این بحث نمی‌شوم - هوش مصنوعی نمی‌تواند وارد این مرتبه شود. ببینید نکته‌ی مهم ما اینجا است، چون نمی‌تواند وارد این مرتبه شود، هیچ‌گاه مثل انسان نخواهد شد. انسان همیشه یک مرتبه جلوتر خواهد بود.

مجری: بسیار خوب، آقای دکتر، در خدمت شما هستیم.

- آقای عندلیب

بله، من عامل دیگری را تحت عنوان اکراه عرض کنم. در اکراه تسلیم شدن در برابر یک تهدید از طریق ارتکاب جرم است. ما را تهدید می‌کند و می‌گوید که باید این جرم را انجام دهی، وگرنه جان، مال، عرض یا ناموس تو را در خطر می‌گذارم که ما به این اکراه می‌گوییم. یک ربات نگهبان زندان، یک زندانی فراری را دستگیر کرده است. از طرفی زندانی یک اسلحه را به سمت یک زندانبان انسان گرفته است. یعنی ربات این زندانی فراری را گرفت، این آقای زندانی در حال فرار تفنگ خودش را درآورد و به سمت یکی دیگر از زندانبانان انسان نشانه رفته است. الان این سیستم دارای هوش مصنوعی باید چه کند؟ باید در اینجا بین جان آن انسان، یعنی نگهبان و بین این‌که الان این زندانی فرار می‌کند تصمیم بگیرد. آیا در اینجا این تهدید موجه جرم، یعنی مساعدت در خلاصی زندانی، چون اگر اجازه دهد که او از زندان فرار کند، خودش جرم است، این کار را برای حفظ جان آن زندانبان مرتکب شود؟ می‌گوییم: بله. دقیقاً اگر یک انسان در جای این ربات بود چه می‌کرد؟ همین را در فضای واقعی انسانی هم می‌بینیم که اگر یک انسانی یک انسان دیگری را تهدید به مرگ بکند، ما مجبور می‌شویم برای حفظ جان او کوتاه بیاییم و حتی به او در فراری و خلاصی در دام قانون کمک کنیم. حالا این‌که بعداً او را دستگیر کنیم، اقدامات بعدی است ولی فعلاً باید این تصمیم را بگیریم و این موضوع یک مساعدتی است که اتفاق می‌افتد.

موضوع چهارم که باز هم من فکر می‌کنم آقای دکتر سخاوتیان از اینجا هم علیه این بحث حتماً استفاده می‌کنند امر آمر قانونی است. امر آمر قانونی یعنی دقیقاً استقلال هوش مصنوعی را زیر سؤال می‌برد. چرا؟

- آقای سخاوتیان

مشابه همان سرباز و فرمانده است که در انسان هم تعریف کردیم.

- آقای عندلیب

بله، همان سرباز و فرمانده است. می‌گوییم که در این هوش مصنوعی یک آمر قانونی در پشت صحنه بوده که به این دستور داده و او تصمیمات اشتباهی گرفته است. این آقای سرباز که حالا ربات هوش مصنوعی است را می‌آورند و از او استنطاق می‌کنند. می‌گویند: تو چرا این کار را کردی؟ می‌گوید: دستور فرمانده بود. اینجا یک مقداری بحث متفاوت است و می‌گویند که باید آن دیتاها و اطلاعاتی که در فضای اطلاعات و دیتاهای این هوش مصنوعی هست را بررسی کنیم و ببینیم که چنین دستوری از آن طرف آمده است یا نه؟

ولی مجموعاً تحلیل من این است که خاتمه‌ی عرایضم باشد. من می‌گویم که اطلاعات اولیه دادن به یک انسان یا حتی به یک دستگاه، اختیار بعدی او را نفی نمی‌کند. درست است که تقسیم مسئولیت می‌کنیم. چطور اگر به یک انسانی به اشتباه تعلیم دهیم و او را مجرم بیافرینیم، او برود و جرم مرتکب شود و آن سبب را هم در نظر کارشناسی بررسی می‌کنند؟ ما یک بچه‌ای را فضای جرم متولد کنیم، در فضای جرم پرورش دهیم، از او یک مجرم ساخته‌ایم. در سیستم‌های حقوقی، هر چند در مباحث جامعه‌شناسی جرم کمتر دیده می‌شود، ولی این از مباحث مهم است. ولی من می‌گویم که ما اختیار آن کودک را سلب نکرده‌ایم که حالا این بزرگ شده است. دقیقاً در ربات‌های هوش مصنوعی هم همین‌طور است. درست است که یک اطلاعاتی به آن‌ها داده‌ایم، ولی این بعداً بر اساس اطلاعات خودش تصمیم می‌گیرد. این‌که ما کنترل داشته باشیم و از اتاق فرمان این را کنترل کنیم، باعث محو استقلال او نمی‌شود. بله، ما یک کنترلی هم داریم که می‌توانیم این را کنترل کنیم و می‌توانیم الان دستور دهیم که استپ کند، ولی اگر ما آن دستور را ندهیم، خودش بر اساس آن اطلاعات می‌تواند تصمیم بگیرد و تصور من این است که یک استقلالی در این تصمیم هست.

مجری: متشکرم. آقای دکتر سخاوتیان، شما درباره‌ی عوامل موجهه‌ی جرم در فقه دو تا نکته را پیرامون اضطرار و اکراه فرمودید، آیا غیر از این دو مورد می‌توان عوامل موجه دیگری را در فقه مثال زد یا خیر؟

- آقای سخاوتیان

اگر بخواهیم عوامل موجهه را ذکر کنیم، حدیث رفع خیلی به ما کمک می‌کند، ولی اگر به غالب آن‌ها نگاه کنیم مال فضای انسانی است و برای هوش مصنوعی به سختی می‌توان آن را تصور کرد، مثلا «رُفِعَ عَنْ أُمَّتِی تِسْعٌ»؛ ۹ چیز از امت من برداشته شده است. این‌ها عوامل رافعه حساب می‌شوند، ولی در بین آن‌ها آن چیزی که ما می‌توانیم با آن پیش‌فرض‌ها... . من گفته‌ام که فرض می‌کنیم پیش‌فرض‌ها را پذیرفته‌ایم و به عنوان جدال احسن داریم بحث می‌کنیم. بین آن‌ها صریح‌ترین چیزهایی که در اینجا می‌توانند حضور پیدا کنند و در بحث ما کمک کنند، اضطرار و اکراه است. اگر هوش مصنوعی واقعاً بتواند مستقل شود، در آن صورت می‌توانیم این بحث اضطرار و اکراه را در مورد هوش مصنوعی مطرح کنیم و مشکل خاصی در این زمینه نیست.

گفتیم که بحث ما بحث مبنایی است. در اینجا یک نکته‌ای را به عنوان تذکر بیان کنم. ما مخالف خوبی‌ها و فایده‌ی این فناوری نیستیم، ولی مطلب این است که ما در این مقام هستیم که می‌خواهیم ببینیم این شیء چیست؟ مجموعه‌ای از حقوق و تکالیف را برای آن تعریف کنیم و تخلف از این تکالیف را هم برای آن جرم‌انگاری کنیم. یعنی اگر آن را به درستی نشناسیم، یک چیزی را تصویب می‌کنیم که برای چیز دیگری خواهد شد و این چیزی که در بیرون هست، آن نیست. لازمه‌اش این است که باید به درستی بشناسیم، تا ببینیم این موجودی که الان دارد پدید می‌آید، چه حقوقی دارد که اگر کسی به آن تجاوز کرد، مجرم باشد. چه تکالیفی دارد که اگر از آن تخلف کرد، این هوش مصنوعی مجرم شود. لذا باید دقیق بشناسیم. بحث ما روی این دقت شناخت است که بتوانیم قوانینی که تنظیم می‌کنیم دقیق باشد.

مجری: آقای دکتر سخاوتیان با توجه به حالت‌های مختلفی که درباره‌ی هوش مصنوعی گفتیم، بالأخره تکلیف این جرم‌انگاری چه می‌شود؟

ببینید با توجه به آن پیش‌فرض‌هایی که پذیرفتیم، چند حالت برای هوش مصنوعی اتفاق می‌افتد که ما این حالت‌ها را به صورت فرضی مطرح می‌کنیم. اولین فرض ما که خود هوش مصنوعی ضعیف است که هوش مصنوعی ضعیف در بحث جرم‌انگاری اصلاً موضوعیتی پیدا نخواهد کرد. چون ضعیف است و کاملاً هم وابسته به انسان است، آن کاربر یا آن مسئول طراح و بهینه‌ساز در این جرم شریک خواهد شد و الّا این در حد یک ابزار ورود کرده است، مثل چاقو که شخصی چاقو را گرفته و با آن جرمی انجام داده است، در اینجا مجرم چاقو است یا آن شخص؟

پس در هوش مصنوعی ضعیف این مسئله اصلاً موضوعیت پیدا نخواهد کرد. موضوعیت بحث ما کجا مهم می‌شود؟ در کجا وارد می‌شود؟ هوش مصنوعی قوی است. در اینجا دو تا فرض داریم؛ یکی هوش مصنوعی قوی مستقل که جناب آقای دکتر عندلیب بیشتر روی آن تأکید دارند و قائلانی هم در دنیا برای خودش دارد، خیلی‌ها قائل به این هستند و نمی‌توان انکار کرد. هوش مصنوعی قوی که همانند انسان اقدام می‌کند، اگر دچار جرم شود، نسبت به آن جرم خودش دارای تکالیف قانونی است. یعنی حقوق و تکالیفی دارد که باید به تکالیفش بپردازد و اگر تخلف کند مجرم است.

حالا که مجرم شد، گاهی اوقات رافع و دافع از جرم دارد و گاهی اوقات هم ندارد. اگر ندارد که برای آن مجازات تعریف می‌شود و مجازات می‌شود. اگر رافع و دافع دارد، این جرم از او سلب می‌شود و فقط آن مسئولیت مدنی برای او می‌ماند و کیفری نیست. همین مثالی که امروز گفتیم.

مجری: همین مسئولیت مدنی هم برای آن بماند، این ضمانت بر عهده‌ی کیست؟ بر عهده‌ی خودش هوش مصنوعی است؟

اگر هوش مصنوعی قوی مستقل را پذیرفتیم، بله، بر عهده‌ی خودش است. اما با توجه به مبنایی که ما داریم و گفتیم که هوش مصنوعی قوی مستقل امکان‌پذیر نیست، هوش مصنوعی همیشه وابسته خواهد بود، حتی اگر قوی شود. در این صورت این ناظر به آن کاربر یا طراح و بهینه‌ساز آن است. چون گاهی اوقات ناشی از نوعی اختلال است که کوتاهی از بهینه‌ساز و طراح است و گاهی اوقات هم ناشی از نوع استفاده‌اش است که مربوط به کاربر است و ما باید نوع آن را بشناسیم تا بتوانیم به درستی درباره‌ی این مطلب صحبت کنیم.

مجری: بسیار متشکر و ممنونم. بحث خوبی بود. جناب آقای دکتر عندلیب، به صورت خلاصه و در حد ۳۰ ثانیه از مباحثی که امروز گفته شد را بفرمایید.

- آقای عندلیب

ممنونم. ما در این جلسه عوامل موجهه‌ی جرم را بررسی کردیم، دفاع مشروع، اضطرار، اکراه، امر آمر قانونی، این چهار عنصر را بیان کردیم و آقای دکتر سخاوتیان همان‌طور که فرمودند بیشتر در خصوص اکراه و اضطرار فرمودند که در فقه داریم، البته دفاع مشروع هم هست، ولی تطابق آن بر بحث هوش مصنوعی خودش یک بحث است.

- آقای سخاوتیان

ولی باز هم به نوعی به اضطرار برمی‌گردد.

- آقای عندلیب

ما یک عنوانی هم داریم که ان‌شاءالله در جلسات بعدی اگر توانستیم مطرح می‌کنیم. اگر توفیق باشد در جلسات بعد در خصوص بحث صدور حکم برای سیستم‌های دارای هوش مصنوعی صحبت خواهیم کرد.

مجری برنامه: مجید لاهیجانی امیری

تنظیم: محمد رسول صفری عربی

اخبار مرتبط

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.
captcha