شنبه ۷ مهر ۱۴۰۳ |۲۴ ربیع‌الاول ۱۴۴۶ | Sep 28, 2024
هوش مصنوعی

حوزه/ اگر هوش مصنوعی را دقیقا مسئول جرم خود بدانیم یعنی بپذیریم که هوش مصنوعی می ­تواند مانند یک انسان عمل کند و مسئول رفتار خودش باشد، آنگاه می­ بایست هوش مصنوعی را مجازات کنیم؛ اما چگونه؟

خبرگزاری حوزه | امروزه یکی از جذابترین موضوعات در دنیای فناوری، هوش مصنوعی است که همگان شاهد پیشرفت او، آن هم با سرعت زیاد هستیم.

اساسا این پیشرفت ها با چالش هایی مواجه می شوند. یکی از چالش ها این است که اگر هوش مصنوعی مرتکب جرم شود چه کسی مقصر و پاسخگو بوده و باید مجازات شود؟

یکی از اهداف مبدعان هوش مصنوعی، ارتقاء دادن آن است؛ بدین معنا که کاری کنند تا هوش مصنوعی همچون انسان فکر کند، تصمیم بگیرد و حتی با هوشتر از انسان قابلیت ها و ظرفیت های خویش را به منصه ی ظهور برساند.

این امر اگر چه فوایدی برای انسان دارد؛ اما در عین حال آسیب ها و خطراتی همچون هک کردن، معضلات امنیتی، مشکلات اجتماعی، سیاسی، اقتصادی و... را به همراه خواهد داشت.

از جمله ی این آسیب ها می توان به استفاده ی هوش مصنوعی در فضای مجازی اشاره کرد.

از هوش مصنوعی می توان برای ساخت ویدئوها و اخبار جعلی و انتشار آنها از طریق رسانه های اجتماعی و یا وبسایت های خبری استفاده کرد.

از دیگر قابلیت های هوش مصنوعی این است که می تواند صدا، تصویر و حرکات یک شخص را به طور کامل تقلید کند.

این امر می تواند اعتماد مردم را به هر ویدئو یا صوتی به طور کامل از بین ببرد؛ چرا که کاربران فضای مجازی قادر نیستند بین ویدئو و صوت واقعی و آنچه ساخته ی هوش مصنوعیست تمییز قائل شوند.

نکته ی قابل توجه این است که موضوع به همینجا ختم نمی شود بلکه این عدم اعتماد به تولیدات و محصولات هوش مصنوعی و انتشار آنها در فضای مجازی باعث میشود که افراد به همدیگر بدبین شده و حتی به کسانی که ویدئو یا صوت حقیقی منتشر می کنند شک کنند که مبادا آن ویدئو یا صوت را با هوش مصنوعی ساخته باشند؛ در این صورت افراد دائما دچار شک و تردید می شوند و این شک فقط مختص به فضای مجازی نیست بلکه به تدریج این شک به فضای حقیقی سرایت کرده و در جامعه ی حقیقی نیز اعتماد مردم به همدیگر از بین می رود و این امر میتواند یک معضل اجتماعی جدیدی ایجاد کند.

همچنین می توان از هوش مصنوعی برای جمع آوری اطلاعات افراد از اینترنت و اخاذی از آنها استفاده کرد. علاوه بر این، هوش مصنوعی میتواند دستیار خوبی برای مجرمان اینترنتی در امر هک یا جاسوسی باشد. در این صورت افرادی که به دنبال هک یا جاسوسی هستند به آسانی می توانند با استفاده از هوش مصنوعی به اهداف شوم خود دست یابند.

هوش مصنوعی علاوه بر فضای مجازی در دنیای حقیقی نیز میتواند مورد استفاده باشد. امروزه خودروهایی ساخته شده که از هوش مصنوعی به جای راننده استفاده میشود که این خودروها به خودروهای خودران معروفند.

این بخش از قابلیتهای هوش مصنوعی بدون آسیب نیست چراکه خیلی از مواقع ممکن است این خودروها برای انجام اعمال مخاطره آمیز مانند حملات و ترورها و فرار از صحنه ی جرم و... مورد استفاده قرار گیرد.

با توضیحات مذکور این سوال مطرح می شود که چه کسی مسئول و پاسخگوی اقدامات مجرمانه ی هوش مصنوعی است؟

برای پاسخ به این سوال چند حالت را باید مورد بررسی قرار دهیم:

۱. اگر ما هوش مصنوعی را دارای ماهیت انسانی ندانیم؛ یعنی اینکه هوش مصنوعی در انجام افعالش اراده ای ندارد، در این صورت لازم است که نویسنده یا نویسندگان برنامه ی هوش مصنوعی مجرم شناخته شده و مجازات شوند.

۲. اگر هوش مصنوعی را جانشین انسان بدانیم در این حالت نیز مسئولیت جرمی که هوش مصنوعی مرتکب می شود بر عهده ی شخص هدایت کننده ی آن است و شخص هدایت کننده باید مجازات شود.

۳. اما اگر هوش مصنوعی را دقیقا مسئول جرم خود بدانیم یعنی بپذیریم که هوش مصنوعی می تواند مانند یک انسان عمل کند و مسئول رفتار خودش باشد، آنگاه می بایست هوش مصنوعی را مجازات کنیم؛ اما چگونه؟

پیش از تبیین موضوع مجازات هوش مصنوعی لازم است در رابطه با بحث مجازات، مقدماتی ذکر شود.

هدف از هر مجازاتی پیشگیری و بهبود است؛ بدین معنا که اولا مجرمی که مجازات می شود بواسطه ی مجازات، دوباره مرتکب جرم نگردد و همچنین برای افراد دیگری که شاهد این مجازات هستند درس عبرتی شده تا مرتکب جرم در جامعه نشوند.

با توجه به آنچه گفته شد هیچکدام از این اهداف برای مجازات هوش مصنوعی موضوعیت ندارد؛ بنابراین برای مجازات هوش مصنوعی از اقدامات دیگری بهره برد.

از جمله اقداماتی که برای مجازات هوش مصنوعی پیشنهاد میدهند میتوان به مواردی چون عدم به روزرسانی سیستم، کاهش نسخه ی نرم افزار و یا محدود کردن قابلیت های هوش مصنوعی و ... اشاره کرد.

بنابراین باید پیش از آنکه هوش مصنوعی را در متن زندگی خویش وارد نماییم، برای او ارزش های اخلاقی را تعریف کنیم؛ چراکه هوش مصنوعی می تواند در تصمیم گیری های متعدد دخیل باشد و چنانچه در این تصمیم گیری ها، ارزش های اخلاقی مورد توجه قرار نگیرد شاهد آسیب های هوش مصنوعی در ابعاد مختلف اجتماعی، سیاسی، اقتصادی و... خواهیم بود.

نفیسه جلالی

ارسال نظر

شما در حال پاسخ به نظر «» هستید.
captcha