پنج شنبه / ۱۴ فروردین ۱۴۰۴ / ۲۳:۱۹
کد خبر: 28788
گزارشگر: 432
۵۷
۰
۰
۱
مجازات شرعی برای هوش مصنوعی

زندان ربات‌ها در رادیو معارف

زندان ربات‌ها در رادیو معارف
در برنامه فقه پویا، حسن عندلیب از امکان انتساب مسئولیت کیفری به هوش مصنوعی و استفاده از رویکردهای مجازاتی همچون بازپروری و ناتوان‌سازی سخن گفت.
به گزارش آسیانیوز ایران ؛ در ادامه مباحث فقهی درباره فناوری‌های نوظهور، برنامه فقه پویا از رادیو معارف به موضوع مسئولیت کیفری هوش مصنوعی و امکان مجازات شرعی برای ربات‌ها و سیستم‌های هوشمند پرداخت.
حسن عندلیب، مدرس حوزه علمیه و کارشناس مباحث فقهی، با تأکید بر اینکه سیستم‌های هوش مصنوعی می‌توانند مشمول مسئولیت کیفری شوند، گفت: «اگر اثبات شود که سامانه‌های دارای هوش مصنوعی توان تمییز، اختیار و قدرت تحلیل اخلاقی دارند، می‌توان مسئولیت کیفری را بر آن‌ها بار کرد.»
وی افزود: «پس از آنکه قابلیت انتساب جرم به سیستم‌های هوش مصنوعی پذیرفته شد، نوبت به بحث صدور حکم و اجرای مجازات می‌رسد.» به گفته عندلیب، چهار رویکرد حقوقی در دنیا برای مجازات مجرمین وجود دارد که قابل تطبیق با هوش مصنوعی نیز هستند:
۱. سزادهی (مجازات بر اساس ماهیت جرم و استحقاق عقاب)
۲. بازدارندگی (ایجاد ترس از ارتکاب مجدد برای مجرم و دیگران)
۳. بازپروری (اصلاح مجرم و آماده‌سازی برای بازگشت سالم به جامعه)
۴. ناتوان‌سازی (محروم‌سازی فیزیکی از تکرار جرم مانند زندان یا حبس)
عندلیب با تأکید بر اولویت اصلاح و بازپروری به جای صرف مجازات گفت: «همان‌طور که برای انسان‌ها کلاس‌های اصلاح رفتاری برگزار می‌شود، برای هوش مصنوعی هم می‌توان دوره‌های بازآموزی و اصلاح داده‌ها را تعریف کرد. حتی می‌توان از طریق طراحی مجدد الگوریتم‌ها و آموزش‌های تازه، رفتارهای ناهنجار آن‌ها را کنترل کرد.»
وی در تشریح امکان اجرای حبس یا محدودیت برای سیستم‌های هوشمند گفت: «ممکن است در آینده، زندان‌هایی برای ربات‌ها طراحی شود. البته این زندان‌ها نه لزوماً فیزیکی، بلکه به معنای محدودسازی عملکرد، مسدودسازی دسترسی یا حذف قابلیت‌های خاص هوش مصنوعی است.»
عندلیب ادامه داد: «ربات‌ها، چه دارای هوش مصنوعی ضعیف و چه هوش قوی باشند، قابل بازطراحی‌اند. انسان، به عنوان خالق آن‌ها، می‌تواند برنامه‌هایشان را اصلاح کند؛ همان‌گونه که خودروهای اتوماتیک قابل تنظیم مجدد هستند.»
وی در پایان با اشاره به ناتوان‌سازی هوش مصنوعی گفت: «در برخی موارد، برای جلوگیری از وقوع جرم، باید به‌طور کامل آن سیستم را از کار انداخت یا دسترسی آن را محدود کرد. این همان رویکرد ناتوان‌سازی است که در فضای فقهی نیز قابل بررسی است.»

اظهارات عندلیب با واکنش‌های متفاوتی در شبکه‌های اجتماعی همراه شد. برخی کاربران این سخنان را عجیب و طنزآمیز دانسته و آن را نوعی فاصله گرفتن از واقعیت‌های فناورانه قلمداد کرده‌اند.

در سطح بین‌المللی نیز موضوع «حقوق ربات‌ها»، «مسئولیت قانونی ربات‌ها»، و «شخصیت حقوقی ماشین‌ها» از جمله مباحثی است که در مجامع حقوقی و فناوری مانند اتحادیه اروپا، IEEE، و یونسکو در حال بررسی است. با این حال، اکثر کارشناسان متفق‌القول‌اند که هنوز هوش مصنوعی به سطح خودآگاهی، اراده مستقل و فهم اخلاقی نرسیده است.

گفتنی است این نخستین‌بار است که در رسانه‌ای رسمی و دینی، بحث مجازات کیفری برای موجودات غیرانسانی همچون هوش مصنوعی مطرح شده و در قالب فقهی و حقوقی مورد تحلیل قرار گرفته است. این رویکرد، گامی مهم در همگرایی فقه سنتی با فناوری‌های نوین تلقی می‌شود.

https://www.asianewsiran.com/u/gmt
اخبار مرتبط
یان لکون، دانشمند ارشد هوش مصنوعی متا و یکی از پدرخوانده‌های هوش مصنوعی، پیش‌بینی کرده که تا پایان این دهه، تحولی عظیم در این حوزه رخ خواهد داد. با این حال، او تاکید کرده که فناوری‌های کنونی هنوز برای درک کامل دنیای فیزیکی کافی نیستند.
آسیانیوز ایران هیچگونه مسولیتی در قبال نظرات کاربران ندارد.
تعداد کاراکتر باقیمانده: 1000
نظر خود را وارد کنید