به گزارش آسیانیوز، هوش مصنوعی موضوع داغ این روزهای دنیاست، اما عدهای از افراد آن را تهدیدی برای آینده تکنولوژی و بهطور کلی دادههای افراد جامعه میدانند، حالا کاخ سفید نیز برای توسعهدهندگان سیستمهای هوش مصنوعی منشور حقوقی تدارک دیده است.
از چالشهای بزرگی که جهان امروز با آن روبهروست، ظهور هوش مصنوعی است که ممکن است حقوق مردم را به خطر بیندازد. دسترسی به دادهها و اطلاعات کاربران از طریق بهکارگیری هوش مصنوعی یکی از دغدغههای بزرگی است که در فضای تکنولوژی جهان مطرح است. به همین دلیل آمریکا منشور استفاده از هوش مصنوعی را که 5 اصل دارد، منتشر کرده است. در این منشور، بر دادههای خصوصی کاربران، چگونگی استفاده از این دادهها و حقوق کاربران در مورد دادههای خصوصیشان تاکید شده است.
در آمریکا و سراسر جهان، سیستمهای هوش مصنوعی که قرار است به مراقبت از بیمار کمک کنند، ناامن، ناکارآمد یا مغرضانه شناخته شدهاند. الگوریتمهایی که در تصمیمگیریهای استخدام و اعتبار استفاده میشوند برای بازتاب و بازتولید نابرابریهای موجود، حاوی تعصب و تبعیض هستند. جمعآوری دادههای رسانههای اجتماعی برای تهدید افراد، تضعیف حریم خصوصی آنها یا ردیابی فراگیر فعالیتهای آنها اغلب بدون اطلاع یا رضایت آنها انجام میشود.
با این حال سیستمهای خودکار مزایای فوقالعادهای را به ارمغان آوردهاند؛ از فناوریهایی که به کشاورزان کمک میکند تا مواد غذایی را با کارایی بیشتری رشد دهند و رایانههایی که مسیرهای طوفان را پیشبینی میکنند گرفته تا الگوریتمهایی که میتوانند بیماریها را در بیماران شناسایی کنند. این ابزارها در حال حاضر تصمیمات مهمی را در زمینههای مختلف هدایت کردهاند و دادهها در صنایع جهانی انقلابی بر پا کردهاند.
با وجود این اما این پیشرفتهای مهم نباید به قیمت تهدید حقوق مدنی یا ارزشهای انسانی باشد. بنابراین دفتر سیاست علم و فناوری کاخ سفید پنج اصل را شناسایی کرده است که باید طراحی، استفاده و استقرار سیستمهای خودکار را برای محافظت از مردم آمریکا در عصر هوش مصنوعی راهنمایی کنند. طرح اولیه منشور حقوق هوش مصنوعی راهنمای جامعهای است که از همه مردم در برابر این تهدیدات محافظت میکند و از فناوریها به روشهایی استفاده میکند که بالاترین ارزشها را به همراه دارند.
سیستمهای هوش مصنوعی باید ایمن و کارآمد باشند
کاربران باید در برابر سیستمهای ناامن یا ناکارآمد محافظت شوند. سیستمهای خودکار باید با مشورت جوامع مختلف، ذینفعان و کارشناسان حوزههای مختلف، توسعه داده شوند تا نگرانیها، ریسکها و اثرات بالقوه سیستم شناسایی شوند.
سیستمها باید تحت آزمایشهای قبل از استقرار و شناسایی و کاهش خطرات و نظارت مستمری قرار گیرند که نشان دهند براساس استفاده مورد نظرشان، ایمن و مؤثر هستند.
همچنین سیستمهای خودکار نباید با هدف یا احتمال قابل پیشبینی طراحی شوند تا ایمنی فرد یا جامعه را به خطر بیندازند. آنها باید به گونهای طراحی شوند که به طور فعال از افراد در برابر آسیبهای ناشی از استفادههای ناخواسته و در عین حال قابل پیشبینی یا تأثیرات سیستمهای خودکار محافظت کنند.
ارزیابی و گزارش مستقلی که ایمن و مؤثر بودن سیستم را تأیید میکند، از جمله گزارش اقدامات انجامشده برای کاهش آسیبهای احتمالی، باید انجام شود و نتایج در صورت امکان به اطلاع عموم برسد.
سیستمهای هوش مصنوعی باید به شیوهای عادلانه مورد استفاده و طراحی قرار گیرند. تبعیض الگوریتمی زمانی اتفاق میافتد که سیستمهای خودکار براساس نژاد، رنگ، قومیت، جنسیت، مذهب، سن و… به رفتارهای مختلف با تأثیرات ناخوشایند بر افراد کمک میکنند.
این درحالی است که این تبعیضهای الگوریتمی ممکن است حمایتهای قانونی را نقض کنند. طراحان و توسعهدهندگان سیستمهای خودکار باید اقدامات پیشگیرانه و مستمری را برای محافظت از افراد و جوامع در برابر تبعیض الگوریتمی و استفاده و طراحی سیستمها به شیوهای عادلانه انجام دهند.
این حفاظت باید شامل ارزیابیهای حقوقی پیشگیرانه بهعنوان بخشی از طراحی سیستم، استفاده از دادهها و محافظت در برابر پراکسیهای مختلف باشد. همچنین اطمینان از دسترسی افراد دارای معلولیت در طراحی و توسعه، باید قبل از استقرار و آزمایش صورت بگیرد.
حفظ حریم خصوصی دادهها
کاربران هوش مصنوعی باید از طریق حفاظتهای داخلی در برابر دادههای سوءاستفادهکننده در امان باشند و در مورد نحوه استفاده از دادههای مربوط به خود اطلاع داشته باشند.
طراحان و توسعهدهندگان سیستمهای هوش مصنوعی باید از کاربران اجازه بگیرند و به تصمیمهای آنها در مورد جمعآوری، استفاده، دسترسی، انتقال و حذف دادهها به روشهای مناسب و تا حد ممکن احترام بگذارند.
سیستمها نباید از تجربه کاربر استفاده کرده و تصمیماتی را طراحی کنند که انتخاب کاربر را مبهم میکند. ایجاد حفاظتها و محدودیتها برای دادهها و استنباطهای مربوط به حوزههای حساس، از جمله بهداشت، کار، آموزش، عدالت کیفری و امور مالی و دادههای مربوط به جوانان باید در اولویت قرار بگیرد.
در حوزههای حساس، دادههای کاربران و استنباطهای مربوطه، تنها باید برای عملکردهای ضروری مورد استفاده قرار گیرند و با بازبینی اخلاقی و ممنوعیتهای سوءاستفاده از کاربران محافظت شود.
فنآوریهای نظارتی باید تحت نظارت شدیدی قرار گیرند که حداقل شامل ارزیابی قبل از استقرار و شروع به کار باشد و حریم خصوصی و آزادیهای مدنی باید در صدر توجه قرار گیرد.
طراحان و توسعهدهندگان سیستمهای خودکار باید اسنادی به زبان ساده از جمله توضیحات روشن از عملکرد کلی سیستم و نقشی که اتوماسیون ایفا میکند، ارائه دهند.
همچنین، اطلاعیهها باید بهروز نگه داشته شوند و افرادی که تحت تأثیر سیستم قرار میگیرند باید از تغییرات قابل توجه در زمان استفاده مطلع شوند. سیستمهای هوش مصنوعی باید توضیحاتی را ارائه دهند که از نظر فنی معتبر، معنادار و مفید برای کاربر و هر اپراتور یا افرادی که نیاز به درک سیستم دارند، باشند. گزارشهایی که شامل اطلاعات خلاصهای درباره این سیستمهای خودکار باشد، در صورت امکان باید به اطلاع عموم برسد.
جایگزینهای انسانی در مواقع ضروری
توسعهدهندگان هوش مصنوعی باید در صورت لزوم، انصراف دهند و فردی که بتواند به سرعت مشکلات را حل کند، جایگزین کنند. تناسب باید براساس انتظارات معقول و با تمرکز بر تضمین دسترسی گسترده و حفاظت از عموم مردم در برابر اثرات مضر مشخص شود. در صورت جایگزینکردن افراد با هم، نباید بار نامعقولی بر عموم مردم تحمیل شود.
به نظر میرسد که این چارچوب در مورد آن دسته از سیستمهای هوش مصنوعی اعمال میشود که این پتانسیل را دارند تا بهطور معناداری بر حقوق، فرصتها یا دسترسی عمومی مردم به منابع یا خدمات حیاتی تأثیر بگذارند. این حقوق، فرصتها و دسترسی به منابع حیاتی خدماتی را که باید به طور مساوی مورد استفاده قرار گیرند و به طور کامل محافظت شود، مشخص میکند./
منبع: تجارت نیوز