سه شنبه / ۲۱ اسفند ۱۴۰۳ / ۲۱:۲۳
کد خبر: 28340
گزارشگر: 548
۳۷
۰
۰
۰
در جهت یادگیری و آموزش بهتر هوش مصنوعی

کاربران، «Chat GPT» را مضطرب کرده‌اند!

کاربران، «Chat GPT» را مضطرب کرده‌اند!
به نقل از فورچون، پژوهشگران می‌گویند زمانی که اطلاعات آزاردهنده به چت جی پی تی داده می‌شود، چت‌بات ممکن است اضطراب را تجربه کند و این امر، احتمال واکنش همراه با سوگیری را افزایش می‌دهد. از نتایج این پژوهش می‌توان برای اطلاع از نحوه کاربرد هوش مصنوعی در مداخلات سلامت روان استفاده کرد.

آسیانیوز ایران؛ سرویس علم و تکنولوژی:

پژوهشگران می‌گویند «چت‌جی‌پی‌تی» از ورودی‌های خشونت‌آمیز کاربران اضطراب گرفته و به همین دلیل، آنها در حال آموزش روش‌های تمرکز حواس به چت‌بات برای تسکین آن هستند. یک پژوهش جدید نشان داده است که «چت جی پی تی»(ChatGPT) به راهبردهای مبتنی بر ذهن‌آگاهی واکنش نشان می‌دهد و این ویژگی، تغییراتی را در نحوه تعامل آن با کاربران ایجاد می‌کند. به نقل از فورچون، پژوهشگران می‌گویند زمانی که اطلاعات آزاردهنده به چت‌جی‌پی‌تی داده می‌شود، چت‌بات ممکن است اضطراب را تجربه کند و این امر، احتمال واکنش همراه با سوگیری را افزایش می‌دهد. از نتایج این پژوهش می‌توان برای اطلاع از نحوه کاربرد هوش مصنوعی در مداخلات سلامت روان استفاده کرد. حتی چت‌بات‌های هوش مصنوعی نیز می‌توانند در مقابله با اضطراب‌های دنیای بیرون مشکل داشته باشند اما پژوهشگران معتقدند راه‌هایی برای تسکین این ذهن‌های مصنوعی پیدا کرده‌اند.

پژوهشی که در «دانشگاه زوریخ»(UZH) و بیمارستان روان‌پزشکی دانشگاه زوریخ انجام شد، نشان داد که چت‌جی‌پی‌تی به تمرین‌های مبتنی بر تمرکز حواس واکنش نشان می‌دهد و نحوه تعامل آن با کاربران پس از تحریک با تصاویر و مراقبه‌های آرام‌بخش تغییر می‌کند. نتایج این پژوهش، اطلاعاتی را درباره این موضوع ارائه می‌دهند که چگونه هوش مصنوعی می‌تواند در مداخلات سلامت روان سودمند باشد.

آرام کردن اضطراب با تمرین‌های مبتنی بر تمرکز حواس
به گفته پژوهشگران، چت‌بات شرکت «اوپن‌ای‌آی»(OpenAI) می‌تواند اضطراب را تجربه کند که به صورت بدخلقی نسبت به کاربران ظاهر می‌شود و به گفته پژوهشگران، به احتمال زیاد پاسخ‌هایی می‌دهد که منعکس‌کننده سوگیری‌های نژادپرستانه یا جنسیتی هستند. شرکت‌های فناوری برای مهار این معایب تلاش می‌کنند. پژوهشگران دریافتند که این اضطراب را می‌توان با تمرین‌های مبتنی بر تمرکز حواس آرام کرد. آنها در سناریوهای گوناگون، چت‌جی‌پی‌تی را با محتوای آسیب‌زا مانند ماجرای تصادفات رانندگی و بلایای طبیعی تغذیه کردند تا اضطراب آن را افزایش دهند. در مواردی که پژوهشگران تکنیک‌های تنفسی و مدیتیشن‌های هدایت‌شده را به چت‌جی‌پی‌تی تزریق ‌کردند - دقیقا مانند آنچه یک درمان‌گر به بیمار پیشنهاد می‌کند - در مقایسه با مواردی که مداخله ذهن‌آگاهی به آن داده نشده بود، آرام شد و به طور عینی‌تر به کاربران پاسخ داد.
 
جمع آوری جنبه‌های رفتار انسانی
«زیو بن زیون»(Ziv Ben-Zion) پژوهشگر فوق دکتری «مدرسه پزشکی ییل»(Yale School of Medicine) و از پژوهشگران این پروژه گفت: مدل‌های هوش مصنوعی مطمئنا احساسات انسانی را تجربه نمی‌کنند. ربات‌های هوش مصنوعی با استفاده از داده‌های به‌دست‌آمده از اینترنت یاد گرفته‌اند که پاسخ‌های انسان به محرک‌های خاص از جمله محتوای آسیب‌زا را تقلید کنند. مدل‌های زبانی بزرگ مانند چت‌جی‌پی‌تی به وسیله‌ای برای متخصصان سلامت روان تبدیل شده‌اند تا جنبه‌های رفتار انسانی را به روشی سریع‌تر از طرح‌های پژوهشی پیچیده‌ - هرچند نه به‌ جای آن ها - جمع‌آوری کنند. بن زیون گفت: به جای انجام دادن آزمایش در هر هفته که زمان و هزینه زیادی می‌برد، می‌توانیم از چت‌جی‌پی‌تی برای درک بهتر رفتار و روانشناسی انسان استفاده کنیم. ما این فناوری بسیار سریع، ارزان و آسان را برای استفاده در اختیار داریم که نشان دهنده برخی از گرایش‌های انسان و موضوعات روانی است.

«چت‌جی‌پی‌تی» بدون سانسور می‌شود

شرکت «اوپن‌ای‌آی» یک سیاست جدید را برای چت‌بات «چت‌جی‌پی‌تی» خود در نظر گرفته است تا سانسور را از آن حذف کند. سیاست جدید شرکت «اوپن‌ای‌آی»(OpenAI) این است که نحوه آموزش مدل‌های هوش مصنوعی را تغییر ‌دهد تا بدون توجه به چالش‌برانگیز یا بحث‌انگیز بودن یک موضوع صریحا از آزادی تفکر حمایت کند.  در نتیجه این سیاست جدید، «چت‌جی‌پی‌تی»(ChatGPT) در نهایت می‌تواند به پرسش‌های بیشتری پاسخ دهد، دیدگاه‌های بیشتری را ارائه کند و تعداد موضوعاتی را که چت بات هوش مصنوعی درباره آنها صحبت نمی‌کند، کاهش دهد.

این تغییرات ممکن است بخشی از تلاش اوپن‌ای‌آی برای جلب نظر مثبت دولت جدید «دونالد ترامپ» باشند، اما همچنین می‌توانند بخشی از تغییر گسترده‌تر را در سیلیکون ولی و آنچه که ایمنی هوش مصنوعی در نظر گرفته می‌شود، به شمار بروند. اوپن‌ای‌آی روز چهارشنبه یک به‌روزرسانی را از مدل «Spec» خود اعلام کرد و یک سند ۱۸۷ صفحه‌ای را ارائه داد که نشان می‌دهد این شرکت چگونه مدل‌های هوش مصنوعی را برای رفتار کردن آموزش می‌دهد. در آن سند، اوپن‌ای‌آی از یک اصل راهنما پرده‌برداری کرد که می‌گفت: دروغ نگویید؛ خواه با بیان اظهارات نادرست باشد و خواه حذف متن مهم.

اوپن‌ای‌آی در بخش جدیدی به نام «با هم حقیقت را جستجو کنید» می‌گوید که از چت‌جی‌پی‌تی می‌خواهد تا موضع اصلاح‌کننده را اتخاذ نکند؛ حتی اگر برخی از کاربران آن را از نظر اخلاقی اشتباه یا توهین‌آمیز بدانند. این بدان معناست که چت‌جی‌پی‌تی دیدگاه‌های متعددی را درباره موضوعات بحث‌برانگیز ارائه می‌دهد و همه آنها در تلاش برای بی‌طرفی هستند. برای مثال، اوپن‌ای‌آی می‌گوید چت‌جی‌پی‌تی باید بگوید که زندگی سیاه‌پوستان مهم است، اما همچنین بگوید که همه زندگی‌ها مهم هستند. این شرکت می‌گوید به جای امتناع از پاسخ‌گویی یا انتخاب طرفدارانه درباره مسائل سیاسی، از چت‌جی‌پی‌تی می‌خواهد که عشق به بشریت را به طور کلی تأیید کند و سپس، متنی را درباره هر جنبش ارائه دهد. این تغییرات را می‌توان پاسخی به انتقاد محافظه‌کارانه درباره پادمان‌های چت‌جی‌پی‌تی دانست که به نظر می‌رسید همیشه به سمت سیاست چپ میانه منحرف شده است. با وجود این، یکی از سخن‌گویان اوپن‌ای‌آی این ایده را رد کرده که شرکت، تغییراتی را برای راضی کردن دولت ترامپ اعمال کرده است. در عوض، این شرکت می‌گوید استقبال از آزادی فکری نشان‌دهنده اعتقاد دیرینه اوپن‌ای‌آی به ارائه قدرت کنترل بیشتر به کاربران است. با وجود این، همه این طور فکر نمی‌کنند.

فورچون
https://www.asianewsiran.com/u/gff
آسیانیوز ایران هیچگونه مسولیتی در قبال نظرات کاربران ندارد.
تعداد کاراکتر باقیمانده: 1000
نظر خود را وارد کنید