April 2024 28 / يکشنبه ۰۹ ارديبهشت ۱۴۰۳
کد خبر: ۴۰۳۱۸۰
۲۱ مهر ۱۴۰۲ - ۱۵:۴۵
0
یکی از مقامات شرکت هوش مصنوعی OpenAI اخیرا با این اظهار نظر که GPT Chat می‌تواند به روان درمانی کمک کند، انتقادات زیادی را برانگیخت.

آیا GPT Chat می‌تواند به روان درمانی کمک کند؟

یلیان وونگ، مسئول مسائل امنیتی هوش مصنوعی OpenAI در اواخر سپتامبر در حساب خود در X نوشت: من یک گفت و گوی بسیار شخصی و احساسی با GPT Chat از طریق صدا، در مورد استرس و تعادل بین کار و زندگی داشتم.

او اضافه کرد: جالب است که احساس می‌کردم شنیده می‌شوم و احساس آرامش می‌کنم. من قبلاً هرگز این گونه درمان را امتحان نکرده بودم، آیا روان درمانی واقعا چنین است؟

وونگ در درجه اول به دنبال برجسته کردن عملکرد جدید تنظیم صدای پولی چت بات بود که حدود یک سال پیش معرفی شد و به دنبال یک مدل اقتصادی است.

اما شر اسکارلت، فعال آمریکایی، به شدت به این اظهارات واکنش نشان داد و گفت که روانشناسی هدفش بهبود سلامت روان بوده و کار سختی است. این که انسان احساسات مثبت برای خود ایجاد کند خوب است، اما این ربطی به درمان ندارد.

اما آیا واقعا تعامل با هوش مصنوعی می‌تواند تجربه مثبتی را که لیلیان ونگ توصیف کرده است، ایجاد کند؟

بر اساس مطالعه‌ای که چند روز پیش در مجله علمی Nature Machine Intelligence منتشر شد، این پدیده را می‌توان با اثر دارونما توضیح داد.

برای اثبات این موضوع، محققان مؤسسه فناوری ماساچوست و دانشگاه آریزونا نظرات ۳۰۰ شرکت‌کننده را مورد بررسی قرار دادند و توضیح دادند که چت بات با برخی همدلی می‌کند، برخی دیگر را به بازی می‌گیرد و با گروه سوم رفتار متعادلی دارد.

در نتیجه، کسانی که معتقد بودند با دستیاری مجازی صحبت می‌کنند که می‌تواند با آن‌ها همدردی کند، این همکار خود را قابل اعتماد می‌دانند.

پت پاتارانتاپورن یکی از نویسندگان این مطالعه گفت: ما دریافتیم که به هوش مصنوعی به نوعی بر اساس پیش فرض‌های کاربر توجه می‌شود.

حماقت ربات‌ها

بسیاری از شرکت‌های استارت‌آپ بدون انجام اقدامات احتیاطی زیادی در زمینه‌ای که هنوز حساس است، شروع به توسعه اپلیکیشن‌هایی کرده‌اند که قرار است نوعی از کمک به سلامت روان را ارائه دهند که جنجال‌های مختلفی را به همراه داشته است.

کاربران Replica، اپلیکیشنی که به ارائه مزایای سلامت روان معروف است، به ویژه از این که هوش مصنوعی ممکن است دچار دستکاری شود، شکایت کرده اند.

سازمان غیردولتی آمریکایی کوکو که در ماه فوریه آزمایشی را بر روی ۴۰۰۰ بیمار با استفاده از مدل هوش مصنوعی GPT-۳ انجام داده بود نیز اذعان کرد که پاسخ‌های خودکار در درمان موفقیت آمیز نبودند.

راب موریس، یکی از بنیانگذاران این شرکت در x نوشت: شبیه‌سازی همدلی، عجیب و بی‌معنی به نظر می‌رسد. این مشاهدات منعکس کننده نتایج یک مطالعه قبلی در مورد اثر دارونما است، به گونه‌ای که برخی از شرکت‌کنندگان احساس می‌کردند دارند با دیوار صحبت می‌کنند.

منبع: ۲۴.ae

ارسال نظرات
نام:
ایمیل:
* نظر:
گزارش مجامع بیشتر
تولید 300 هزارتن کاتد به رغم کاهش بیش از 16 هزار تنی مصرف قراضه مس در سال 1401

تولید 300 هزارتن کاتد به رغم کاهش بیش از 16 هزار تنی مصرف قراضه مس در سال 1401

مدیرعامل مس در مجمع عمومی عادی این شرکت که با حضور اکثریت سهامداران در تالار وزارت کشور برگزار شد از کسب رتبه پنجم ذخایر جهانی مس تنها با اکتشاف 7 درصدمساحت کشور خبر دادو گفت: با توسعه اکتشافات رسیدن به رتبه دوم و سوم جهانی نیز برای ایران متصور است.
پربازدید
پرطرفدارترین
برای دریافت خبرنامه پول نیوز ایمیل خود را وارد نمایید: