ChatGPT |چت جی پی تی
ChatGPT جایگزین روانشناسها میشود؟
کارمند OpenAI میگوید اگرچه هرگز درمان با روش روانشناسی را امتحان نکرده، ChatGPT میتواند جایگزین بسیار مناسبی برای این کار باشد.
یکی از کارمندان ارشد OpenAI ادعا کرد جدیدترین نسخهی ChatGPT که اکنون از قابلیت تشخیص صدا نیز بهره میبرد، دقیقاً میتواند شبیه درمانگران انسانی رفتار کند. البته او اعتراف کرد خودش تاکنون با چتبات هوش مصنوعی مذکور اقدام به درمان با روش روانشناسی نکرده است.
لیلیان ونگ، رئیس سیستمهای امنیتی OpenAI در شبکهی اجتماعی ایکس (توییتر سابق) اعلام کرد:
ازطریق چت صوتی، مکالمهای کاملاً احساسی و شخصی با ChatGPT داشتم و درمورد استرس و تعادل بین کار و زندگی با آن صحبت کردم و پس از پایان صحبت با هوش مصنوعی، احساس کردم حرفم را شنیده است و دلگرم شدم.
اگرچه اشاره به ظرفیت ChatGPT برای درمان ازطریق روانشانسی آن هم از طرف کارمند ارشد ایمنی OpenAI عجیب بهنظر میرسد، مفهوم درمانگرهای هوش مصنوعی درواقع به دههی ۱۹۶۰ میلادی برمیگردد؛ زمانی که دانشمندی پیشگام، کامپیوتر چتبات سادهای توسعه داد. این رایانه که Eliza نامیده میشود اساساً از روشی مشابه درمانگران انسانی استفاده میکرد.
جوزف وایزنبام، دانشمند MIT سال ۱۹۹۶، کامپیوتر Eliza را ارائه داد و قصد داشت سطحی بودن هوش مصنوعی را به نمایش بگذارد اما به منبع ناخواستهی اثر الیزا (ELIZA effect) معرف شد؛ جاییکه مردم خواص انسانی را به ماشینهایی نسبت میدهند که قادر به تعامل با آنها هستند.
مارگارت میچل، دانشمند ارشد اخلاق در شرکت هوش مصنوعی Hugging Face اوایل سال جاری در گفتوگو با وبسایت Build in اعلام کرد:
این اساساً توهم است که ماشینی که با آن صحبت میکنید، درک شبیه انسان از جهان دارد. این یعنی ذهنیت و غرضی بزرگ در پشت سیستم وجود دارد.
Eliza از زمان خود جلوتر بود، درمانگران هوش مصنوعی در دههی گذشته چیزی شبیه رنسانس را تجربه کردند. سال ۲۰۱۵ محققان دانشگاه کالیفرنیانی جنوبی چتباتی به نام Ellie را منتشر کردند که از آواتار انساننما بهره میبرد و برای تشخیص حالات چهره و ظاهراً بیان احساسات انسانی که با آنها در تعامل است، آموزش دیده بود.
در سالهای بعد، چند تلاش دیگر برای راهاندازی درمانگران هوش مصنوعی صورت گرفت اما بهنظر میرسد ChatGPT آمادگی ایجاد تغییری بزرگ در درمان با روانشناسی را دارد که این مورد باعث ناراحتی بسیاری از متخصصان سلامت روان شده است.
ونگ اولین کسی نیست که احساس میکند ChatGPT مزایای درمانی دارد و بیشک آخرین نفر هم نخواهد بود.
اگرچه اشاره به ظرفیت ChatGPT برای درمان ازطریق روانشانسی آن هم از طرف کارمند ارشد ایمنی OpenAI عجیب بهنظر میرسد، مفهوم درمانگرهای هوش مصنوعی درواقع به دههی ۱۹۶۰ میلادی برمیگردد؛ زمانی که دانشمندی پیشگام، کامپیوتر چتبات سادهای توسعه داد. این رایانه که Eliza نامیده میشود اساساً از روشی مشابه درمانگران انسانی استفاده میکرد.
جوزف وایزنبام، دانشمند MIT سال ۱۹۹۶، کامپیوتر Eliza را ارائه داد و قصد داشت سطحی بودن هوش مصنوعی را به نمایش بگذارد اما به منبع ناخواستهی اثر الیزا (ELIZA effect) معرف شد؛ جاییکه مردم خواص انسانی را به ماشینهایی نسبت میدهند که قادر به تعامل با آنها هستند.
مارگارت میچل، دانشمند ارشد اخلاق در شرکت هوش مصنوعی Hugging Face اوایل سال جاری در گفتوگو با وبسایت Build in اعلام کرد:
Eliza از زمان خود جلوتر بود، درمانگران هوش مصنوعی در دههی گذشته چیزی شبیه رنسانس را تجربه کردند. سال ۲۰۱۵ محققان دانشگاه کالیفرنیانی جنوبی چتباتی به نام Ellie را منتشر کردند که از آواتار انساننما بهره میبرد و برای تشخیص حالات چهره و ظاهراً بیان احساسات انسانی که با آنها در تعامل است، آموزش دیده بود.
در سالهای بعد، چند تلاش دیگر برای راهاندازی درمانگران هوش مصنوعی صورت گرفت اما بهنظر میرسد ChatGPT آمادگی ایجاد تغییری بزرگ در درمان با روانشناسی را دارد که این مورد باعث ناراحتی بسیاری از متخصصان سلامت روان شده است.
ونگ اولین کسی نیست که احساس میکند ChatGPT مزایای درمانی دارد و بیشک آخرین نفر هم نخواهد بود.