وابستگی عاطفی به هوش مصنوعی؛ آیا چتباتها میتوانند جایگزین زندگی اجتماعی شوند؟
OpenAI به تازگی هشدار داده که برخی کاربران نسبت به چتبات GPT-4o وابستگی عاطفی پیدا کردهاند. این پدیده که به واسطه قابلیت های صوتی پیشرفته هوش مصنوعی تقویت می شود، نگرانی هایی را درباره تأثیرات آن بر روابط انسانی و اجتماعی به وجود آورده است.
بهروزترینها| در یک حرکت نادر، OpenAI به کاربران خود هشدار داده است که ممکن است در حال وابستگی احساسی نسبت به چتبات GPT-4o خود باشند. این هشدار پس از آن صادر شد که برخی کاربران شروع به نشان دادن نشانههایی از ایجاد وابستگیهای عاطفی با این مدل هوش مصنوعی کردند.
در یک پست وبلاگی با عنوان «کارت سیستم» که توسط OpenAI منتشر شد، این شرکت به مخاطرات احتمالی ناشی از «انسانپنداری و وابستگی عاطفی» اشاره کرد. این فرآیند شامل نسبت دادن رفتارها و ویژگیهای انسانی به نهادهای غیرانسانی مانند مدلهای هوش مصنوعی است. خطر این مسئله به دلیل قابلیتهای صوتی پیشرفتهتر GPT-4o که بیش از پیش واقعگرایانه به نظر میرسند، افزایش مییابد.
افزایش وابستگی عاطفی کاربران هوش مصنوعی
طی آزمایشهای اولیه، OpenAI مشاهده کرده که کاربران از زبانی استفاده میکنند که نشاندهنده پیوند عاطفی با مدل OpenAI است. برای مثال، عباراتی مانند «این آخرین روز ما با هم است» ممکن است نشانهای از چنین ارتباطی باشد. این پدیده ممکن است تأثیرات گستردهتری بر تعاملات اجتماعی داشته باشد. برای مثال، اجتماعی شدن انسانوارانه با یک مدل هوش مصنوعی ممکن است به کاهش نیاز به تعاملات انسانی منجر شود؛ امری که ممکن است برای افراد تنها مفید باشد اما توانایی تأثیرگذاری منفی بر روابط انسانی سالم را نیز دارد.
مدلهای جامعی مانند GPT-4o میتوانند جزئیات کلیدی را در مکالمه به خاطر بسپارند، اما این امر همچنین میتواند به وابستگی بیش از حد به تعاملات فناوری منجر شود. OpenAI اعلام کرده که قصد دارد پتانسیل وابستگی عاطفی را بررسی کند و راههایی که در آن ترکیب عمیقتر ویژگیها و ابزارهای صوتی این مدل ممکن است رفتار کاربران را تحت تأثیر قرار دهد، مورد ارزیابی قرار دهد.
تقلید صدای کاربر و نگرانی از ایجاد وابستگی عاطفی
در این شرایط، OpenAI اطمینان داده که این مدلها به کاربران احترام میگذارند و به آنها اجازه میدهند که در هر زمان مکالمه را قطع کرده یا «میکرفون را در دست بگیرند». با این حال، نگرانیهای دیگری نیز مطرح شده است؛ از جمله احتمال اینکه GPT-4o بتواند به طور غیرعمدی صدایی شبیه به کاربر تولید کند، امری که میتواند به مصادره هویت و سوء استفاده منجر شود.
برخی کاربران در فضای مجازی این توسعه را با فیلم «او» محصول سال 2013 مقایسه کردهاند و عنوان کردهاند که این موضوع تا حدی ترسناک است. از سویی دیگر، برخی دیگر نیز به شباهت این مسئله با داستانهای سریال علمی-تخیلی «آینه سیاه» اشاره کردهاند.
OpenAI همچنین یکی از صداهای مورد استفاده در GPT-4o را که با صدای بازیگر اسکارت جوهانسون و نقشش در فیلم «او» شباهت داشت، حذف کرده است.
به این ترتیب، با توجه به احتمال تأثیرات اجتماعی و شخصی این تکنولوژیها، مسئله امنیت و محافظت بیشتر از کاربران در مقابل این گونه وابستگیها به یک دغدغه مهم تبدیل شده است. OpenAI با ارزیابی و پیگیری مداوم، سعی در مهار چالشهای پیش رو دارد و به دنبال ایجاد تعادل در تعاملات انسانی و تکنولوژیکی است.
آینده نگران کننده وابستگی عاطفی به هوش مصنوعی
به طور کلی تداوم پیشرفت هوش مصنوعی و وابستگی عاطفی کاربران به چتباتهایی همچون GPT-4o میتواند پیامدهای نگرانکنندهای برای جامعه انسانی داشته باشد. کاهش تعاملات انسانی و افزایش انزوا، تضعیف مهارتهای اجتماعی، و تعمیق شکاف دیجیتال از جمله این خطرات هستند. امنیت و حریم خصوصی کاربران نیز با پیشرفت قابلیتهای تقلید صدا و گفتگو در معرض تهدید قرار میگیرد.
وابستگی عاطفی به هوش مصنوعی میتواند بر روابط واقعی تأثیر منفی بگذارد و مسائل اخلاقی جدی را به وجود آورد. برای مقابله با این چالشها، ضروری است که توسعه و استفاده از تکنولوژیهای هوش مصنوعی با سیاستها و چارچوبهای منطبق با ارزشها و نیازهای جامعه همراه شود تا تکنولوژی همگام با حفظ سلامت روانی و اجتماعی افراد پیش رود.