اخبار برگزیدهسلامتفیدفید برترفین تک و فناوری

وابستگی عاطفی به هوش مصنوعی؛ آیا چت‌بات‌ها می‌توانند جایگزین زندگی اجتماعی شوند؟

OpenAI به تازگی هشدار داده که برخی کاربران نسبت به چت‌بات GPT-4o وابستگی عاطفی پیدا کرده‌اند. این پدیده که به واسطه قابلیت‌ های صوتی پیشرفته هوش مصنوعی تقویت می‌ شود، نگرانی‌ هایی را درباره تأثیرات آن بر روابط انسانی و اجتماعی به وجود آورده است.

به‌روزترین‌ها| در یک حرکت نادر، OpenAI به کاربران خود هشدار داده است که ممکن است در حال وابستگی احساسی نسبت به چت‌بات GPT-4o خود باشند. این هشدار پس از آن صادر شد که برخی کاربران شروع به نشان دادن نشانه‌هایی از ایجاد وابستگی‌های عاطفی با این مدل هوش مصنوعی کردند.

در یک پست وبلاگی با عنوان «کارت سیستم» که توسط OpenAI منتشر شد، این شرکت به مخاطرات احتمالی ناشی از «انسان‌پنداری و وابستگی عاطفی» اشاره کرد. این فرآیند شامل نسبت دادن رفتارها و ویژگی‌های انسانی به نهادهای غیرانسانی مانند مدل‌های هوش مصنوعی است. خطر این مسئله به دلیل قابلیت‌های صوتی پیشرفته‌تر GPT-4o که بیش از پیش واقع‌گرایانه به نظر می‌رسند، افزایش می‌یابد.

افزایش وابستگی عاطفی کاربران هوش مصنوعی

طی آزمایش‌های اولیه، OpenAI مشاهده کرده که کاربران از زبانی استفاده می‌کنند که نشان‌دهنده پیوند عاطفی با مدل OpenAI است. برای مثال، عباراتی مانند «این آخرین روز ما با هم است» ممکن است نشانه‌ای از چنین ارتباطی باشد. این پدیده ممکن است تأثیرات گسترده‌تری بر تعاملات اجتماعی داشته باشد. برای مثال، اجتماعی شدن انسان‌وارانه با یک مدل هوش مصنوعی ممکن است به کاهش نیاز به تعاملات انسانی منجر شود؛ امری که ممکن است برای افراد تنها مفید باشد اما توانایی تأثیرگذاری منفی بر روابط انسانی سالم را نیز دارد.

مدل‌های جامعی مانند GPT-4o می‌توانند جزئیات کلیدی را در مکالمه به خاطر بسپارند، اما این امر همچنین می‌تواند به وابستگی بیش از حد به تعاملات فناوری منجر شود. OpenAI اعلام کرده که قصد دارد پتانسیل وابستگی عاطفی را بررسی کند و راه‌هایی که در آن ترکیب عمیق‌تر ویژگی‌ها و ابزارهای صوتی این مدل ممکن است رفتار کاربران را تحت تأثیر قرار دهد، مورد ارزیابی قرار دهد.

تقلید صدای کاربر و نگرانی از ایجاد وابستگی عاطفی

در این شرایط، OpenAI اطمینان داده که این مدل‌ها به کاربران احترام می‌گذارند و به آن‌ها اجازه می‌دهند که در هر زمان مکالمه را قطع کرده یا «میکرفون را در دست بگیرند». با این حال، نگرانی‌های دیگری نیز مطرح شده است؛ از جمله احتمال اینکه GPT-4o بتواند به طور غیرعمدی صدایی شبیه به کاربر تولید کند، امری که می‌تواند به مصادره هویت و سوء استفاده منجر شود.

برخی کاربران در فضای مجازی این توسعه را با فیلم «او» محصول سال 2013 مقایسه کرده‌اند و عنوان کرده‌اند که این موضوع تا حدی ترسناک است. از سویی دیگر، برخی دیگر نیز به شباهت این مسئله با داستان‌های سریال علمی-تخیلی «آینه سیاه»  اشاره کرده‌اند.

OpenAI همچنین یکی از صداهای مورد استفاده در GPT-4o را که با صدای بازیگر اسکارت جوهانسون و نقشش در فیلم «او» شباهت داشت، حذف کرده است.

به این ترتیب، با توجه به احتمال تأثیرات اجتماعی و شخصی این تکنولوژی‌ها، مسئله امنیت و محافظت بیشتر از کاربران در مقابل این گونه وابستگی‌ها به یک دغدغه مهم تبدیل شده است. OpenAI با ارزیابی و پیگیری مداوم، سعی در مهار چالش‌های پیش رو دارد و به دنبال ایجاد تعادل در تعاملات انسانی و تکنولوژیکی است.

آینده نگران کننده وابستگی عاطفی به هوش مصنوعی

به طور کلی تداوم پیشرفت هوش مصنوعی و وابستگی عاطفی کاربران به چت‌بات‌هایی همچون GPT-4o می‌تواند پیامدهای نگران‌کننده‌ای برای جامعه انسانی داشته باشد. کاهش تعاملات انسانی و افزایش انزوا، تضعیف مهارت‌های اجتماعی، و تعمیق شکاف دیجیتال از جمله این خطرات هستند. امنیت و حریم خصوصی کاربران نیز با پیشرفت قابلیت‌های تقلید صدا و گفتگو در معرض تهدید قرار می‌گیرد.

وابستگی عاطفی به هوش مصنوعی می‌تواند بر روابط واقعی تأثیر منفی بگذارد و مسائل اخلاقی جدی را به وجود آورد. برای مقابله با این چالش‌ها، ضروری است که توسعه و استفاده از تکنولوژی‌های هوش مصنوعی با سیاست‌ها و چارچوب‌های منطبق با ارزش‌ها و نیازهای جامعه همراه شود تا تکنولوژی همگام با حفظ سلامت روانی و اجتماعی افراد پیش رود.

نوشته های مشابه

دکمه بازگشت به بالا