فید

فیس‌بوک هوش مصنوعی را اخلاقی می‌کند!

موبنا – بدون شک یکی از پر سر و صداترین و جنجالی‌ترین فناوری‌های جدیدی که گوگل در کنفرانس توسعه دهندگان و رویداد Google I/O ۲۰۱۸ از آن رونمایی کرد، نسخه آزمایشی فناوری گوگل دوپلکس بود که مبتنی بر هوش مصنوعی و یادگیری ماشینی فوق پیشرفته بوده و قادر است بسیار شبیه به انسان صحبت کند و همانند یک دستیار صوتی به مخاطبان موردنظر کاربران تماس گرفته و دقیقا با آنها همانند یک انسان مذاکره کرده و به گفت‌وگو بنشیند.

صدای گوگل دوپلکس آنقدر شبیه به انسان بوده و هوشمندانه است، به گونه ای که توسط مخاطبان روبات بودن و مصنوعی بودن مکالمات آن، کاملا غیر قابل تشخیص است. پس از معرفی و رونمایی از این محصول جدید، بلافاصله جنجال‌های بسیاری در فضای مجازی بوجود آمد. آنها بر این باورند که این فناوری فوق پیشرفته و فوق هوشمند، بسیار غیر اخلاقی بوده و مرزهای اخلاقیات را زیر پا خواهد گذاشت چراکه کاربران می‌توانند بسیاری از جرائم را بدین صورت انجام بدهند بدون آنکه طرف مقابلشان متوجه شود این یک روبات بوده است.

به گفته کارشناسان و تحلیلگران فعال در این حوزه، این چالش‌های اخلاقی می‌تواند عواقب ناگوار پیشرفت تکنولوژی و علم در سالهایی نه چندان دور را به ما گوشزد کند. یک تکنولوژی که می‌تواند بسیار شبیه به انسان عمل کند، صحبت کند، با مخاطب موردنظر موضوعات مختلف بحث و مذاکره کند، به طور قطع می تواند در آینده ما را با مشکلات و معضلات بزرگی مواجه سازد.

بر اساس گزارش فوربس، حالا به نظر می رسد که فیس بوک به عنوان یکی از بزرگترین غول های تکنولوژی در جهان تصمیم گرفته است به نگرانی های امنیتی در خصوص توسعه فناوری های نوینی همچون هوش مصنوعی پاسخ داده و به منظور ارتقای امنیت سایبری، حفاظت از اطلاعات و حریم خصوصی کاربران و همچنین رعایت اخلاقیات موسسه و مرکزی تحقیقاتی و پژوهشی جدیدی را ایجاد و راه اندازی کند که در آن متخصصان و دانشمندان فعال در این حوزه به بررسی دقیق فعالیت‌های هوش مصنوعی پرداخته و با تحقیقات جدید به رعایت بیشتر مسائل اخلاقی در این فناوری کمک بسزایی کنند.

گفته می‌شود فیس بوک بدین منظور قصد دارد سرمایه‌گذاری کلانی به ارزش ۷.۵ میلیون دلار را اختصاص دهد تا در حوزه‌هایی همچون بهداشت و درمان، تکنولوژی و همچنین حقوق بشر تعامل میان بشر و هوش مصنوعی بیشتر از بیش شود.

 منبع: ایسنا 

نوشته های مشابه

دکمه بازگشت به بالا