هوش مصنوعی در برابر حقوق بشر!
موبنا – گزارشهای شرکتهایی از جمله گوگل و مایکروسافت در مورد هوش مصنوعی نشان میدهد سیستمهای هوش مصنوعی و سازندگان آن به شدت نیاز به مداخله مستقیم دولت و ناظران حقوق بشر دارند. به نظر میرسد این فناوری در تنظیم خود موفق نیست.
گزارشی که توسط یکی از سازمانهای وابسته به “دانشگاه نیویورک”(NYU) منتشر شده، نشان میدهد که ابزارهای مبتنی بر هوش مصنوعی با کمترین توجه نسبت به اثرات مضر و یا حتی اثبات ابزار کارآمد، مورد استفاده قرار گرفتهاند. عملکرد این سیستمهای اثبات نشده میتواند هزاران و حتی میلیونها نفر را تحت تاثیر قرار دهد.
این سیستمها، به آسیب جدی منجر میشوند و نه تنها سیستمی برای متوقف کردن آنها وجود ندارد، بلکه ابزار ردیابی و تعیین کمیت آنها نیز محدود هستند.
در این گزارش آمده است: چارچوبهای حاکم بر هوش مصنوعی، قابلیت تضمین پاسخگویی را ندارند. با فراگیری، پیچیدگی و رشد مقیاس این سیستمها، عدم پاسخگویی و نظارت، به یک نگرانی تبدیل میشود.
در حال حاضر، شرکتها در حال ابداع راه حلهایی مبتنی بر هوش مصنوعی هستند که در حوزههای گوناگون از رتبهبندی دانشجویان تا ارزیابی مهاجران در زمینه جرم و جنایت کاربرد دارند.
اخیرا گوگل پس از اعتراضاتی که نسبت به همکاری این شرکت با وزارت دفاع صورت گرفت، قرارداد بزرگی را با مقامات هوش مصنوعی منعقد کرد. نظر گوگل این بود که ابزار هوش مصنوعی، از نظر اجتماعی کارآمد هستند و با حقوق بشر مورد تایید مقامات مغایرتی ندارند.
برای استفاده از هوش مصنوعی و بهبود کارکرد آن، پیشنهاداتی ارائه شدهاند که توجه به آنها مفید خواهد بود.
هوش مصنوعی باید تنظیم شود اما داشتن یک بدنه ایمن هوش مصنوعی عملی نخواهد بود. متخصصان هوش مصنوعی در حوزههای سلامت و حمل و نقل باید قوانین مربوط به حوزه را به شکل جدیدی ارائه دهند تا معرف نقش ابزار یادگیری ماشینی باشند.
فناوری تشخیص چهره باید در تشخیص احساسات و یا جرائم، به طور دقیقی بررسی شود و حوزههایی مانند تبلیغات اشتباه و داروهای تقلبی را پوشش دهد.
اثبات و پاسخگویی عمومی باید به یک قانون تبدیل شود و عملکردهای داخلی سیستم از مجموعه دادهها تا فرآیندهای تصمیمگیری را پوشش دهد. این قوانین نه تنها برای اصلاح و تنظیم پایهای سیستم لازم هستند بلکه برای اهداف قانونی نیز باید از تصمیم یک سیستم طبقهبندی شده استفاده شود.
برای تثبیت پاسخگویی هوش مصنوعی، بودجه و سوابق بیشتری مورد نیاز است. مواردی از این دست، تنها با انتشار یک پست در فضای مجازی با مضمون “سیستم تصمیمگیری هوش مصنوعی” که مردم را از حقوق خود محروم میکند، قابل حل نیست. اینگونه موارد حتما باید به دادگاه ارجاع داده شوند.
کل صنعت هوش مصنوعی باید برای گذشتن از موانع، از ابزار و امکانات جدیدی استفاده کند و قوانین جدیدی در پژوهشها مورد توجه قرار گیرند. جهتگیری قانونمند پژوهشهای هوش مصنوعی، به توجه عمیقتر در حوزه اجتماعی منجر خواهد شد.
منبع: ایسنا