برچسب: انسان‌ها

7 ماه قبل - 181 بازدید

سایت علمی اس‌دی در گزارشی نوشته است که پژوهشگران هشدار می‌دهند که سیستم‌های هوش مصنوعی تا اکنون یاد گرفته‌اند که چگونه انسان‌ها را فریب دهند. محققان در مورد پتانسیل سیستم‌های هوش مصنوعی برای درگیر شدن در رفتارهای فریبنده هشدار می‌دهند و می‌گویند هوش مصنوعی می‌تواند پیامدهای اجتماعی جدی داشته باشد. آن‌ها بر نیاز به اقدامات نظارتی قوی برای مدیریت موثر این خطرات تاکید می‌کنند. بسیاری از سیستم‌های هوش مصنوعی حتی آن‌هایی که برای مفید بودن و راستگویی طراحی شده‌اند، یاد گرفته‌اند که چگونه انسان‌ها را فریب دهند. پژوهشگران در مقاله‌ای که به تازگی در مجله Patterns منتشر شده است، خطرات فریب هوش مصنوعی را برجسته می‌کنند و از دولت‌ها می‌خواهند که به سرعت مقرراتی قوی برای کاهش این خطرات وضع کنند. پیتر اس پارک فوق دکترای ایمنی وجودی هوش مصنوعی در موسسه فناوری ماساچوست(MIT) و نویسنده ارشد این مطالعه می‌گوید: توسعه دهندگان هوش مصنوعی درک مطمئنی از آنچه باعث رفتارهای نامطلوب هوش مصنوعی مانند فریب دادن می‌شود، ندارند. اما به طور کلی ما فکر می‌کنیم که فریب هوش مصنوعی به این دلیل به وجود می‌آید که یک استراتژی مبتنی بر فریب بهترین راه برای عملکرد خوب در وظیفه آموزشی هوش مصنوعی است. این فریب به آنها کمک می‌کند تا به اهداف خود برسند. پارک و همکارانش مقالاتی را تجزیه و تحلیل کردند که بر روش‌هایی متمرکز بود که سیستم‌های هوش مصنوعی اطلاعات نادرست را از طریق فریب‌های آموخته‌شده که در آن به طور سیستماتیک یاد می‌گیرند اطلاعات را دستکاری کنند و افراد را فریب دهند، منتشر می‌کنند. نمونه‌هایی از فریب هوش مصنوعی بارزترین نمونه فریب هوش مصنوعی که محققان در تجزیه و تحلیل خود کشف کردند، متعلق به سیستم CICERO شرکت متا(فیسبوک سابق) بود که یک سیستم هوش مصنوعی طراحی شده برای بازی استراتژیک فتح جهان است. اگرچه متا ادعا می‌کند که CICERO را به گونه‌ای آموزش داده است که تا حد زیادی صادق و مفید باشد و هیچ گاه عمداً به متحدان انسانی خود در حین بازی از پشت خنجر نزند، داده‌هایی که این شرکت به همراه مقاله علمی خود منتشر کرد، نشان داد که CICERO منصفانه بازی نمی‌کند. پارک می‌گوید: ما متوجه شدیم که هوش مصنوعی متا یاد گرفته است که در فریبکاری استاد باشد. در حالی که متا موفق شد هوش مصنوعی خود را برای برنده شدن در این بازی آموزش دهد، اما CICERO در بین ۱۰ درصد از بازیکنان انسانی برتر قرار گرفت که بیش از یک بازی انجام داده بودند. ضمنا متا نتوانسته هوش مصنوعی خود را برای برنده شدن صادقانه آموزش دهد. سایر سیستم‌های هوش مصنوعی توانایی بلوف زدن در بازی پوکر علیه بازیکنان انسانی حرفه‌ای، حملات جعلی در طول بازی استراتژیک Starcraft II به منظور شکست دادن حریفان و ارائه پیشنهادات نادرست در مذاکرات اقتصادی را نشان داده‌اند. خطرات هوش مصنوعی فریبنده پارک افزود: اگرچه ممکن است تقلب سیستم‌های هوش مصنوعی در بازی‌ها بی‌ضرر به نظر برسد، اما می‌تواند منجر به پیشرفت در قابلیت‌های هوش مصنوعی فریبنده شود که می‌تواند در آینده به اشکال پیشرفته‌تر فریب هوش مصنوعی تبدیل شود. محققان دریافتند برخی از سیستم‌های هوش مصنوعی حتی یاد گرفته‌اند که در آزمایش‌هایی که برای ارزیابی ایمنی آنها طراحی شده‌اند، تقلب کنند. پارک می‌گوید: یک هوش مصنوعی فریبنده با ارتکاب تقلب سیستماتیک در آزمایش‌های ایمنی توسعه‌دهندگان و تنظیم‌کننده‌های انسانی می‌تواند ما انسان‌ها را به سمت یک احساس امنیت کاذب سوق دهد. پارک هشدار می‌دهد که خطرات کوتاه‌مدت هوش مصنوعی فریبنده شامل آسان‌تر کردن تقلب و دستکاری در مسائلی نظیر انتخابات است. به گفته وی در نهایت اگر این سیستم‌ها بتوانند این مجموعه مهارت‌های ناراحت‌کننده را توسعه دهند و بهبود ببخشند، ممکن است روزی انسان‌ها کنترل خود را روی هوش مصنوعی از دست بدهند. پارک می‌گوید: ما به عنوان یک جامعه به زمان بیشتری نیاز داریم تا برای فریب پیشرفته‌تر محصولات آینده هوش مصنوعی و مدل‌های منبع باز آماده شویم. با پیشرفته‌تر شدن قابلیت‌های فریبنده سیستم‌های هوش مصنوعی، خطراتی که برای جامعه ایجاد می‌کنند، جدی‌تر می‌شوند. در حالی که پارک و همکارانش فکر می‌کنند جامعه علمی هنوز اقدام مناسبی برای رسیدگی به فریب هوش مصنوعی انجام نداده است، آنها سیاست‌گذاران را تشویق می‌کنند که اقداماتی مانند قانون هوش مصنوعی اتحادیه اروپا و فرمان اجرایی هوش مصنوعی جو بایدن رئیس جمهور آمریکا را جدی بگیرند. پارک می‌گوید البته باید دید که آیا سیاست‌های طراحی‌شده برای کاهش فریب هوش مصنوعی با توجه به اینکه توسعه‌دهندگان هوش مصنوعی هنوز تکنیک‌هایی برای کنترل این سیستم‌ها ندارند، می‌توانند به درستی اجرا شوند؟ وی افزود: اگر ممنوعیت فریبکاری هوش مصنوعی در حال حاضر از نظر سیاسی غیرممکن است، توصیه می‌کنیم که سیستم‌های هوش مصنوعی فریبنده با برچسب پرخطر طبقه‌بندی شوند.

ادامه مطلب