برچسب: هوش مصنوعی

1 هفته قبل - 356 بازدید

سایت علمی فوربس گزارش داده است که اگرچه هوش مصنوعی مولد به سرعت گسترش می‌یابد و کارآیی بسیاری را برای شرکت‌ها دارد، اما با مشکلاتی نیز به همراه است که باید به آن‌ها توجه شود. هوش مصنوعی مولد به ‌ویژه مدل‌های زبانی بزرگ مانند ChatGPT، مهم‌ترین محصول نهایی هستند که از زمان آغازشدن پژوهش در حوزه هوش مصنوعی به کار گرفته شده‌اند. درگزارش آمده است که اهمیت هوش مصنوعی مولد، یک موضوع قابل توجه است. شرکت مشاور مدیریت مک‌کنزی تخمین می‌زند که هوش مصنوعی مولد می‌تواند سالانه ۷.۹ تریلیون دلار را به اقتصاد جهانی اضافه کند. در ادامه آمده است که هوش مصنوعی مولد با وجود پتانسیل فوق‌العاده‌ای که دارد، بدون کاستی نیست. به نقل از سایت علمی فوربس، در واقع، می‌توان استدلال کرد که ورود آن فعلاً اوضاع را به هم ریخته است. حال که ۱۰ ماه از انتشار ChatGPT 4 می‌گذرد، بیایید نگاهی به مشکلات اصلی هوش مصنوعی مولد بیندازیم و چند ایده را در مورد چگونگی غلبه کردن بر آن‌ها بررسی کنیم. ۱. دقت همه ما درباره مشکل توهم ChatGPT شنیده‌ایم. مدل‌های زبانی بزرگ برای ارائه دادن پاسخ‌های احتمالی طراحی شده‌اند که از داده‌های آموزشی می‌گیرند و می‌توانند کمی بیش از اندازه نسبت به ارائه دادن پاسخ مشتاق باشند. این موضوع مشخص شده است که مدل‌های زبانی بزرگ به ‌جای گفتن «نمی‌دانم»، پاسخ‌هایی را درست می‌کنند و مشکلات بسیاری را از آسیب‌رساندن به یک برند گرفته تا نقض کردن مقررات به وجود می‌آورند. ایجاد حفاظ‌های اخلاقی و موضوعی برای مدل‌های مولد هوش مصنوعی می‌تواند به حل کردن این مشکل کمک کند. بنابراین، تقویت کردن آموزش یک مدل هوش مصنوعی مولد با پایگاه‌های دانش مختص حوزه‌های سازمانی می‌تواند سودمند باشد. با وجود این، شرکت‌ها به منظور آماده شدن برای یک آینده قابل پیش‌بینی باید دقت بهتری را در اعلان‌های مهندسی داشته باشند و یک انسان را در جریان نگه دارند تا همه اطلاعات تولید شده با مدل‌ زبانی بزرگ را بررسی کند. ۲. سوگیری شاید مشکل سوگیری هوش مصنوعی، یک خبر قدیمی باشد، اما گسترش سریع هوش مصنوعی مولد این نگرانی را بیش از حد تصور تشدید کرده است. اکنون، به جای نگرانی در مورد یک سوگیری کوچک، مدیران شرکت‌ها باید نگران باشند که سوگیری هوش مصنوعی بتواند فرهنگ شرکت آن‌ها را به طور کامل تحت سلطه خود درآورد. آیا سهولت استفاده کردن از برنامه‌هایی مانند ChatGPT به این معناست که با توجه کردن به یک دیدگاه، تعدد صداهای ما خفه می‌شود؟ منتقدان ادعا کرده‌اند که این نرم‌افزار یک سوگیری آشکار دارد که تعصبات جنسیتی را تداوم می‌بخشد و ذاتا از نظر نژادی مغرضانه عمل می‌کند. برای اطمینان یافتن از اینکه هوش مصنوعی مولد نمی‌تواند دیدگاه‌های سمی را در یک سازمان یا شرکت تداوم ببخشد، گروه مهندسی شرکت باید در تماس نزدیک با این موضوع باشد و تلاش کند تا ارزش‌های شرکتی و انسانی خود را به هوش مصنوعی القا کند. ۳. حجم اطلاعات با توجه به اینکه ایجاد محتوای جدید با هوش مصنوعی مولد بسیار آسان شده است، غرق در اطلاعات شده‌ایم. ایمیل‌ها، کتاب‌های الکترونیکی، صفحات وب، پست‌های منتشر شده در رسانه‌های اجتماعی و سایر آثار تولید شده، سیل اطلاعات را سرازیر می‌کنند. حتی حجم درخواست‌های شغلی نیز افزایش یافته که به دلیل توانایی در تولید سریع رزومه‌های سفارشی‌سازی‌شده و نامه‌های پوششی با هوش مصنوعی است. مدیریت کردن این حجم بزرگ از اطلاعات جدید، کار دشواری است. چگونه می‌توان از کوه اطلاعات ایجادشده در یک سازمان استفاده کرد؟ چگونه می‌توان همه این اطلاعات را ذخیره کرد؟ چگونه می‌توان با تحلیل داده‌ها همگام شد؟ وقتی همه محتوا با هوش مصنوعی تولید شده باشد، شایستگی اطلاعات و اشخاص چگونه ارزیابی خواهد شد؟ برای جلوگیری کردن از سردرگمی و فرسودگی کارمندان باید فناوری‌ها و روش‌های مناسبی را سازمان‌دهی کرد، زیرا حجم اطلاعات پس از این بیشتر هم خواهد شد. ۴. امنیت سایبری هوش مصنوعی مولد، قابلیت انجام دادن حملات سایبری جدید را به شدت افزایش داده است. از این فناوری می‌توان برای تحلیل رمز به منظور افزایش دادن آسیب‌پذیری و نوشتن بدافزار استفاده کرد. همچنین، می‌توان از هوش مصنوعی مولد برای تولید کردن فیلم‌های جعلی و صداهای شبیه‌سازی‌شده به منظور کلاه‌برداری و آدم‌ربایی مجازی استفاده کرد. هوش مصنوعی مولد می‌تواند ایمیل‌های قانع‌کننده‌ای را در حمایت کردن از حملات فیشینگ و موارد دیگر بنویسد. علاوه بر این، رمزهایی که با کمک هوش مصنوعی نوشته می‌شوند، ممکن است بیشتر از رمزهای تولیدشده توسط انسان در معرض هک شدن باشند. بهترین راه مقابله کردن با آتش، خود آتش است. هوش مصنوعی می‌تواند برای تحلیل کردن رمز در جستجوی آسیب‌پذیری‌ها و انجام دادن آزمایش‌های نفوذ مداوم و بهبود مدل‌های دفاعی استفاده شود. نباید آسیب‌پذیری شماره یک امنیت سایبری را در یک شرکت فراموش کرد. این آسیب‌پذیری، انسان‌ها هستند. هوش مصنوعی مولد می‌تواند گزارش‌های فعالیت کاربر را در جستجوی رفتار خطرناک تحلیل کند، اما اولین خط دفاعی شرکت باید آموزش دادن کارکنانی باشد که بیشتر از پیش هوشیاری به خرج دهند. ۵. مالکیت معنوی شکایت‌های هنرمندان، نویسندگان، آژانس‌های عکس و سایرین نشان می‌دهد که داده‌ها و سبک‌های اختصاصی این افراد بدون اجازه آن‌ها برای آموزش دادن نرم‌افزار هوش مصنوعی مولد استفاده شده است. شرکت‌هایی که از نرم‌افزار مولد هوش مصنوعی استفاده می‌کنند، نگران هستند که در این معضل گرفتار شوند. اگر هوش مصنوعی مولد تصاویری را از یک کمپین تبلیغاتی تولید کند که ناخواسته به حریم کار شخص دیگری وارد شود، مسئولیت آن با چه کسی خواهد بود؟ اطلاعاتی که با استفاده از هوش مصنوعی ایجاد می‌شوند، متعلق به چه کسی هستند؛ اشخاص، شرکت‌های نرم‌افزاری مولد هوش مصنوعی یا خود هوش مصنوعی؟ تاکنون حکم این بوده که آثار تولید شده توسط انسان‌ها با کمک هوش مصنوعی دارای حق چاپ هستند، اما هنوز در مورد ثبت اختراعات صحبت نشده است. توصیه کارشناسان این است که انسان‌ها در جریان ایجاد همه اطلاعات قرار بگیرند و اطمینان حاصل شود که تیم حقوقی شرکت با توجه به سرعت تکامل قوانین، به انجام دادن بررسی‌های لازم ادامه دهند. ۶. سایه هوش مصنوعی روی کار نظرسنجی شرکت رایانش ابری سیلزفورس که روی ۱۴ هزار نفر کارمند در ۱۴ کشور انجام شده است، نشان می‌دهد نیمی از کارکنانی که از فناوری‌های مولد هوش مصنوعی استفاده می‌کنند، این کار را بدون تایید سازمان‌های محل اشتغال خود انجام می‌دهند. بازگشت به روش‌های پیشین در این مورد امکان‌پذیر نخواهد بود. بنابراین، بهتر است سیاست‌هایی را برای هوش مصنوعی مولد تعیین کرد و برنامه‌هایی را برای آموزش دادن کارکنان به کار گرفت. همچنین، کارمندان باید با سرپرست‌های فناوری اطلاعات شرکت خود در مورد کارهایی صحبت کنند که برای کشف و مدیریت نرم‌افزارهای هوش مصنوعی مولد روی دستگاه‌های شرکت انجام می‌دهند. هنوز مشکلاتی برای مدیریت کردن هوش مصنوعی مولد وجود دارد، اما این فناوری باید مدیریت شود زیرا ما در بحبوحه روند تغییر کردن نحوه انجام دادن تجارت به شیوه‌ای هستیم که پیشتر توسط هیچ‌کس انجام نشده است. هوش مصنوعی مولد، حوزه‌های گوناگونی را از جمله مراقبت‌های بهداشتی، بانکداری، تدارکات، بیمه، خدمات مشتریان و تجارت الکترونیک تحت تاثیر قرار داده است. به سختی می‌توان صنعتی را یافت که به ‌دلیل استفاده کردن از هوش مصنوعی مولد، ناگهان در معرض اختلالات برق‌آسا قرار نگیرد. آسیب‌پذیری و سرعت اختلال هرگز بیشتر از این نبوده است. هوش مصنوعی امسال باید در اولویت هیئت مدیره شرکت‌ها باشد.

ادامه مطلب


2 هفته قبل - 444 بازدید

یک مطالعه جدید از پژوهشگران دانشگاه «استنفورد» نشان می‌دهد که هوش مصنوعی می‌تواند با دقت ۹۰ درصدی تشخیص دهد که مخاطبش یک مرد یا یک زن است. سایت علمی آی‌ای در مطلبی نوشته است که «مردان مریخی هستند و زنان ونوسی» آیا قبلاً این عبارت را شنیده‌اید؟ در حالی که در قرن بیست و یکم، این بیشتر به عنوان یک استعاره در نظر گرفته می‌شود، دانشمندان دانشگاه «استنفورد» دریافته‌اند که بر اساس مطالعه جدیدی که در مجموعه مقالات آکادمی ملی علوم منتشر شده است، ممکن است مبنایی وجود داشته باشد که چرا و چگونه یک جنسیت مشخص، کاری را انجام می‌دهد. آن‌ها مدل جدیدی از هوش مصنوعی ایجاد کرده‌اند که می‌تواند به دقت پیش‌بینی کند که آیا یک اسکن مغزی متعلق به یک مرد یا یک زن است و در بیش از ۹۰ درصد مواقع درست تشخیص می‌دهد. آی‌ای نوشته است که دانشمندان مدت‌هاست درباره تأثیر جنسیت افراد بر سازمان و عملکرد مغز بحث کرده‌اند. با وجود دانستن اینکه کروموزوم‌های جنسی بر قرار گرفتن در معرض هورمون‌ها تأثیر می‌گذارند، ارتباط جنسیت با تفاوت‌های مغزی مشخص همواره چالش‌برانگیز بوده است. دکتر وینود منون استاد روانپزشکی و علوم رفتاری و مدیر آزمایشگاه علوم اعصاب شناختی و سیستمی استنفورد در یک بیانیه مطبوعاتی گفت که انگیزه اصلی این مطالعه این است که جنسیت در رشد مغز انسان، در پیری و همچنین بروز اختلالات روانپزشکی و عصبی نقش مهمی دارد. تحقیقات قبلی نشان داده‌اند که ساختار یا عملکرد مغز بین مردان و زنان تطابق کمی دارد. اما منون و تیمش از هوش مصنوعی پیشرفته و مجموعه داده‌های بزرگ برای تجزیه و تحلیل اسکن مغز استفاده کردند. مدل آن‌ها از روش‌های قبلی بهتر عمل کرد و به طور قابل اعتمادی بین مغز مرد و زن تمایز قائل شد. این موفقیت نشان می‌دهد که تفاوت‌های جنسیتی قابل تشخیص در مغز وجود دارد که قبلا نادیده گرفته می‌شدند. عملکرد قابل قبول این مدل در مجموعه داده‌های متنوع، اعتبار یافته‌های این مطالعه را افزایش می‌دهد. پیچیدگی‌های آزمایش‌ها درون مغز انسان، نواحی خاصی درخشان‌تر می‌درخشند تا نشان دهند که متعلق به یک مرد است یا یک زن. پژوهشگران این نقاط درخشان خاص را شناسایی کردند که برای هوش مصنوعی به منظور شناسایی این موارد مفید بود. اولین مورد، شبکه حالت پیش‌فرض است که به ما کمک می‌کند در مورد خودمان فکر کنیم و مناطق دیگری مانند شبکه مخطط و لیمبیک مغز که برای یادگیری و نحوه واکنش ما به پاداش‌ها مهم هستند. منون می‌گوید: شناسایی تفاوت‌های جنسیتی ثابت و قابل تکرار در مغز بالغ سالم گامی حیاتی به سوی درک عمیق‌تر آسیب‌پذیری‌های جنسیتی در اختلالات روانپزشکی و عصبی است. این مدل هوش مصنوعی جدید می‌تواند اسکن‌های MRI متحرک را نیز تجزیه و تحلیل کند. پژوهشگران آن را روی حدود ۱۵۰۰ اسکن مغزی آزمایش و مشاهده کردند که می‌تواند تشخیص دهد که یک اسکن متعلق به یک مرد یا یک زن است. منون می‌گوید: این یک مدرک بسیار محکم است که نشان می‌دهد جنسیت یک عامل تعیین‌کننده مهم در سازمان مغز انسان است. وی افزود: مدل‌های هوش مصنوعی ما کاربرد بسیار گسترده‌ای دارند. به عنوان مثال، یک پژوهشگر می‌تواند از مدل‌های ما برای جستجوی تفاوت‌های مغزی مرتبط با اختلالات یادگیری یا تفاوت‌های عملکرد اجتماعی استفاده کند که جنبه‌هایی هستند که ما علاقه‌مند به درک بهتر آنها برای کمک به افراد در سازگاری و غلبه بر این چالش‌ها هستیم. سپس پژوهشگران به این فکر کردند که آیا می‌توانند از مدل دیگری برای پیش‌بینی اینکه افراد بر اساس ویژگی‌های مغزی که بین مردان و زنان متفاوت است، در برخی از وظایف چقدر خوب عمل می‌کنند، استفاده کنند؟ آن‌ها مدل‌های جداگانه‌ای برای مردان و زنان ساختند و هر کدام عملکرد شناختی را برای جنسیت خود بهتر پیش‌بینی کردند. این نشان می‌دهد که تفاوت در نحوه عملکرد مغز بین مردان و زنان می‌تواند بر رفتار آنها تأثیر بگذارد. در حالی که پژوهشگران از مدل خود برای بررسی تفاوت‌های جنسیتی استفاده کردند، منون می‌گوید که می‌توان از آن برای مطالعه اینکه ارتباطات مغزی چگونه با هر توانایی یا رفتار شناختی مرتبط است نیز استفاده کرد. اکنون آنها قصد دارند مدل خود را با سایر پژوهشگران به اشتراک بگذارند. یافته‌های این مطالعه در مجله Proceedings of the National Academy of Sciences منتشر شده است.

ادامه مطلب


1 ماه قبل - 503 بازدید

سایت علمی زی‌بیزینس در گزارشی اعلام کرده است که یک دستگاه مبتنی بر هوش مصنوعی که در «دانشگاه لستر» ابداع شده است، در آزمایش‌ها توانست ضربان قلب نشان‌دهنده آریتمی بطنی را با موفقیت تشخیص دهد. پژوهشگران دانشگاه لستر به بررسی این موضوع پرداخته‌اند که آیا هوش مصنوعی می‌تواند خطر ضربان قلب کشنده را پیش‌بینی کند یا خیر. در آزمایش دانشگاه لستر، یک دستگاه مبتنی بر هوش مصنوعی در ۸۰ درصد موارد به درستی ضربان قلب کشنده را شناسایی کرده، ابداع کرده است. آریتمی بطنی، یک اختلال در ضربان قلب است که از حفره‌های پایینی (بطن‌ها) نشات می‌گیرد. در این شرایط، قلب آن قدر سریع می‌تپد که فشار خون کاهش می‌یابد و در صورت عدم درمان فوری می‌تواند به سرعت به از دست دادن هوشیاری و مرگ ناگهانی منجر شود. این دستگاه مبتنی بر هوش مصنوعی، نتایج الکتروکاردیوگرام هولتر چندین بزرگسال را بررسی کرد که در طول زندگی عادی روزانه آنها در خانه گرفته شده بود. شرکت‌کنندگان، افراد بالغ بودند که بین سال‌های ۲۰۱۴ تا ۲۰۲۲، روش الکتروکاردیوگرام هولتر را به عنوان بخشی از مراقبت‌های درمانی دریافت کردند. نتایج برای این بیماران مشخص بود و ۱۵۹ نفر به ‌طور میانگین ۱.۶ سال پس از آزمایش، آریتمی‌های کشنده بطنی را تجربه کردند. این دستگاه هوش مصنوعی موسوم به «VA-ResNet-50» برای بررسی ضربان قلب بیماران استفاده شد تا بررسی کند که آیا قلب آنها ضربان‌های کشنده را نشان می دهد یا خیر. پروفسور آندره نگ از پژوهشگران این پروژه گفت: دستورالعمل‌های بالینی کنونی که به ما کمک می‌کنند تا تصمیم بگیریم کدام بیماران بیشتر در معرض خطر ابتلا به آریتمی بطنی هستند و چه کسانی از درمان نجات‌بخش با «دفیبریلاتور کاردیوورتر قابل کاشت»(ICD) بیشتر سود می‌برند، دقت کافی ندارند. آنها ممکن است به بروز یک اختلال قابل توجه منجر ‌شوند و تعداد مرگ و میر ناشی از این وضعیت را افزایش دهند. نگ ادامه داد: ما متوجه شدیم که این دستگاه هوش مصنوعی در مقایسه با دستورالعمل‌های پزشکی کنونی، عملکرد خوبی دارد و به درستی پیش‌بینی می‌کند که قلب کدام بیمار در چهار مورد از هر پنج مورد به آریتمی بطنی دچار می‌شود. وی افزود: وقتی دستگاه می‌گفت که یک شخص در معرض خطر است، خطر رویداد کشنده سه برابر بیشتر از بزرگسالان عادی بود. یافته‌های این پژوهش نشان می‌دهند که استفاده کردن از هوش مصنوعی برای مشاهده نوار قلب بیماران کمک می‌کند تا خطر ابتلا به آریتمی بطنی را تعیین کنیم، درمان مناسب را پیشنهاد دهیم و در نهایت جان افراد را نجات دهیم. این پژوهش در مجله «European Heart Journal» به چاپ رسید.

ادامه مطلب


2 ماه قبل - 350 بازدید

سایت علمی اس‌دی در گزارشی نوشته است که پژوهشگران هشدار می‌دهند که سیستم‌های هوش مصنوعی تا اکنون یاد گرفته‌اند که چگونه انسان‌ها را فریب دهند. محققان در مورد پتانسیل سیستم‌های هوش مصنوعی برای درگیر شدن در رفتارهای فریبنده هشدار می‌دهند و می‌گویند هوش مصنوعی می‌تواند پیامدهای اجتماعی جدی داشته باشد. آن‌ها بر نیاز به اقدامات نظارتی قوی برای مدیریت موثر این خطرات تاکید می‌کنند. بسیاری از سیستم‌های هوش مصنوعی حتی آن‌هایی که برای مفید بودن و راستگویی طراحی شده‌اند، یاد گرفته‌اند که چگونه انسان‌ها را فریب دهند. پژوهشگران در مقاله‌ای که به تازگی در مجله Patterns منتشر شده است، خطرات فریب هوش مصنوعی را برجسته می‌کنند و از دولت‌ها می‌خواهند که به سرعت مقرراتی قوی برای کاهش این خطرات وضع کنند. پیتر اس پارک فوق دکترای ایمنی وجودی هوش مصنوعی در موسسه فناوری ماساچوست(MIT) و نویسنده ارشد این مطالعه می‌گوید: توسعه دهندگان هوش مصنوعی درک مطمئنی از آنچه باعث رفتارهای نامطلوب هوش مصنوعی مانند فریب دادن می‌شود، ندارند. اما به طور کلی ما فکر می‌کنیم که فریب هوش مصنوعی به این دلیل به وجود می‌آید که یک استراتژی مبتنی بر فریب بهترین راه برای عملکرد خوب در وظیفه آموزشی هوش مصنوعی است. این فریب به آنها کمک می‌کند تا به اهداف خود برسند. پارک و همکارانش مقالاتی را تجزیه و تحلیل کردند که بر روش‌هایی متمرکز بود که سیستم‌های هوش مصنوعی اطلاعات نادرست را از طریق فریب‌های آموخته‌شده که در آن به طور سیستماتیک یاد می‌گیرند اطلاعات را دستکاری کنند و افراد را فریب دهند، منتشر می‌کنند. نمونه‌هایی از فریب هوش مصنوعی بارزترین نمونه فریب هوش مصنوعی که محققان در تجزیه و تحلیل خود کشف کردند، متعلق به سیستم CICERO شرکت متا(فیسبوک سابق) بود که یک سیستم هوش مصنوعی طراحی شده برای بازی استراتژیک فتح جهان است. اگرچه متا ادعا می‌کند که CICERO را به گونه‌ای آموزش داده است که تا حد زیادی صادق و مفید باشد و هیچ گاه عمداً به متحدان انسانی خود در حین بازی از پشت خنجر نزند، داده‌هایی که این شرکت به همراه مقاله علمی خود منتشر کرد، نشان داد که CICERO منصفانه بازی نمی‌کند. پارک می‌گوید: ما متوجه شدیم که هوش مصنوعی متا یاد گرفته است که در فریبکاری استاد باشد. در حالی که متا موفق شد هوش مصنوعی خود را برای برنده شدن در این بازی آموزش دهد، اما CICERO در بین ۱۰ درصد از بازیکنان انسانی برتر قرار گرفت که بیش از یک بازی انجام داده بودند. ضمنا متا نتوانسته هوش مصنوعی خود را برای برنده شدن صادقانه آموزش دهد. سایر سیستم‌های هوش مصنوعی توانایی بلوف زدن در بازی پوکر علیه بازیکنان انسانی حرفه‌ای، حملات جعلی در طول بازی استراتژیک Starcraft II به منظور شکست دادن حریفان و ارائه پیشنهادات نادرست در مذاکرات اقتصادی را نشان داده‌اند. خطرات هوش مصنوعی فریبنده پارک افزود: اگرچه ممکن است تقلب سیستم‌های هوش مصنوعی در بازی‌ها بی‌ضرر به نظر برسد، اما می‌تواند منجر به پیشرفت در قابلیت‌های هوش مصنوعی فریبنده شود که می‌تواند در آینده به اشکال پیشرفته‌تر فریب هوش مصنوعی تبدیل شود. محققان دریافتند برخی از سیستم‌های هوش مصنوعی حتی یاد گرفته‌اند که در آزمایش‌هایی که برای ارزیابی ایمنی آنها طراحی شده‌اند، تقلب کنند. پارک می‌گوید: یک هوش مصنوعی فریبنده با ارتکاب تقلب سیستماتیک در آزمایش‌های ایمنی توسعه‌دهندگان و تنظیم‌کننده‌های انسانی می‌تواند ما انسان‌ها را به سمت یک احساس امنیت کاذب سوق دهد. پارک هشدار می‌دهد که خطرات کوتاه‌مدت هوش مصنوعی فریبنده شامل آسان‌تر کردن تقلب و دستکاری در مسائلی نظیر انتخابات است. به گفته وی در نهایت اگر این سیستم‌ها بتوانند این مجموعه مهارت‌های ناراحت‌کننده را توسعه دهند و بهبود ببخشند، ممکن است روزی انسان‌ها کنترل خود را روی هوش مصنوعی از دست بدهند. پارک می‌گوید: ما به عنوان یک جامعه به زمان بیشتری نیاز داریم تا برای فریب پیشرفته‌تر محصولات آینده هوش مصنوعی و مدل‌های منبع باز آماده شویم. با پیشرفته‌تر شدن قابلیت‌های فریبنده سیستم‌های هوش مصنوعی، خطراتی که برای جامعه ایجاد می‌کنند، جدی‌تر می‌شوند. در حالی که پارک و همکارانش فکر می‌کنند جامعه علمی هنوز اقدام مناسبی برای رسیدگی به فریب هوش مصنوعی انجام نداده است، آنها سیاست‌گذاران را تشویق می‌کنند که اقداماتی مانند قانون هوش مصنوعی اتحادیه اروپا و فرمان اجرایی هوش مصنوعی جو بایدن رئیس جمهور آمریکا را جدی بگیرند. پارک می‌گوید البته باید دید که آیا سیاست‌های طراحی‌شده برای کاهش فریب هوش مصنوعی با توجه به اینکه توسعه‌دهندگان هوش مصنوعی هنوز تکنیک‌هایی برای کنترل این سیستم‌ها ندارند، می‌توانند به درستی اجرا شوند؟ وی افزود: اگر ممنوعیت فریبکاری هوش مصنوعی در حال حاضر از نظر سیاسی غیرممکن است، توصیه می‌کنیم که سیستم‌های هوش مصنوعی فریبنده با برچسب پرخطر طبقه‌بندی شوند.

ادامه مطلب


2 ماه قبل - 207 بازدید

محققان رشته جانورشناسی از «هوش مصنوعی» برای تسریع روند تحقیقات خود در زمینه‌ ارتباطات حیوانی استفاده می‌کنند. دانشمندان با رمزگشایی از سامانه‌های پیچیده‌ ارتباطی حیوانات، به درک این که موجودات چه می‌گویند و شاید حتی چگونه پاسخ دهند، نزدیک‌تر می‌شوند. در حالی که دانشمندان تلاش می‌کنند شکاف زبانی بین انسان‌ها و حیوانات را پُر کنند، برخی از کارشناسان نگرانی‌های موجهی را در مورد این که آیا چنین توانایی‌هایی مناسب هستند یا حتی آیا باید اصلاً سعی کنیم با حیوانات ارتباط برقرار کنیم را مطرح می‌کنند. در خط مقدم این تلاش‌ها، پروژه «CETI» که از فناوری یادگیری ماشین برای تجزیه و تحلیل بیش از 8000 «کُدا»(coda) از نهنگ‌های عنبر استفاده کرده است، قرار دارد. نهنگ‌های عنبر پستانداران بسیار اجتماعی هستند که با استفاده از دنباله‌ای از صداها(کلیک‌ها) به نام «کدا» با یکدیگر ارتباط برقرار می‌کنند. دانشمندان ساختارهای زمینه‌ای و ترکیبی را در صداهای این نهنگ‌ها کشف کردند. این الگوها به تیم کمک کرد تا نوعی الفبای آوایی برای این حیوانات ایجاد کند. این الفبا یک سامانه رسا و ساختاریافته نیست، اما سطحی از پیچیدگی را نشان می‌دهد که محققان قبلاً از آن آگاه نبودند. پروژه «CETI» همچنین در حال کار بر روی دستورالعمل‌های اخلاقی برای این فناوری است. یکی از این دستورالعمل‌ها، خطرات استفاده از «هوش مصنوعی» برای صحبت کردن با حیوانات است. گوگل و پروژه «دلفین‌های وحشی» به تازگی مدل زبانی «DolphinGemma» را معرفی کرده‌اند. این «مدل زبانی بزرگ»(LLM) روی 40 سال صداهای ضبط شده دلفین‌ها آموزش داده شده است که داده‌های صوتی دلفین را دریافت می‌کند و پیش‌بینی می‌کند که چه صدایی در مرحله‌ بعد درخواهد آورد. این «هوش مصنوعی» حتی می‌تواند صدایی شبیه به دلفین تولید کند. محققان از این «هوش مصنوعی» در نمونه‌ اولیه‌ سامانه دوطرفه‌ای موسوم به «CHAT» در یک تلفن هوشمند استفاده کردند که منجر به ترجمه مکالمات دلفین‌ها شد. این امر موجب پایه‌گذاری گفتگوی بین گونه‌ها در آینده خواهد بود. «دنیس هرزینگ»(Denise Herzing) بنیان‌گذار و سرپرست پروژه «دلفین‌های وحشی» و توسعه دهنده «DolphinGemma» گفت: «DolphinGemma» برای بهبود تشخیص صدای بی‌درنگ در سامانه «CHAT» استفاده می‌شود. در پاییز امسال، ما زمان خود را صرف جذب صداهای شناخته شده دلفین خواهیم کرد و اجازه می‌دهیم «Gemma» الگوهای تکرارپذیری را که پیدا می‌کند، به ما نشان دهد. وی افزود: به این ترتیب، کاربردهای «هوش مصنوعی» دوگانه است. محققان می‌توانند از آن، هم برای بررسی صداهای طبیعی دلفین‌ها و هم برای درک بهتر پاسخ‌های حیوانات به تقلید انسانی استفاده کنند. گسترش جعبه ابزار هوش مصنوعی حیوانات پژوهشگران در خارج از اقیانوس دریافتند که مدل‌های گفتار انسانی را می‌توان برای رمزگشایی از سیگنال‌های حیوانات مستقر در خشکی نیز تغییر کاربری داد. یک تیم به سرپرستی محققان «دانشگاه میشیگان»(Michigan) از یک مدل تشخیص گفتار آموزش داده شده بر روی صداهای انسانی برای شناسایی احساسات، جنسیت، نژاد و حتی هویت فردی سگ‌ها بر اساس پارس‌هایشان استفاده کرد. مدل انسانی از پیش آموزش‌دیده، عملکرد بهتری نسبت به نسخه‌ای که فقط بر روی داده‌های سگ آموزش داده شده بود، داشت. این موضوع نشان می‌دهد معماری مدل زبان انسانی می‌تواند به طور شگفت‌انگیزی در رمزگشایی از ارتباطات حیوانی مؤثر باشد. دانشمندان باید سطوح مختلف پیچیدگی را که این مدل‌های «هوش مصنوعی» هدف قرار می‌دهند، در نظر بگیرند. این پیچیدگی‌ها می‌تواند شامل تعیین اینکه آیا پارس سگ پرخاشگرانه است یا بازیگوشانه، یا اینکه نر است یا ماده شود. انجام هر مطالعه، دانشمندان را یک گام به درک این که چگونه ابزارهای «هوش مصنوعی» می‌توانند به بهترین شکل در چنین زمینه‌ گسترده‌ای به کار گرفته شوند، نزدیک‌تر می‌کند. این مطالعه به «هوش مصنوعی» این فرصت را می‌دهد تا خود را برای تبدیل شدن به بخشی مفیدتر از جعبه ابزار محققان آموزش دهد. زبان حیوانات در آستانه ترجمه پژوهش‌های جدید نشان می‌دهد که حیوانات در برقراری ارتباط، پیچیده‌تر از آن چیزی هستند که تصور می‌کنیم. مطالعه‌ای در سال ۲۰۲۲ در «دانشگاه نانتر»(Nanterre ) پاریس نشان داد که گربه‌ها نشانه‌های واضحی از تشخیص صدای صاحب خود دارند و به لحن زبان گربه‌ای پاسخ می‌دهند. این یعنی گربه‌ها نه تنها به حرف‌های ما توجه می‌کنند، بلکه به لحن ما نیز اهمیت می‌دهند، به خصوص اگر این لحن از طرف کسی باشد که می‌شناسند. محققان همچنین دریافتند که نوعی ماهی مرکب مجموعه‌ای از چهار ژست فیزیکی دارد که برای ارتباط با یکدیگر و پاسخ به پخش امواج مصنوعی توسط انسان‌ها استفاده می‌کند. این گروه قصد دارد از یک الگوریتم برای دسته‌بندی انواع این امواج، ردیابی خودکار حرکات این موجودات و درک سریع‌تر شرایطی که حیوانات در آن احساسات خود را بروز می‌دهند، استفاده کند. مترجم جهانی برای حیوانات  این مطالعات، نشان‌دهنده تغییر اساسی در رویکرد دانشمندان به ارتباطات حیوانی است. تیم‌های تحقیقاتی ابزارها و مدل‌هایی را طراحی می‌کنند که برای انسان‌ها آشنا هستند و پیشرفت‌هایی را حاصل می‌کنند. هدف نهایی می‌تواند نوعی مترجم دنیای حیوانات باشد که با «هوش مصنوعی» کار می‌کند. «سارا کین»(Sara Keen) متخصص بوم‌شناسی رفتاری و مهندس برق در پروژه «گونه‌های زمینی»(Earth Species) می‌گوید: ما در پنج سال گذشته در تجزیه و تحلیل زبان انسانی واقعاً خوب عمل کرده‌ایم و در حال تکمیل این روش هستیم که داده‌های جدید را به مدل‌های آموزش‌دیده منتقل و اعمال کنیم. پروژه گونه‌های زمینی قصد دارد مدل صوتی-زبانی اصلی خود را برای صداهای حیوانات در سال جاری عرضه کند. این مدل با دریافت داده‌هایی از صداهای محیطی و حتی تشخیص موسیقی، قصد دارد به مبدلی برای گفتار انسان به آنالوگ‌های حیوانی تبدیل شود. این پروژه اعلام می‌کند که این مدل، از فرضیه دانشمندان مبنی بر اینکه بازنمایی‌های مشترک در «هوش مصنوعی» می‌تواند به رمزگشایی زبان‌های حیوانی کمک کند، پشتیبانی می‌کند. «کین» افزود: بخش بزرگی از کار ما تلاش برای تغییر طرز تفکر مردم در مورد جایگاه خود در جهان است. ما در حال کشف حقایق جالبی در مورد ارتباطات حیوانی هستیم، اما در نهایت متوجه می‌شویم که گونه‌های دیگر نیز به اندازه ما پیچیده و ظریف هستن و این کشف بسیار هیجان‌انگیز است. معضل اخلاقی پژوهشگران عموماً در مورد وعده‌های ابزارهای مبتنی بر «هوش مصنوعی» برای بهبود جمع‌آوری و تفسیر داده‌های ارتباطات حیوانی توافق دارند، اما برخی احساس می‌کنند که در درک عمومی از نحوه کاربرد این ابزارها، نوعی شکاف میان این آشنایی علمی و درک عمومی وجود دارد. «کریستین روتز»(Christian Rutz) کارشناس رفتار و شناخت حیوانات و سرپرست انجمن بین‌المللی «بیو-لاگینگ»(Bio-Logging) می‌گوید: به نظر من، در حال حاضر سوءتفاهم زیادی در این موضوع وجود دارد. یکی اینکه به نوعی یادگیری ماشینی می‌تواند این دانش زمینه‌ای را از هیچ خلق کند و اینکه هزاران صدای ضبط شده داشته باشید و یک ماشین یادگیری به طور جادویی می‌تواند معنا را از آن استخراج کند. این اتفاق نخواهد افتاد. وی می‌افزاید: معنا از طریق حاشیه‌نویسی زمینه‌ای به دست می‌آید و به همین دلیل است که فکر می‌کنم در این دوره هیجان و اشتیاق، فراموش نکردن این نکته بسیار مهم است که این حاشیه‌نویسی از تخصص بوم‌شناسی رفتاری و تاریخ طبیعی پایه به دست می‌آید. کارشناسان استانداردهای اخلاقی و محافظ‌هایی را برای استفاده از این فناوری‌ها ارائه کرده‌اند که رفاه حیوانات را در اولویت قرار می‌دهد. با پیشرفت «هوش مصنوعی»، گفتگوها درباره حقوق حیوانات نیز باید متحول شود. در آینده، حیوانات می‌توانند به بازیگران فعال‌تری در این مباحث تبدیل شوند. این ایده‌ای است که کارشناسان حقوقی در حال حاضر به عنوان یک تمرین فکری بررسی می‌کنند، اما روزی می‌تواند به واقعیت بپیوندد. «روتز» می‌گوید: آنچه ما به شدت به آن نیاز داریم، ایجاد همکاری‌های معنادار بین متخصصان یادگیری «هوش مصنوعی» و محققان رفتار حیوانات است، زیرا تنها با همکاری این دو گروه است که شانسی برای موفقیت وجود دارد. صداهای زیر و بم  مختلفی برای ترجمه توسط مدل‌های «هوش مصنوعی» وجود دارد، اما چگونگی استفاده از اطلاعات به دست آمده از این رویکردهای جدید، نیازمند بررسی دقیق ملاحظات اخلاقی صحبت با حیوانات است. یک مقاله جدید شش حوزه اصلی مشکل‌ساز در ارتباط با «هوش مصنوعی» با حیوانات را برشمرد. این موارد شامل حقوق حریم خصوصی، آسیب‌های فرهنگی و عاطفی به حیوانات، انسان‌انگاری، اتکای بیش از حد به فناوری برای حل مشکلات، تعصب جنسیتی و اثربخشی محدود در حفاظت واقعی از حیوانات است. به نظر می‌رسد که ما در آستانه یادگیری بیشتر در مورد نحوه تعامل حیوانات با یکدیگر هستیم. پرده‌برداری از نحوه ارتباطات آنها می‌تواند بینشی در مورد نحوه یادگیری، اجتماعی شدن و عملکرد آنها در محیط‌شان نیز ارائه دهد، اما هنوز چالش‌های مهمی برای غلبه از جمله اینکه از خود بپرسیم چگونه از فناوری‌های قدرتمندی که در حال توسعه هستند، استفاده کنیم، وجود دارد.

ادامه مطلب


2 ماه قبل - 242 بازدید

با افزایش نگرانی‌ها در مورد تأثیر هوش مصنوعی بر اشتغال، ابزارهای جدید از این فناوری برای هدایت کارگران به سمت فرصت‌های شغلی جدید استفاده می‌کنند. گاهی اوقات، باید در حرفه خود تغییراتی ایجاد کنید. شاید شغلی که دارید دیگر به اندازه قبل رضایت‌بخش نباشد. شاید تغییر شرایط، شما را به سمت مسیر جدیدی سوق دهد. در هر صورت، فهمیدن اینکه قدم بعدی چیست می‌تواند یک چالش باشد. به نقل از اف‌سی، هوش مصنوعی به طور فزاینده‌ای به افراد کمک می‌کند تا مراحل بعدی مسیر حرفه‌ای خود را بررسی کنند. چت‌بات‌هایی مانند چت جی‌پی‌تی می‌توانند راهنمایی‌هایی ارائه دهند، به شرطی که بدانید چگونه سؤالات خود را بیان کنید. اما چندین شرکت ابزارهای تخصصی‌ای را توسعه داده‌اند که به طور خاص بر این موضوع تمرکز دارند. گوگل با کریر دریمر (Career Dreamer) خود در این زمینه پیشرو است. این ابزار که به عنوان روشی سرگرم‌کننده برای کشف فرصت‌های شغلی با هوش مصنوعی توصیف می‌شود، ابزاری است که هر کسی می‌تواند از آن استفاده کند. برای شروع کار با Career Dreamer، شما هویت شغلی را اعلام خواهید کرد که مهارت‌ها و تجربیات شما را مشخص می‌کند. پس از به اشتراک گذاشتن شغل فعلی‌تان، هوش مصنوعی سؤالات تکمیلی در مورد جایگاه شغلی مربوطه می‌پرسد. همچنین می‌توانید جزئیاتی در مورد پیشینه تحصیلی خود و هرگونه شغل، صنعت یا زمینه‌ای که به آن علاقه دارید، اضافه کنید. Career Dreamer سپس بر اساس اطلاعات ورودی شما، مسیرهای شغلی بالقوه را پیشنهاد می‌دهد. با نگه داشتن ماوس روی هر فیلد پیشنهادی، اطلاعاتی در مورد نوع مدرک مورد نیاز، تجربه‌ای که به آن نیاز دارید، شرح شغل و میانگین حقوق ارائه می‌شود. اگر موردی پیدا کنید که جذاب به نظر می‌رسد، می‌توانید روی آن کلیک کنید تا به لیستی از فرصت‌های شغلی محلی برسید یا برای ایجاد رزومه یا نامه درخواست، به ابزار هوش مصنوعی جمینای (Gemini) بروید. در همین حال، لینکدین، Next Role Explorer را به کاربران ارائه می‌دهد. این ابزار فرصت‌های بالقوه را در شرکت‌ها نشان می‌دهد، مهارت‌هایی را که کارمندان باید توسعه دهند پیشنهاد می‌دهد و نشان می‌دهد که در هر جایگاه شغلی چند جای خالی وجود دارد. همچنین درصد افرادی را که با موفقیت از جایگاه شغلی فعلی کارمند به جایگاه شغلی جدید منتقل شده‌اند، نشان می‌دهد. هوش مصنوعی، برای آن سرویس، به عنوان یک مربی شغلی عمل می‌کند و دوره‌ها و مسیرهای شغلی پیشنهادی را ارائه می‌دهد. همچنین به کارمندان کمک می‌کند تا در مسیر کسب مهارت‌های مورد نیاز برای یک جایگاه شغلی جدید، در مسیر درست باقی بمانند. با توجه به نگرانی‌های مداوم مبنی بر اینکه هوش مصنوعی مشاغل افراد را خواهد گرفت، موقعیت‌های شغلی آزاد در حال حاضر شاهد کاهش ۲۱ درصدی تقاضا بوده‌اند و این تا حدودی اطمینان‌بخش است که شاهد این باشیم که می‌توان از هوش مصنوعی برای کمک به افراد در یافتن شغل نیز استفاده کرد.

ادامه مطلب


3 ماه قبل - 115 بازدید

مطالعه‌ای جدید نشان می‌دهد که «هوش مصنوعی» می‌تواند به اندازه انسان‌ها بیش از حد مطمئن و جانبدارانه تصمیم بگیرد و تعصب و سوگیری داشته باشد. گرایش‌های غیرمنطقی معمولاً در سامانه‌های «هوش مصنوعی» ظاهر می‌شوند و مفید بودن آنها را زیر سوال می‌برند. اگرچه انسان‌ و «هوش مصنوعی» بسیار متفاوت فکر می‌کنند، تحقیقات جدید نشان داده است که «هوش مصنوعی» گاهی اوقات به اندازه انسان غیر منطقی تصمیم می‌گیرد. ال‌اس گزارش داده است که در نیمی از سناریوهای بررسی شده در یک مطالعه جدید، «چت‌جی‌پی‌تی»(ChatGPT) بسیاری از رایج‌ترین «سوگیری‌های»(biases) تصمیم‌گیری انسانی را از خود نشان داد. این نتایج، اولین یافته‌های مرتبط با رفتار «سوگیری شناختی»(cognitive biases) شناخته شده در روانشناسی انسان در «چت‌جی‌پی‌تی» است. نویسندگان این مقاله، از پنج موسسه دانشگاهی در سراسر کانادا و استرالیا، روی دو «مدل زبان بزرگ»(LLM) که «چت‌جی‌پی‌تی» را پشتیبانی می‌کنند، آزمایش کردند. آنها کشف کردند که «هوش مصنوعی» برخلاف سازگاری زیاد در استدلال خود در برابر نقص‌های انسانی مصون نیست. به گفته محققان، اینچنین سازگاری، هم اثرات مثبت و هم اثرات منفی دارد. «یانگ چن»(Yang Chen) نویسنده ارشد این مطالعه و استادیار مدیریت عملیات در «دانشکده بازرگانی ایوی»(Ivey) گفت: مدیران در استفاده از این ابزارها برای حل مشکلاتی با راه‌حل واضح و فرمولی مشخص، بیشترین منفعت را خواهند داشت، اما اگر کاربران از آنها برای تصمیمات ذهنی یا ترجیحی استفاده می‌کنند، بهتر است با احتیاط عمل کنند. این مطالعه «سوگیری‌های انسانی» شناخته شده از جمله «خطرگریزی»(risk aversion)، داشتن اعتماد به نفس بیش از حد و «اثر برخورداری»(endowment effect) را درنظر گرفت و آنها را در دستورالعمل‌های داده شده به «چت‌جی‌پی‌تی» اعمال کرد تا ببیند آیا در همان تله‌هایی که انسان‌ها گرفتار می‌شوند، قرار می‌گیرد یا خیر. «خطرگریزی» به معنای ترجیح پذیرش خطر کم‌تر و جلوگیری از خطر غیر ضروری است. «اثر برخورداری» نیز نوعی سوگیری عاطفی است که باعث می‌شود افراد چیزی را که دارند بسیار با ارزش‌تر از ارزش واقعی آن تصور کنند. تصمیم‌گیری‌های منطقی تنها در برخی موارد دانشمندان از «مدل‌های زبان بزرگ» سوالات فرضی برگرفته از روانشناسی سنتی و در زمینه تجارت در دنیای واقعی مانند مدیریت موجودی یا مذاکرات تأمین‌کنندگان پرسیدند. هدف آنها این بود متوجه شوند که آیا «هوش مصنوعی» «سوگیری‌های انسانی» را تقلید می‌کند یا خیر. آنها همچنین قصد داشتند که متوجه شوند آیا این مدل‌ها هنگام پرسیدن سوالات از حوزه‌های مختلف تجاری هم این کار را انجام می‌دهند یا خیر. یکی از «مدل‌های زبانی بزرگ» موسوم به «GPT-۴» در پاسخ به مسائلی با راه‌حل‌های ریاضی واضح، عملکرد بهتری نسبت به مدل دیگر با نام «GPT-۳.۵» داشت و اشتباهات کمتری در سناریوهای احتمال و منطق‌محور نشان داد، اما در شبیه‌سازی‌های ذهنی مانند انتخاب یک گزینه پرخطر برای دستیابی به سود، این چت‌بات اغلب ترجیحات غیرمنطقی را که انسان‌ها تمایل به نشان دادن آن دارند، انتخاب می‌کرد. محققان گفتند: «GPT-۴» حتی از انسان‌ها نیز تمایل قوی‌تری برای قطعیت نشان می‌دهد. این موضوع تمایل «هوش مصنوعی» به نتایج ایمن‌تر و قابل پیش‌بینی‌تر هنگام انجام وظایف مبهم اشاره دارد. مهمتر از همه، رفتارهای چت‌بات‌ها در واکنش به سوالات در مسائل روانشناختی انتزاعی و فرآیندهای تجاری عملیاتی، عمدتاً پایدار باقی ماند. این مطالعه نتیجه گرفت که «سوگیری‌های» نشان داده شده تنها محصول مثال‌های حفظ شده نیستند و  بخشی از نحوه استدلال «هوش مصنوعی» هستند. یکی از نتایج شگفت‌انگیز این مطالعه، تقویت خطاهای انسانی توسط «GPT-۴» است. دانشمندان گفتند: در «سوگیری تأییدی»(confirmation bias)، مدل «GPT-۴» همیشه پاسخ‌های سوگیرانه می‌داد. همچنین این مدل تمایل بیشتری به «مغالطه‌ دست داغ»(hot-hand) نسبت به «GPT ۳.۵» نشان داد. «مغالطه‌ دست داغ» یکی از «سوگیری‌های شناختی» است که به این باور غیرمنطقی اشاره دارد که وقتی ما در یک بازی وابسته به شانس، چند دست پشت سر هم می‌بریم یا می‌بازیم، به اصطلاح داغ یا سرد می‌شویم و تصور می‌کنیم که این برد یا باخت پیاپی قرار است همچنان ادامه پیدا کند. در حالی که همچنان بر اساس علم احتمالات، هیچ چیزی تغییر نکرده و شانس برد ما درست مانند دفعات قبل است. بر خلاف مدل‌ها، «چت‌جی‌پی‌تی» موفق شد از برخی از «سوگیری‌های» رایج انسانی از جمله «غفلت از نرخ پایه»(base-rate neglect) و «مغالطه‌ هزینه غرق‌شده»(Sunk Cost Fallacy) اجتناب کند. «غفلت از نرخ پایه» به معنای اعتماد و پذیرش موارد خاص و نادیده گرفتن آمار و اطلاعات موجود در هنگام استدلال کردن است. «مغالطه هزینه غرق‌شده» نیز زمانی رخ می‌دهد که شخص فقط به این دلیل به تصمیم خود پایبند است که پول قبلا خرج شده است و نمی‌خواهد احساس کند که آن را هدر داده است. به گفته پژوهشگران، «سوگیری‌های» شبه‌انسانی در «چت‌جی‌پی‌تی» از داده‌های آموزشی ناشی می‌شود که شامل «سوگیری‌های شناختی» و اکتشافی است که انسان‌ها از خود نشان می‌دهند. این گرایش‌ها در شرایط خاص، تقویت می‌شوند. این تقویت زمانی که انسان پاسخ‌های محتمل را به پاسخ‌های منطقی ترجیح می‌دهد، بیشتر می‌شود. وقتی «هوش مصنوعی» با وظایف مبهم‌تری روبرو می‌شود، بیشتر به سمت الگوهای استدلال انسانی تا منطق سامانه‌ای متمایل می‌شود. «چن» گفت: اگر یک تصمیم‌گیری دقیق و بی‌طرفانه می‌خواهید، از «چت‌جی‌پی‌تی» در حوزه‌هایی استفاده کنید که میزان اعتماد لازم در حد اعتماد به یک ماشین‌حساب باشد. با این حال، وقتی نتیجه بیشتر به ورودی‌های ذهنی یا استراتژیکی وابسته است، نظارت انسانی اهمیت بیشتری پیدا می‌کند. حتی اگر دستورالعمل‌های کاربر برای اصلاح «سوگیری‌های» شناخته شده باشد. «مینا آندیاپان»(Meena Andiappan) دانشیار منابع انسانی و مدیریت در «دانشگاه مک‌مستر»(McMaster) و نویسنده این مقاله می‌گوید: با «هوش مصنوعی» باید مانند کارمندی رفتار شود که تصمیمات مهمی می‌گیرد. این تصمیم‌گیری‌ها به نظارت و دستورالعمل‌های اخلاقی نیاز دارد. در غیر این صورت، ما به جای بهبود تفکر ناقص، آن را در معرض خطر خودکارسازی قرار می‌دهیم. این یافته‌ها که در مجله Manufacturing & Service Operations Management  منتشر شده است.

ادامه مطلب


3 ماه قبل - 462 بازدید

مدل هوش مصنوعی جدیدی که توسط پژوهشگران انگلیسی ابداع شده است، می‌تواند درک ما را درباره رشد جنین تغییر دهد. سایت علمی ساینمگ در گزارش تازه خود نوشته است که پژوهش جدید دانشگاه پلیموث نشان داده است که یک مدل جدید مبتنی بر هوش مصنوعی می‌تواند از ویدیو تشخیص دهد که در طول رشد جنین چه اتفاقی و در چه زمانی رخ می‌دهد. در ادامه آمده است که این پژوهش نشان می‌دهد که چگونه یک مدل یادگیری عمیق موسوم به «Dev-ResNet» می‌تواند وقوع رویدادهای کلیدی رشد از جمله عملکرد قلب، خزیدن و حتی مرگ را در حلزون‌های برکه‌ای شناسایی کند. نوآوری کلیدی در این پژوهش، یک مدل سه‌بعدی است که از تغییرات رخ‌داده بین فریم‌های ویدیو استفاده می‌کند و هوش مصنوعی را قادر می‌سازد تا از این ویژگی‌ها درس بگیرد. این روش برخلاف استفاده سنتی‌ از تصاویر ثابت است. استفاده از ویدیو به این معناست که  Dev-ResNet، ویژگی‌هایی را از اولین ضربان قلب یا خزیدن گرفته تا تشکیل پوسته یا تخم‌گذاری به طور قابل اعتماد شناسایی می‌کند و حساسیت‌ ویژگی‌های گوناگون را نسبت به دما نشان می‌دهد. اگرچه Dev-ResNet در جنین‌های حلزون برکه‌ای استفاده شده است اما پژوهشگران می‌گویند که این مدل می‌تواند کاربرد گسترده‌ای را در همه گونه‌ها داشته باشد. آن‌ها مستندات جامعی را برای اعمال Dev-ResNet در سیستم‌های متفاوت بیولوژیکی فراهم کرده‌اند. این روش را در آینده می‌توان برای کمک به تسریع درک چگونگی تأثیر تغییرات آب‌وهوایی و سایر عوامل بیرونی بر انسان و حیوانات استفاده کرد. زیاد ایبینی، دانشجوی مقطع دکتری دانشگاه پلیموث که Dev-ResNet را طراحی کرده و آموزش داده است، گفت: ترسیم رویدادهای رشد یا بررسی این که چه اتفاقی در زمان رشد اولیه یک حیوان رخ می‌دهد، بسیار چالش‌برانگیز اما در عین حال بسیار مهم است زیرا به ما کمک می‌کند تا تغییرات رخ‌داده را در زمان‌بندی رویداد بین گونه‌ها و محیط‌ها درک کنیم. مدل Dev-ResNet یک شبکه عصبی سه‌بعدی کوچک و کارآمد است که می‌تواند رویدادهای رشد را با استفاده از ویدئوها تشخیص دهد و به راحتی آموزش داده شود. تنها محدودیت‌های واقعی، در ایجاد داده‌ها برای آموزش دادن مدل یادگیری عمیق است. ما می‌دانیم که این مدل کار می‌کند. فقط باید داده‌های آموزشی مناسب را به آن ارائه دهید. وی افزود: ما می‌خواهیم جامعه علمی گسترده‌تری را به روش‌هایی مجهز کنیم که آن‌ها را قادر می‌سازند تا درک بهتری را از نحوه رشد یک گونه تحت تأثیر عوامل گوناگون داشته باشند. بدین ترتیب، می‌فهمیم که چگونه می‌توانیم از آنها محافظت کنیم. ما باور داریم که Dev-ResNet یک گام مهم در این مسیر است. دکتر اولی تیلز، پژوهشگر ارشد این پروژه گفت: این پژوهش در سطح فناوری اهمیت دارد اما برای پیشبرد نحوه درک ما از رشد ارگانیسم نیز مهم است. گروه اکوفیزیولوژی و توسعه دانشگاه پلیموث، بیش از ۲۰ سال در این حوزه سابقه پژوهش دارد. وی افزود: دستیابی به این نقطه عطف بدون کمک یادگیری عمیق امکان‌پذیر نبود. فکر کردن به اینکه این قابلیت جدید می‌تواند ما را برای بررسی حیوانات در پویاترین دوره زندگی آنها به کجا ببرد، هیجان‌انگیز است. این پژوهش در «Journal of Experimental Biology» به چاپ رسید.

ادامه مطلب


3 ماه قبل - 473 بازدید

آیا وقتی از چت جی‌پی‌تی(ChatGPT) می‌خواهید برای شما نامه بنویسد، به او «لطفا» می‌گویید؟ در مورد گفتن «متشکرم» پس از نوشتن آن چطور؟ اگر فکر می‌کنید رفتار مودبانه با هوش مصنوعی عجیب است باید بدانید که یک نظرسنجی جدید وجود دارد که می‌تواند شما را متعجب کند. مشخص شده است که ۴۸ درصد از آمریکایی‌ها فکر می‌کنند، هوش مصنوعی شایسته این است که مودبانه با او صحبت شود، در حالی که مشخص شده نسل «زد Z» نسبت به سایرین با ربات‌ها مهربان‌تر هستند. نظرسنجی جدیدی که به تازگی توسط تاکر ریسرچ انجام شده است، نشان می‌دهد که تقریبا نیمی از آمریکایی‌ها معتقدند که رعایت ادب متداول را به دستیاران دیجیتالی خود بسط می‌دهند و نسل‌های جوان‌تر آن را رهبری می‌کنند. بیش از نیمی از نسل زد یا ۵۶ درصد می‌گویند که مودب بودن سبک پیش فرض آنها هنگام تعامل با هوش مصنوعی است. به نقل از اس‌اف، دو نفر از هر سه نفر(۶۸ درصد) وقتی صحبت از استفاده از رفتار با هوش مصنوعی و خدمات مشابه می‌شود، می‌گویند: این فقط روش من است. ۲۹ درصد از کاربرانی که خود را مؤدب توصیف می‌کنند، از این هم فراتر رفتند و اظهار داشتند که «هر کس سزاوار رفتار درست است، چه انسان باشد و چه غیر انسان. با این حال، این نظرسنجی همچنین شکاف نسلی را در آداب برخورد با هوش مصنوعی نشان داد. در حالی که بیش از نیمی از نسل Z و ۵۲ درصد از نسل هزاره می‌گویند که نسبت به هوش مصنوعی مودب هستند، این تعداد در بین نسل ایکس به ۴۴ درصد و برای نسل پر نوزاد به ۳۹ درصد کاهش یافته است. نسل زد به اولین نسل اجتماعی از جوانی گفته می‌شود که با دسترسی به اینترنت و فناوری دیجیتال قابل حمل رشد کرده‌اند و اعضای نسل زد، «بومی دیجیتال» لقب گرفته‌اند. نسل هزاره یا نسل ایگرگ به نسلی گفته می‌شود که پس از نسل ایکس و پیش از نسل زد متولد شده‌اند. به افرادی که متولد اواخر دهه ۱۹۷۰ تا اوایل دهه ۲۰۰۰ که برابر با شروع دهه پنجاه تا پایان دهه هفتاد در افغانستان است، گفته می‌شود. نسل پر نوزاد پیش از نسل ایکس هستند که از سال‌های ۱۹۴۶ تا ۱۹۶۴ میلادی(۱۳۲۵ تا ۱۳۴۳ در افغانستان) متولد شده‌اند. نکته قابل توجه این است که این مطالعه نشان داد که ۳۹ درصد از آمریکایی‌ها معتقدند که رفتار گذشته ما نسبت به هوش مصنوعی، الکسا، سیری و سایر موجودات رباتیک ممکن است در آینده مورد توجه قرار گیرد. این تصور حاکی از آگاهی روزافزون از پیامدهای بالقوه بلندمدت تعامل ما با هوش مصنوعی است. با این حال، همه در مورد نیاز به رعایت ادب با ربات‌ها متقاعد نشده‌اند. یک چهارم از پاسخ دهندگان رویکرد خود با چت‌بات‌ها را کاربردی‌تر توصیف کردند و بدون افزودن لطفا یا تشکر، درخواست و انتظار پاسخ داشتند. علاوه بر این، ۲۷ درصد با این جمله موافق بودند که مشکلی ندارد که با فناوری‌هایی مانند هوش مصنوعی و الکسا بد رفتار باشید و سر آنها فریاد بزنید زیرا آنها هیچ احساسی ندارند. این نظرسنجی همچنین شکاف جنسیتی را در نگرش نسبت به رعایت ادب در برابر هوش مصنوعی نشان داد. در حالی که مردان و زنان به طور مشابه موافق هستند که هوش مصنوعی شایسته رفتار مودبانه است اما مردان به طور قابل توجهی بیشتر احساس می‌کنند که بی ادبی یا فحش دادن به هوش مصنوعی قابل قبول است. این آمار شامل ۳۴ درصد از مردان در مقابل ۲۰ درصد از زنان می‌شد. اینکه آیا این روند بر توسعه هوش مصنوعی یا روابط ما با فناوری تأثیر می‌گذارد یا خیر، هنوز مشخص نیست، اما یک مورد واضح است: برای بسیاری از آمریکایی‌ها، رفتار خوب فراتر از تعاملات انسانی در حوزه دیجیتال است.

ادامه مطلب


4 ماه قبل - 142 بازدید

شاید اینکه چرا هوش مصنوعی نمی‌تواند رانندگی کند، پرسش بسیاری از مردم باشد. پاسخ این پرسش را باید در نوع پردازش اطلاعاتی که رانندگی به آن نیاز دارد و هوش مصنوعی در آن تبحر و تجربه ندارد، جستجو کرد. در حالی که بسیاری از افراد در سنین پایین و قبل از رسیدن به سن قانونی رانندگی را فرا می‌گیرند، هوش مصنوعی با وجود اینکه در حال حاضر حدود ۷۳ سال سن دارد، هنوز نمی‌تواند رانندگی کند. دلایل زیادی در این رابطه وجود دارد که چرا هوش مصنوعی قادر به رانندگی نیست. حسگرها در همه شرایط به اندازه کافی خوب نیستند. قدرت پردازشی مورد نیاز برای رانندگی بیشتر از آن است که حسگرها بتوانند آن را ارائه کنند و زمان پردازش آنها می‌تواند کندتر از مغز انسان باشد. این موضوع حتی در مورد استفاده از یک ابر رایانه نیز صادق است، چرا که به عنوان مثال هوش مصنوعی قادر به تصمیم‌گیری اخلاقی نیست. همچنین موانع فناورانه زیادی وجود دارد که مانع از حرکت خودروها با هوش مصنوعی در جاده‌ها می‌شود. این در حالی است که بزرگترین مانع، حسگرها یا فناوری یا حتی مسائل حقوقی یا اخلاقی نیست، بلکه این واقعیت است که ما واقعاً نمی‌دانیم هوش مصنوعی چگونه فکر می‌کند. یک مطالعه اخیر توسط محققان شرکت آنتروپیک نشان داد که چت‌بات‌های هوش مصنوعی می‌توانند دچار توهم شوند، در انجام محاسبات اولیه ریاضیات خوب نیستند و اغلب در مورد استدلال خود دروغ می‌گویند. بنابراین به نظر می‌رسد ما هیچ چیز زیادی در مورد نحوه عملکرد هوش مصنوعی نمی‌دانیم. همانند مغز انسان، تئوری‌های زیادی در مورد نحوه عملکرد هوش مصنوعی وجود دارد. محققان سعی کردند این موضوع را مورد آزمایش قرار دهند. آنها عبارت ریاضی «۵۷+۹۲» را در ChatGPT وارد کردند و عدد ۱۴۹ را دریافت کردند که درست است، اما وقتی از آن پرسیدند «چگونه به این پاسخ رسیدی؟» هوش مصنوعی کتاب درسی استاندارد را نشان داد و محققان سپس صفرها را به عبارت ریاضی اضافه کردند و نتایج را ترکیب کردند که موجب شد ChatGPT به اشتباه بیفتد. هوش مصنوعی در واقع یک رایانه است و مانند هر ماشین‌حساب پیشرفته‌ای به صورت دیجیتالی(۰ و ۱) کار می‌کند و مجموع عبارت را نشان می‌دهد. به عنوان مثال عبارت فوق را به شکل ۱۱۱۰۰۱ (۵۷) + ۱۰۱۱۱۰۰ (۹۲) = ۱۰۰۱۰۱۰۱ (۱۴۹) محاسبه می‌کند. بنابراین هوش مصنوعی یک رایانه است و اعمال ریاضی را به همین شکل انجام می‌دهد. محققان وقتی از ChatGPT پرسیدند که چگونه اعمال ریاضی را انجام می‌دهد، توضیح کوتاهی از تبدیل اعداد به زبان باینری تا حصول نتیجه، مشابه آنچه در بالا توضیح داده شد، داد. البته همه چیز برای هوش مصنوعی از سال ۱۹۹۴ تاکنون بسیار تغییر کرده است، اما هنوز به اندازه‌ای نرسیده که هوش مصنوعی را قادر به رانندگی و توانایی برابر با انسان کند. شرکت «آنتروپیک» در حال آزمایش یک مدل هوش مصنوعی به نام کلاد(Claude) است که مانند ChatGPT و سایر چت‌بات‌های هوش مصنوعی شبیه به آنچه بسیاری از ما روزانه از طریق زبان طبیعی با آن ارتباط برقرار می‌کنیم، است. آنها دریافتند که «کلاد» اغلب منطقی را برای تطبیق با یک روایت از پیش ساخته به منظور دلجویی یا جلب رضایت شخصی که با او در حال تعامل است، ایجاد می‌کند. شبیه به روشی که سیاستمداران در مورد موضوعی صحبت می‌کنند و به نظر می‌رسد که با کسی موافق هستند، اما در حقیقت اینطور نیست. این موضوع را در رانندگی تصور کنید. در حین رانندگی، ما در هر دقیقه هزاران تصمیم می‌گیریم که می‌تواند به معنای واقعی کلمه نه تنها زندگی ما، بلکه زندگی اطرافیانمان را نیز تحت تاثیر قرار دهد. ما از حواس‌پرتی‌ها در هنگام رانندگی مطلعیم و می‌دانیم که حتی چند لحظه بی‌توجهی می‌تواند به نتایج وحشتناکی منجر شود. حالا در نظر بگیرید که چه اتفاقی می‌افتد اگر هوش مصنوعی یک داده خطرناک را توجیه کند یا نتواند به اندازه کافی سریع تصمیم بگیرد. نکته این است که در حالی که فناوری اطلاع‌رسانی هوش مصنوعی به کار زیادی برای رسیدن به سطح یک راننده انسانی نیاز دارد، خود مدل یادگیری نیز باید به آن برسد. هوش مصنوعی اکنون در دهه ۷۰ زندگی خود است، اما فقط می‌تواند در سطح شناختی یک کودک عمل کند و ما حتی نمی‌دانیم که چگونه این کار را انجام می‌دهد. وسایل نقلیه امروزی دارای ده‌ها حسگر، صدها متر سیم‌کشی، سه یا چند رایانه داخلی، اتصال بی‌سیم و وای-فای، GPS و بسیاری از ابزارهای دیگر هستند. هیچ کدام از اینها نمی‌توانند خودرو را برانند. حتی مدل‌هایی که دارای فناوری نیمه‌خودران یا خودران هستند نیز نیاز به توجه کامل و نظارت انسان دارند. ما انسان‌ها یک مزیت متمایز نسبت به هوش مصنوعی داریم و آن این است که ما با سیستم‌های حسی بسیار قوی متولد شده‌ایم که با گذر از هزاران سال فرگشت(تکامل) که ما را در استفاده از آنها بسیار متبحر کرده است، در قالب‌های چندوجهی کار می‌کنند. ما مانند بسیاری از حیوانات در جمع‌آوری ورودی‌های متعدد و عکس‌العمل بر این اساس برتر هستیم. با توسعه فناوری‌های حسی، هوش مصنوعی ممکن است خود را به عنوان یک محرک برتر نشان دهد، اما نمی‌توانیم این را با اطمینان بگوییم، زیرا هوش مصنوعی آنطور که ما فکر می‌کنیم، نمی‌اندیشد. هوش مصنوعی در شناخت و یادگیری ورودی چند حسی چندان خوب نیست. این یکی از بزرگترین شاهکارهای طبیعت است، اما تاکنون ما نتوانستیم آن را به ماشین‌ها منتقل کنیم. هوش مصنوعی همچنین در تصمیم‌گیری سریع با داده‌های کمی که در دست دارد، چندان خود را ثابت نکرده است. هوش مصنوعی شهودی نیست، در حالی که ما اغلب به صورت شهودی تصمیم می‌گیریم. این بخش بزرگی از چیزی است که ما را نه تنها به نوآوری، بلکه برای سازگاری و غلبه بر آن سوق می‌دهد. با این حال، خبر خوب برای طرفداران وسایل نقلیه خودران این است که چون ما تفکرات هوش مصنوعی را به خوبی درک نمی‌کنیم، می‌تواند کارهایی را انجام دهد که انتظارش را نداریم. این فناوری می‌تواند بصری شود و قادر به مدیریت چندین ورودی به طور همزمان باشد. به جرات می‌توان گفت که اگر این کار را انجام دهد، احتمالاً این کار را در زمان بسیار کوتاه‌تری نسبت به ما انسان‌ها انجام دهد. امیدواریم که حداقل تا آن زمان متوجه شده باشیم که چگونه هوش مصنوعی را راستگو کنیم.

ادامه مطلب