برچسب: فناوری

5 روز قبل - 435 بازدید

سایت علمی زی‌بیزینس در گزارشی اعلام کرده است که یک دستگاه مبتنی بر هوش مصنوعی که در «دانشگاه لستر» ابداع شده است، در آزمایش‌ها توانست ضربان قلب نشان‌دهنده آریتمی بطنی را با موفقیت تشخیص دهد. پژوهشگران دانشگاه لستر به بررسی این موضوع پرداخته‌اند که آیا هوش مصنوعی می‌تواند خطر ضربان قلب کشنده را پیش‌بینی کند یا خیر. در آزمایش دانشگاه لستر، یک دستگاه مبتنی بر هوش مصنوعی در ۸۰ درصد موارد به درستی ضربان قلب کشنده را شناسایی کرده، ابداع کرده است. آریتمی بطنی، یک اختلال در ضربان قلب است که از حفره‌های پایینی (بطن‌ها) نشات می‌گیرد. در این شرایط، قلب آن قدر سریع می‌تپد که فشار خون کاهش می‌یابد و در صورت عدم درمان فوری می‌تواند به سرعت به از دست دادن هوشیاری و مرگ ناگهانی منجر شود. این دستگاه مبتنی بر هوش مصنوعی، نتایج الکتروکاردیوگرام هولتر چندین بزرگسال را بررسی کرد که در طول زندگی عادی روزانه آنها در خانه گرفته شده بود. شرکت‌کنندگان، افراد بالغ بودند که بین سال‌های ۲۰۱۴ تا ۲۰۲۲، روش الکتروکاردیوگرام هولتر را به عنوان بخشی از مراقبت‌های درمانی دریافت کردند. نتایج برای این بیماران مشخص بود و ۱۵۹ نفر به ‌طور میانگین ۱.۶ سال پس از آزمایش، آریتمی‌های کشنده بطنی را تجربه کردند. این دستگاه هوش مصنوعی موسوم به «VA-ResNet-50» برای بررسی ضربان قلب بیماران استفاده شد تا بررسی کند که آیا قلب آنها ضربان‌های کشنده را نشان می دهد یا خیر. پروفسور آندره نگ از پژوهشگران این پروژه گفت: دستورالعمل‌های بالینی کنونی که به ما کمک می‌کنند تا تصمیم بگیریم کدام بیماران بیشتر در معرض خطر ابتلا به آریتمی بطنی هستند و چه کسانی از درمان نجات‌بخش با «دفیبریلاتور کاردیوورتر قابل کاشت»(ICD) بیشتر سود می‌برند، دقت کافی ندارند. آنها ممکن است به بروز یک اختلال قابل توجه منجر ‌شوند و تعداد مرگ و میر ناشی از این وضعیت را افزایش دهند. نگ ادامه داد: ما متوجه شدیم که این دستگاه هوش مصنوعی در مقایسه با دستورالعمل‌های پزشکی کنونی، عملکرد خوبی دارد و به درستی پیش‌بینی می‌کند که قلب کدام بیمار در چهار مورد از هر پنج مورد به آریتمی بطنی دچار می‌شود. وی افزود: وقتی دستگاه می‌گفت که یک شخص در معرض خطر است، خطر رویداد کشنده سه برابر بیشتر از بزرگسالان عادی بود. یافته‌های این پژوهش نشان می‌دهند که استفاده کردن از هوش مصنوعی برای مشاهده نوار قلب بیماران کمک می‌کند تا خطر ابتلا به آریتمی بطنی را تعیین کنیم، درمان مناسب را پیشنهاد دهیم و در نهایت جان افراد را نجات دهیم. این پژوهش در مجله «European Heart Journal» به چاپ رسید.

ادامه مطلب


2 هفته قبل - 320 بازدید

سایت علمی اس‌دی در گزارشی نوشته است که پژوهشگران هشدار می‌دهند که سیستم‌های هوش مصنوعی تا اکنون یاد گرفته‌اند که چگونه انسان‌ها را فریب دهند. محققان در مورد پتانسیل سیستم‌های هوش مصنوعی برای درگیر شدن در رفتارهای فریبنده هشدار می‌دهند و می‌گویند هوش مصنوعی می‌تواند پیامدهای اجتماعی جدی داشته باشد. آن‌ها بر نیاز به اقدامات نظارتی قوی برای مدیریت موثر این خطرات تاکید می‌کنند. بسیاری از سیستم‌های هوش مصنوعی حتی آن‌هایی که برای مفید بودن و راستگویی طراحی شده‌اند، یاد گرفته‌اند که چگونه انسان‌ها را فریب دهند. پژوهشگران در مقاله‌ای که به تازگی در مجله Patterns منتشر شده است، خطرات فریب هوش مصنوعی را برجسته می‌کنند و از دولت‌ها می‌خواهند که به سرعت مقرراتی قوی برای کاهش این خطرات وضع کنند. پیتر اس پارک فوق دکترای ایمنی وجودی هوش مصنوعی در موسسه فناوری ماساچوست(MIT) و نویسنده ارشد این مطالعه می‌گوید: توسعه دهندگان هوش مصنوعی درک مطمئنی از آنچه باعث رفتارهای نامطلوب هوش مصنوعی مانند فریب دادن می‌شود، ندارند. اما به طور کلی ما فکر می‌کنیم که فریب هوش مصنوعی به این دلیل به وجود می‌آید که یک استراتژی مبتنی بر فریب بهترین راه برای عملکرد خوب در وظیفه آموزشی هوش مصنوعی است. این فریب به آنها کمک می‌کند تا به اهداف خود برسند. پارک و همکارانش مقالاتی را تجزیه و تحلیل کردند که بر روش‌هایی متمرکز بود که سیستم‌های هوش مصنوعی اطلاعات نادرست را از طریق فریب‌های آموخته‌شده که در آن به طور سیستماتیک یاد می‌گیرند اطلاعات را دستکاری کنند و افراد را فریب دهند، منتشر می‌کنند. نمونه‌هایی از فریب هوش مصنوعی بارزترین نمونه فریب هوش مصنوعی که محققان در تجزیه و تحلیل خود کشف کردند، متعلق به سیستم CICERO شرکت متا(فیسبوک سابق) بود که یک سیستم هوش مصنوعی طراحی شده برای بازی استراتژیک فتح جهان است. اگرچه متا ادعا می‌کند که CICERO را به گونه‌ای آموزش داده است که تا حد زیادی صادق و مفید باشد و هیچ گاه عمداً به متحدان انسانی خود در حین بازی از پشت خنجر نزند، داده‌هایی که این شرکت به همراه مقاله علمی خود منتشر کرد، نشان داد که CICERO منصفانه بازی نمی‌کند. پارک می‌گوید: ما متوجه شدیم که هوش مصنوعی متا یاد گرفته است که در فریبکاری استاد باشد. در حالی که متا موفق شد هوش مصنوعی خود را برای برنده شدن در این بازی آموزش دهد، اما CICERO در بین ۱۰ درصد از بازیکنان انسانی برتر قرار گرفت که بیش از یک بازی انجام داده بودند. ضمنا متا نتوانسته هوش مصنوعی خود را برای برنده شدن صادقانه آموزش دهد. سایر سیستم‌های هوش مصنوعی توانایی بلوف زدن در بازی پوکر علیه بازیکنان انسانی حرفه‌ای، حملات جعلی در طول بازی استراتژیک Starcraft II به منظور شکست دادن حریفان و ارائه پیشنهادات نادرست در مذاکرات اقتصادی را نشان داده‌اند. خطرات هوش مصنوعی فریبنده پارک افزود: اگرچه ممکن است تقلب سیستم‌های هوش مصنوعی در بازی‌ها بی‌ضرر به نظر برسد، اما می‌تواند منجر به پیشرفت در قابلیت‌های هوش مصنوعی فریبنده شود که می‌تواند در آینده به اشکال پیشرفته‌تر فریب هوش مصنوعی تبدیل شود. محققان دریافتند برخی از سیستم‌های هوش مصنوعی حتی یاد گرفته‌اند که در آزمایش‌هایی که برای ارزیابی ایمنی آنها طراحی شده‌اند، تقلب کنند. پارک می‌گوید: یک هوش مصنوعی فریبنده با ارتکاب تقلب سیستماتیک در آزمایش‌های ایمنی توسعه‌دهندگان و تنظیم‌کننده‌های انسانی می‌تواند ما انسان‌ها را به سمت یک احساس امنیت کاذب سوق دهد. پارک هشدار می‌دهد که خطرات کوتاه‌مدت هوش مصنوعی فریبنده شامل آسان‌تر کردن تقلب و دستکاری در مسائلی نظیر انتخابات است. به گفته وی در نهایت اگر این سیستم‌ها بتوانند این مجموعه مهارت‌های ناراحت‌کننده را توسعه دهند و بهبود ببخشند، ممکن است روزی انسان‌ها کنترل خود را روی هوش مصنوعی از دست بدهند. پارک می‌گوید: ما به عنوان یک جامعه به زمان بیشتری نیاز داریم تا برای فریب پیشرفته‌تر محصولات آینده هوش مصنوعی و مدل‌های منبع باز آماده شویم. با پیشرفته‌تر شدن قابلیت‌های فریبنده سیستم‌های هوش مصنوعی، خطراتی که برای جامعه ایجاد می‌کنند، جدی‌تر می‌شوند. در حالی که پارک و همکارانش فکر می‌کنند جامعه علمی هنوز اقدام مناسبی برای رسیدگی به فریب هوش مصنوعی انجام نداده است، آنها سیاست‌گذاران را تشویق می‌کنند که اقداماتی مانند قانون هوش مصنوعی اتحادیه اروپا و فرمان اجرایی هوش مصنوعی جو بایدن رئیس جمهور آمریکا را جدی بگیرند. پارک می‌گوید البته باید دید که آیا سیاست‌های طراحی‌شده برای کاهش فریب هوش مصنوعی با توجه به اینکه توسعه‌دهندگان هوش مصنوعی هنوز تکنیک‌هایی برای کنترل این سیستم‌ها ندارند، می‌توانند به درستی اجرا شوند؟ وی افزود: اگر ممنوعیت فریبکاری هوش مصنوعی در حال حاضر از نظر سیاسی غیرممکن است، توصیه می‌کنیم که سیستم‌های هوش مصنوعی فریبنده با برچسب پرخطر طبقه‌بندی شوند.

ادامه مطلب


3 هفته قبل - 146 بازدید

سایت علمی تی‌ان به نقل از پژوهشگران پزشکی شاریته برلین (Charité Universitätsmedizin) نوشته است افراد باهوش ممکن است به زمان بیشتری برای حل مشکلاتِ دشوار نیاز داشته باشند و البته صرف زمان بیشتر منجر به تصمیم‌گیری دقیق‌تر نیز خواهد شد. این سایت نوشته است که پژوهشگران دانشگاه پزشکی شاریته برلین به همراه همکاران شان از بارسلونا، به این نتیجه‌ی شگفت‌انگیز دست یافته‌اند که شرکت‌کنندگانی که ضریب هوشی بالاتری دارند، تنها در انجام کارهای ساده سریع‌تر عمل می‌کنند، در حالی که برای حل مسایل دشوار نسبت به افرادی با IQ پایین‌تر، زمان بیشتری لازم داشتند. در شبیه‌سازی‌های شخصی‌سازی شده از مغز ۶۵۰ شرکت‌کننده، پژوهشگران توانستند مشخص کنند که مغزهایی که انطباق کمتری بین نواحی آن‌ها وجود دارد، هنگام تصمیم‌گیری به‌جای این‌که منتظر بمانند تا مناطق بالادست مراحل پردازش مورد نیاز برای حل مشکل را تکمیل کنند، سریع به مرحله نتیجه‌گیری می‌روند. در واقع، مدل‌های مغزی شرکت‌کنندگانی که ضریب بالاتر هوش را داشتند به زمان بیشتری برای حل وظایف چالش‌برانگیز نیاز داشتند در حالی که خطای آن‌ها کمتر بود. این سایت تاکید کرده است که اکنون دانشمندان یافته‌های خود را در مجله‌ «Nature Communications» منتشر کرده‌اند. براساس معلومات‌های ارائه شده، حدود ۱۰۰ میلیارد نورون در مغز انسان وجود دارد. هر یک از آن‌ها به حدود ۱۰۰۰ نورون همسایه یا دور متصل است. این شبکه‌ غیرقابل درک، کلید توانایی‌های شگفت‌انگیز مغز است و البته چیزی است که درک نحوه‌ی عملکرد مغز را بسیار دشوار می‌کند. پروفسور پترا ریتر (Petra Ritter)، رییس بخش شبیه‌سازی مغز و بخش عصب‌شناسی تجربی شاریته برلین، مغز انسان را با استفاده از کامپیوتر شبیه‌سازی می‌کند. وی می‌گوید: «ما می‌خواهیم بفهمیم فرآیندهای تصمیم‌گیری مغز چگونه کار می‌کند و چرا افراد مختلف تصمیم‌های متفاوتی می‌گیرند.» پروژهشگران برای شبیه‌سازی مکانیسم‌های مغز انسان، از داده‌های دیجیتالی اسکن‌های مغزی مانند تصویربرداری تشدید مغناطیسی (MRI) و همچنین مدل‌های ریاضی مبتنی بر دانش نظری در مورد فرآیندهای بیولوژیکی استفاده کردند. این کارها در ابتدا منجر به ایجاد یک مدل «عمومی» از مغز انسان می‌شود. سپس دانشمندان این مدل را با استفاده از داده‌های مربوط به افراد اصلاح می‌کنند و در نتیجه «مدل‌های مغزی شخصی سازی ‌شده» ایجاد می‌کنند. سایت علمی تی‌ان نوشته است که برای این مطالعه، دانشمندان از داده‌های مربوط به ۶۵۰ شرکت‌کننده که در پروژه‌ی Human Connectome حضور داشتند، استفاده کردند. این پروژه توسط ایالات متحده از ماه سپتامبر ۲۰۱۰ آغاز شده و در حال مطالعه‌ اتصالات عصبی در مغز انسان بوده است. آقای ریتر توضیح می‌دهد: این تعادل مناسب بین برانگیختی و مهار نورون‌ها است که بر تصمیم‌گیری اثر می‌گذارد و کم و بیش فرد را قادر می‌سازد تا مشکلات را حل کند. وی گفته است: «ما می‌توانیم فعالیت‌های مغز افراد را به طور بسیار مؤثری بازتولید کنیم. ما در این فرآیند متوجه شدیم که این مغزها رفتار متفاوتی با یکدیگر دارند که مشابه همتایان بیولوژیکی آن‌ها است. آواتارهای مجازی ما با عملکرد فکری و زمان واکنش آنالوگ‌های بیولوژیکی آن‌ها مطابقت دارند.» او تاکید کرد، جالب توجه است که مغزهای «کُندتر» هم در انسان‌ها و هم در مدل‌ها هماهنگ‌تر بودند. این هماهنگی به مدارهای عصبی در لوب پیشانی اجازه می‌دهد تا تصمیم‌گیری را برای مدت طولانی‌تری نسبت به مغزهایی که هماهنگی کمتری داشتند به تعویق بیاندازد. مدل‌ها نشان دادند که چگونه هماهنگی کمتر منجر به این می‌شود که اطلاعات مورد نیاز برای تصمیم‌گیری در صورت نیاز موجود نباشد و در حافظه کاری ذخیره نشود. در ادامه آمده است که از شرکت‌کنندگان خواسته شد تا قوانین منطقی را در مجموعه‌ای از الگوها شناسایی کنند. این قوانین هر بار پیچیده‌تر می‌شدند و بنابراین رمزگشایی آن‌ها دشوارتر می‌شد. در این مدل، رقابت بین گروه‌های عصبی مختلف درگیر در تصمیم‌گیری رخ داد.  در مورد تصمیمات پیچیده، شواهد اغلب برای تصمیم‌گیری سریع به اندازه کافی واضح نیستند و این گروه‌های عصبی را مجبور می‌کند سریع به نتیجه برسند. این سایت علمی گفته است که همگام‌سازی به معنای تشکیل شبکه‌های عملکردی در مغز ویژگی‌های حافظه فعال و در نتیجه توانایی «تحمل» دوره‌های طولانی‌مدت بدون تصمیم‌گیری را تغییر می‌دهد. در کارهای چالش برانگیزتر، شما باید پیشرفت‌های قبلی را در حافظه کاری ذخیره کنید، در حالی که سایر مسیرهای راه حل را کاوش می‌کنید و سپس آن‌ها را با یکدیگر ادغام می‌کنید.

ادامه مطلب


4 هفته قبل - 167 بازدید

محققان رشته جانورشناسی از «هوش مصنوعی» برای تسریع روند تحقیقات خود در زمینه‌ ارتباطات حیوانی استفاده می‌کنند. دانشمندان با رمزگشایی از سامانه‌های پیچیده‌ ارتباطی حیوانات، به درک این که موجودات چه می‌گویند و شاید حتی چگونه پاسخ دهند، نزدیک‌تر می‌شوند. در حالی که دانشمندان تلاش می‌کنند شکاف زبانی بین انسان‌ها و حیوانات را پُر کنند، برخی از کارشناسان نگرانی‌های موجهی را در مورد این که آیا چنین توانایی‌هایی مناسب هستند یا حتی آیا باید اصلاً سعی کنیم با حیوانات ارتباط برقرار کنیم را مطرح می‌کنند. در خط مقدم این تلاش‌ها، پروژه «CETI» که از فناوری یادگیری ماشین برای تجزیه و تحلیل بیش از 8000 «کُدا»(coda) از نهنگ‌های عنبر استفاده کرده است، قرار دارد. نهنگ‌های عنبر پستانداران بسیار اجتماعی هستند که با استفاده از دنباله‌ای از صداها(کلیک‌ها) به نام «کدا» با یکدیگر ارتباط برقرار می‌کنند. دانشمندان ساختارهای زمینه‌ای و ترکیبی را در صداهای این نهنگ‌ها کشف کردند. این الگوها به تیم کمک کرد تا نوعی الفبای آوایی برای این حیوانات ایجاد کند. این الفبا یک سامانه رسا و ساختاریافته نیست، اما سطحی از پیچیدگی را نشان می‌دهد که محققان قبلاً از آن آگاه نبودند. پروژه «CETI» همچنین در حال کار بر روی دستورالعمل‌های اخلاقی برای این فناوری است. یکی از این دستورالعمل‌ها، خطرات استفاده از «هوش مصنوعی» برای صحبت کردن با حیوانات است. گوگل و پروژه «دلفین‌های وحشی» به تازگی مدل زبانی «DolphinGemma» را معرفی کرده‌اند. این «مدل زبانی بزرگ»(LLM) روی 40 سال صداهای ضبط شده دلفین‌ها آموزش داده شده است که داده‌های صوتی دلفین را دریافت می‌کند و پیش‌بینی می‌کند که چه صدایی در مرحله‌ بعد درخواهد آورد. این «هوش مصنوعی» حتی می‌تواند صدایی شبیه به دلفین تولید کند. محققان از این «هوش مصنوعی» در نمونه‌ اولیه‌ سامانه دوطرفه‌ای موسوم به «CHAT» در یک تلفن هوشمند استفاده کردند که منجر به ترجمه مکالمات دلفین‌ها شد. این امر موجب پایه‌گذاری گفتگوی بین گونه‌ها در آینده خواهد بود. «دنیس هرزینگ»(Denise Herzing) بنیان‌گذار و سرپرست پروژه «دلفین‌های وحشی» و توسعه دهنده «DolphinGemma» گفت: «DolphinGemma» برای بهبود تشخیص صدای بی‌درنگ در سامانه «CHAT» استفاده می‌شود. در پاییز امسال، ما زمان خود را صرف جذب صداهای شناخته شده دلفین خواهیم کرد و اجازه می‌دهیم «Gemma» الگوهای تکرارپذیری را که پیدا می‌کند، به ما نشان دهد. وی افزود: به این ترتیب، کاربردهای «هوش مصنوعی» دوگانه است. محققان می‌توانند از آن، هم برای بررسی صداهای طبیعی دلفین‌ها و هم برای درک بهتر پاسخ‌های حیوانات به تقلید انسانی استفاده کنند. گسترش جعبه ابزار هوش مصنوعی حیوانات پژوهشگران در خارج از اقیانوس دریافتند که مدل‌های گفتار انسانی را می‌توان برای رمزگشایی از سیگنال‌های حیوانات مستقر در خشکی نیز تغییر کاربری داد. یک تیم به سرپرستی محققان «دانشگاه میشیگان»(Michigan) از یک مدل تشخیص گفتار آموزش داده شده بر روی صداهای انسانی برای شناسایی احساسات، جنسیت، نژاد و حتی هویت فردی سگ‌ها بر اساس پارس‌هایشان استفاده کرد. مدل انسانی از پیش آموزش‌دیده، عملکرد بهتری نسبت به نسخه‌ای که فقط بر روی داده‌های سگ آموزش داده شده بود، داشت. این موضوع نشان می‌دهد معماری مدل زبان انسانی می‌تواند به طور شگفت‌انگیزی در رمزگشایی از ارتباطات حیوانی مؤثر باشد. دانشمندان باید سطوح مختلف پیچیدگی را که این مدل‌های «هوش مصنوعی» هدف قرار می‌دهند، در نظر بگیرند. این پیچیدگی‌ها می‌تواند شامل تعیین اینکه آیا پارس سگ پرخاشگرانه است یا بازیگوشانه، یا اینکه نر است یا ماده شود. انجام هر مطالعه، دانشمندان را یک گام به درک این که چگونه ابزارهای «هوش مصنوعی» می‌توانند به بهترین شکل در چنین زمینه‌ گسترده‌ای به کار گرفته شوند، نزدیک‌تر می‌کند. این مطالعه به «هوش مصنوعی» این فرصت را می‌دهد تا خود را برای تبدیل شدن به بخشی مفیدتر از جعبه ابزار محققان آموزش دهد. زبان حیوانات در آستانه ترجمه پژوهش‌های جدید نشان می‌دهد که حیوانات در برقراری ارتباط، پیچیده‌تر از آن چیزی هستند که تصور می‌کنیم. مطالعه‌ای در سال ۲۰۲۲ در «دانشگاه نانتر»(Nanterre ) پاریس نشان داد که گربه‌ها نشانه‌های واضحی از تشخیص صدای صاحب خود دارند و به لحن زبان گربه‌ای پاسخ می‌دهند. این یعنی گربه‌ها نه تنها به حرف‌های ما توجه می‌کنند، بلکه به لحن ما نیز اهمیت می‌دهند، به خصوص اگر این لحن از طرف کسی باشد که می‌شناسند. محققان همچنین دریافتند که نوعی ماهی مرکب مجموعه‌ای از چهار ژست فیزیکی دارد که برای ارتباط با یکدیگر و پاسخ به پخش امواج مصنوعی توسط انسان‌ها استفاده می‌کند. این گروه قصد دارد از یک الگوریتم برای دسته‌بندی انواع این امواج، ردیابی خودکار حرکات این موجودات و درک سریع‌تر شرایطی که حیوانات در آن احساسات خود را بروز می‌دهند، استفاده کند. مترجم جهانی برای حیوانات  این مطالعات، نشان‌دهنده تغییر اساسی در رویکرد دانشمندان به ارتباطات حیوانی است. تیم‌های تحقیقاتی ابزارها و مدل‌هایی را طراحی می‌کنند که برای انسان‌ها آشنا هستند و پیشرفت‌هایی را حاصل می‌کنند. هدف نهایی می‌تواند نوعی مترجم دنیای حیوانات باشد که با «هوش مصنوعی» کار می‌کند. «سارا کین»(Sara Keen) متخصص بوم‌شناسی رفتاری و مهندس برق در پروژه «گونه‌های زمینی»(Earth Species) می‌گوید: ما در پنج سال گذشته در تجزیه و تحلیل زبان انسانی واقعاً خوب عمل کرده‌ایم و در حال تکمیل این روش هستیم که داده‌های جدید را به مدل‌های آموزش‌دیده منتقل و اعمال کنیم. پروژه گونه‌های زمینی قصد دارد مدل صوتی-زبانی اصلی خود را برای صداهای حیوانات در سال جاری عرضه کند. این مدل با دریافت داده‌هایی از صداهای محیطی و حتی تشخیص موسیقی، قصد دارد به مبدلی برای گفتار انسان به آنالوگ‌های حیوانی تبدیل شود. این پروژه اعلام می‌کند که این مدل، از فرضیه دانشمندان مبنی بر اینکه بازنمایی‌های مشترک در «هوش مصنوعی» می‌تواند به رمزگشایی زبان‌های حیوانی کمک کند، پشتیبانی می‌کند. «کین» افزود: بخش بزرگی از کار ما تلاش برای تغییر طرز تفکر مردم در مورد جایگاه خود در جهان است. ما در حال کشف حقایق جالبی در مورد ارتباطات حیوانی هستیم، اما در نهایت متوجه می‌شویم که گونه‌های دیگر نیز به اندازه ما پیچیده و ظریف هستن و این کشف بسیار هیجان‌انگیز است. معضل اخلاقی پژوهشگران عموماً در مورد وعده‌های ابزارهای مبتنی بر «هوش مصنوعی» برای بهبود جمع‌آوری و تفسیر داده‌های ارتباطات حیوانی توافق دارند، اما برخی احساس می‌کنند که در درک عمومی از نحوه کاربرد این ابزارها، نوعی شکاف میان این آشنایی علمی و درک عمومی وجود دارد. «کریستین روتز»(Christian Rutz) کارشناس رفتار و شناخت حیوانات و سرپرست انجمن بین‌المللی «بیو-لاگینگ»(Bio-Logging) می‌گوید: به نظر من، در حال حاضر سوءتفاهم زیادی در این موضوع وجود دارد. یکی اینکه به نوعی یادگیری ماشینی می‌تواند این دانش زمینه‌ای را از هیچ خلق کند و اینکه هزاران صدای ضبط شده داشته باشید و یک ماشین یادگیری به طور جادویی می‌تواند معنا را از آن استخراج کند. این اتفاق نخواهد افتاد. وی می‌افزاید: معنا از طریق حاشیه‌نویسی زمینه‌ای به دست می‌آید و به همین دلیل است که فکر می‌کنم در این دوره هیجان و اشتیاق، فراموش نکردن این نکته بسیار مهم است که این حاشیه‌نویسی از تخصص بوم‌شناسی رفتاری و تاریخ طبیعی پایه به دست می‌آید. کارشناسان استانداردهای اخلاقی و محافظ‌هایی را برای استفاده از این فناوری‌ها ارائه کرده‌اند که رفاه حیوانات را در اولویت قرار می‌دهد. با پیشرفت «هوش مصنوعی»، گفتگوها درباره حقوق حیوانات نیز باید متحول شود. در آینده، حیوانات می‌توانند به بازیگران فعال‌تری در این مباحث تبدیل شوند. این ایده‌ای است که کارشناسان حقوقی در حال حاضر به عنوان یک تمرین فکری بررسی می‌کنند، اما روزی می‌تواند به واقعیت بپیوندد. «روتز» می‌گوید: آنچه ما به شدت به آن نیاز داریم، ایجاد همکاری‌های معنادار بین متخصصان یادگیری «هوش مصنوعی» و محققان رفتار حیوانات است، زیرا تنها با همکاری این دو گروه است که شانسی برای موفقیت وجود دارد. صداهای زیر و بم  مختلفی برای ترجمه توسط مدل‌های «هوش مصنوعی» وجود دارد، اما چگونگی استفاده از اطلاعات به دست آمده از این رویکردهای جدید، نیازمند بررسی دقیق ملاحظات اخلاقی صحبت با حیوانات است. یک مقاله جدید شش حوزه اصلی مشکل‌ساز در ارتباط با «هوش مصنوعی» با حیوانات را برشمرد. این موارد شامل حقوق حریم خصوصی، آسیب‌های فرهنگی و عاطفی به حیوانات، انسان‌انگاری، اتکای بیش از حد به فناوری برای حل مشکلات، تعصب جنسیتی و اثربخشی محدود در حفاظت واقعی از حیوانات است. به نظر می‌رسد که ما در آستانه یادگیری بیشتر در مورد نحوه تعامل حیوانات با یکدیگر هستیم. پرده‌برداری از نحوه ارتباطات آنها می‌تواند بینشی در مورد نحوه یادگیری، اجتماعی شدن و عملکرد آنها در محیط‌شان نیز ارائه دهد، اما هنوز چالش‌های مهمی برای غلبه از جمله اینکه از خود بپرسیم چگونه از فناوری‌های قدرتمندی که در حال توسعه هستند، استفاده کنیم، وجود دارد.

ادامه مطلب


1 ماه قبل - 178 بازدید

با افزایش نگرانی‌ها در مورد تأثیر هوش مصنوعی بر اشتغال، ابزارهای جدید از این فناوری برای هدایت کارگران به سمت فرصت‌های شغلی جدید استفاده می‌کنند. گاهی اوقات، باید در حرفه خود تغییراتی ایجاد کنید. شاید شغلی که دارید دیگر به اندازه قبل رضایت‌بخش نباشد. شاید تغییر شرایط، شما را به سمت مسیر جدیدی سوق دهد. در هر صورت، فهمیدن اینکه قدم بعدی چیست می‌تواند یک چالش باشد. به نقل از اف‌سی، هوش مصنوعی به طور فزاینده‌ای به افراد کمک می‌کند تا مراحل بعدی مسیر حرفه‌ای خود را بررسی کنند. چت‌بات‌هایی مانند چت جی‌پی‌تی می‌توانند راهنمایی‌هایی ارائه دهند، به شرطی که بدانید چگونه سؤالات خود را بیان کنید. اما چندین شرکت ابزارهای تخصصی‌ای را توسعه داده‌اند که به طور خاص بر این موضوع تمرکز دارند. گوگل با کریر دریمر (Career Dreamer) خود در این زمینه پیشرو است. این ابزار که به عنوان روشی سرگرم‌کننده برای کشف فرصت‌های شغلی با هوش مصنوعی توصیف می‌شود، ابزاری است که هر کسی می‌تواند از آن استفاده کند. برای شروع کار با Career Dreamer، شما هویت شغلی را اعلام خواهید کرد که مهارت‌ها و تجربیات شما را مشخص می‌کند. پس از به اشتراک گذاشتن شغل فعلی‌تان، هوش مصنوعی سؤالات تکمیلی در مورد جایگاه شغلی مربوطه می‌پرسد. همچنین می‌توانید جزئیاتی در مورد پیشینه تحصیلی خود و هرگونه شغل، صنعت یا زمینه‌ای که به آن علاقه دارید، اضافه کنید. Career Dreamer سپس بر اساس اطلاعات ورودی شما، مسیرهای شغلی بالقوه را پیشنهاد می‌دهد. با نگه داشتن ماوس روی هر فیلد پیشنهادی، اطلاعاتی در مورد نوع مدرک مورد نیاز، تجربه‌ای که به آن نیاز دارید، شرح شغل و میانگین حقوق ارائه می‌شود. اگر موردی پیدا کنید که جذاب به نظر می‌رسد، می‌توانید روی آن کلیک کنید تا به لیستی از فرصت‌های شغلی محلی برسید یا برای ایجاد رزومه یا نامه درخواست، به ابزار هوش مصنوعی جمینای (Gemini) بروید. در همین حال، لینکدین، Next Role Explorer را به کاربران ارائه می‌دهد. این ابزار فرصت‌های بالقوه را در شرکت‌ها نشان می‌دهد، مهارت‌هایی را که کارمندان باید توسعه دهند پیشنهاد می‌دهد و نشان می‌دهد که در هر جایگاه شغلی چند جای خالی وجود دارد. همچنین درصد افرادی را که با موفقیت از جایگاه شغلی فعلی کارمند به جایگاه شغلی جدید منتقل شده‌اند، نشان می‌دهد. هوش مصنوعی، برای آن سرویس، به عنوان یک مربی شغلی عمل می‌کند و دوره‌ها و مسیرهای شغلی پیشنهادی را ارائه می‌دهد. همچنین به کارمندان کمک می‌کند تا در مسیر کسب مهارت‌های مورد نیاز برای یک جایگاه شغلی جدید، در مسیر درست باقی بمانند. با توجه به نگرانی‌های مداوم مبنی بر اینکه هوش مصنوعی مشاغل افراد را خواهد گرفت، موقعیت‌های شغلی آزاد در حال حاضر شاهد کاهش ۲۱ درصدی تقاضا بوده‌اند و این تا حدودی اطمینان‌بخش است که شاهد این باشیم که می‌توان از هوش مصنوعی برای کمک به افراد در یافتن شغل نیز استفاده کرد.

ادامه مطلب


1 ماه قبل - 83 بازدید

مطالعه‌ای جدید نشان می‌دهد که «هوش مصنوعی» می‌تواند به اندازه انسان‌ها بیش از حد مطمئن و جانبدارانه تصمیم بگیرد و تعصب و سوگیری داشته باشد. گرایش‌های غیرمنطقی معمولاً در سامانه‌های «هوش مصنوعی» ظاهر می‌شوند و مفید بودن آنها را زیر سوال می‌برند. اگرچه انسان‌ و «هوش مصنوعی» بسیار متفاوت فکر می‌کنند، تحقیقات جدید نشان داده است که «هوش مصنوعی» گاهی اوقات به اندازه انسان غیر منطقی تصمیم می‌گیرد. ال‌اس گزارش داده است که در نیمی از سناریوهای بررسی شده در یک مطالعه جدید، «چت‌جی‌پی‌تی»(ChatGPT) بسیاری از رایج‌ترین «سوگیری‌های»(biases) تصمیم‌گیری انسانی را از خود نشان داد. این نتایج، اولین یافته‌های مرتبط با رفتار «سوگیری شناختی»(cognitive biases) شناخته شده در روانشناسی انسان در «چت‌جی‌پی‌تی» است. نویسندگان این مقاله، از پنج موسسه دانشگاهی در سراسر کانادا و استرالیا، روی دو «مدل زبان بزرگ»(LLM) که «چت‌جی‌پی‌تی» را پشتیبانی می‌کنند، آزمایش کردند. آنها کشف کردند که «هوش مصنوعی» برخلاف سازگاری زیاد در استدلال خود در برابر نقص‌های انسانی مصون نیست. به گفته محققان، اینچنین سازگاری، هم اثرات مثبت و هم اثرات منفی دارد. «یانگ چن»(Yang Chen) نویسنده ارشد این مطالعه و استادیار مدیریت عملیات در «دانشکده بازرگانی ایوی»(Ivey) گفت: مدیران در استفاده از این ابزارها برای حل مشکلاتی با راه‌حل واضح و فرمولی مشخص، بیشترین منفعت را خواهند داشت، اما اگر کاربران از آنها برای تصمیمات ذهنی یا ترجیحی استفاده می‌کنند، بهتر است با احتیاط عمل کنند. این مطالعه «سوگیری‌های انسانی» شناخته شده از جمله «خطرگریزی»(risk aversion)، داشتن اعتماد به نفس بیش از حد و «اثر برخورداری»(endowment effect) را درنظر گرفت و آنها را در دستورالعمل‌های داده شده به «چت‌جی‌پی‌تی» اعمال کرد تا ببیند آیا در همان تله‌هایی که انسان‌ها گرفتار می‌شوند، قرار می‌گیرد یا خیر. «خطرگریزی» به معنای ترجیح پذیرش خطر کم‌تر و جلوگیری از خطر غیر ضروری است. «اثر برخورداری» نیز نوعی سوگیری عاطفی است که باعث می‌شود افراد چیزی را که دارند بسیار با ارزش‌تر از ارزش واقعی آن تصور کنند. تصمیم‌گیری‌های منطقی تنها در برخی موارد دانشمندان از «مدل‌های زبان بزرگ» سوالات فرضی برگرفته از روانشناسی سنتی و در زمینه تجارت در دنیای واقعی مانند مدیریت موجودی یا مذاکرات تأمین‌کنندگان پرسیدند. هدف آنها این بود متوجه شوند که آیا «هوش مصنوعی» «سوگیری‌های انسانی» را تقلید می‌کند یا خیر. آنها همچنین قصد داشتند که متوجه شوند آیا این مدل‌ها هنگام پرسیدن سوالات از حوزه‌های مختلف تجاری هم این کار را انجام می‌دهند یا خیر. یکی از «مدل‌های زبانی بزرگ» موسوم به «GPT-۴» در پاسخ به مسائلی با راه‌حل‌های ریاضی واضح، عملکرد بهتری نسبت به مدل دیگر با نام «GPT-۳.۵» داشت و اشتباهات کمتری در سناریوهای احتمال و منطق‌محور نشان داد، اما در شبیه‌سازی‌های ذهنی مانند انتخاب یک گزینه پرخطر برای دستیابی به سود، این چت‌بات اغلب ترجیحات غیرمنطقی را که انسان‌ها تمایل به نشان دادن آن دارند، انتخاب می‌کرد. محققان گفتند: «GPT-۴» حتی از انسان‌ها نیز تمایل قوی‌تری برای قطعیت نشان می‌دهد. این موضوع تمایل «هوش مصنوعی» به نتایج ایمن‌تر و قابل پیش‌بینی‌تر هنگام انجام وظایف مبهم اشاره دارد. مهمتر از همه، رفتارهای چت‌بات‌ها در واکنش به سوالات در مسائل روانشناختی انتزاعی و فرآیندهای تجاری عملیاتی، عمدتاً پایدار باقی ماند. این مطالعه نتیجه گرفت که «سوگیری‌های» نشان داده شده تنها محصول مثال‌های حفظ شده نیستند و  بخشی از نحوه استدلال «هوش مصنوعی» هستند. یکی از نتایج شگفت‌انگیز این مطالعه، تقویت خطاهای انسانی توسط «GPT-۴» است. دانشمندان گفتند: در «سوگیری تأییدی»(confirmation bias)، مدل «GPT-۴» همیشه پاسخ‌های سوگیرانه می‌داد. همچنین این مدل تمایل بیشتری به «مغالطه‌ دست داغ»(hot-hand) نسبت به «GPT ۳.۵» نشان داد. «مغالطه‌ دست داغ» یکی از «سوگیری‌های شناختی» است که به این باور غیرمنطقی اشاره دارد که وقتی ما در یک بازی وابسته به شانس، چند دست پشت سر هم می‌بریم یا می‌بازیم، به اصطلاح داغ یا سرد می‌شویم و تصور می‌کنیم که این برد یا باخت پیاپی قرار است همچنان ادامه پیدا کند. در حالی که همچنان بر اساس علم احتمالات، هیچ چیزی تغییر نکرده و شانس برد ما درست مانند دفعات قبل است. بر خلاف مدل‌ها، «چت‌جی‌پی‌تی» موفق شد از برخی از «سوگیری‌های» رایج انسانی از جمله «غفلت از نرخ پایه»(base-rate neglect) و «مغالطه‌ هزینه غرق‌شده»(Sunk Cost Fallacy) اجتناب کند. «غفلت از نرخ پایه» به معنای اعتماد و پذیرش موارد خاص و نادیده گرفتن آمار و اطلاعات موجود در هنگام استدلال کردن است. «مغالطه هزینه غرق‌شده» نیز زمانی رخ می‌دهد که شخص فقط به این دلیل به تصمیم خود پایبند است که پول قبلا خرج شده است و نمی‌خواهد احساس کند که آن را هدر داده است. به گفته پژوهشگران، «سوگیری‌های» شبه‌انسانی در «چت‌جی‌پی‌تی» از داده‌های آموزشی ناشی می‌شود که شامل «سوگیری‌های شناختی» و اکتشافی است که انسان‌ها از خود نشان می‌دهند. این گرایش‌ها در شرایط خاص، تقویت می‌شوند. این تقویت زمانی که انسان پاسخ‌های محتمل را به پاسخ‌های منطقی ترجیح می‌دهد، بیشتر می‌شود. وقتی «هوش مصنوعی» با وظایف مبهم‌تری روبرو می‌شود، بیشتر به سمت الگوهای استدلال انسانی تا منطق سامانه‌ای متمایل می‌شود. «چن» گفت: اگر یک تصمیم‌گیری دقیق و بی‌طرفانه می‌خواهید، از «چت‌جی‌پی‌تی» در حوزه‌هایی استفاده کنید که میزان اعتماد لازم در حد اعتماد به یک ماشین‌حساب باشد. با این حال، وقتی نتیجه بیشتر به ورودی‌های ذهنی یا استراتژیکی وابسته است، نظارت انسانی اهمیت بیشتری پیدا می‌کند. حتی اگر دستورالعمل‌های کاربر برای اصلاح «سوگیری‌های» شناخته شده باشد. «مینا آندیاپان»(Meena Andiappan) دانشیار منابع انسانی و مدیریت در «دانشگاه مک‌مستر»(McMaster) و نویسنده این مقاله می‌گوید: با «هوش مصنوعی» باید مانند کارمندی رفتار شود که تصمیمات مهمی می‌گیرد. این تصمیم‌گیری‌ها به نظارت و دستورالعمل‌های اخلاقی نیاز دارد. در غیر این صورت، ما به جای بهبود تفکر ناقص، آن را در معرض خطر خودکارسازی قرار می‌دهیم. این یافته‌ها که در مجله Manufacturing & Service Operations Management  منتشر شده است.

ادامه مطلب


2 ماه قبل - 438 بازدید

مدل هوش مصنوعی جدیدی که توسط پژوهشگران انگلیسی ابداع شده است، می‌تواند درک ما را درباره رشد جنین تغییر دهد. سایت علمی ساینمگ در گزارش تازه خود نوشته است که پژوهش جدید دانشگاه پلیموث نشان داده است که یک مدل جدید مبتنی بر هوش مصنوعی می‌تواند از ویدیو تشخیص دهد که در طول رشد جنین چه اتفاقی و در چه زمانی رخ می‌دهد. در ادامه آمده است که این پژوهش نشان می‌دهد که چگونه یک مدل یادگیری عمیق موسوم به «Dev-ResNet» می‌تواند وقوع رویدادهای کلیدی رشد از جمله عملکرد قلب، خزیدن و حتی مرگ را در حلزون‌های برکه‌ای شناسایی کند. نوآوری کلیدی در این پژوهش، یک مدل سه‌بعدی است که از تغییرات رخ‌داده بین فریم‌های ویدیو استفاده می‌کند و هوش مصنوعی را قادر می‌سازد تا از این ویژگی‌ها درس بگیرد. این روش برخلاف استفاده سنتی‌ از تصاویر ثابت است. استفاده از ویدیو به این معناست که  Dev-ResNet، ویژگی‌هایی را از اولین ضربان قلب یا خزیدن گرفته تا تشکیل پوسته یا تخم‌گذاری به طور قابل اعتماد شناسایی می‌کند و حساسیت‌ ویژگی‌های گوناگون را نسبت به دما نشان می‌دهد. اگرچه Dev-ResNet در جنین‌های حلزون برکه‌ای استفاده شده است اما پژوهشگران می‌گویند که این مدل می‌تواند کاربرد گسترده‌ای را در همه گونه‌ها داشته باشد. آن‌ها مستندات جامعی را برای اعمال Dev-ResNet در سیستم‌های متفاوت بیولوژیکی فراهم کرده‌اند. این روش را در آینده می‌توان برای کمک به تسریع درک چگونگی تأثیر تغییرات آب‌وهوایی و سایر عوامل بیرونی بر انسان و حیوانات استفاده کرد. زیاد ایبینی، دانشجوی مقطع دکتری دانشگاه پلیموث که Dev-ResNet را طراحی کرده و آموزش داده است، گفت: ترسیم رویدادهای رشد یا بررسی این که چه اتفاقی در زمان رشد اولیه یک حیوان رخ می‌دهد، بسیار چالش‌برانگیز اما در عین حال بسیار مهم است زیرا به ما کمک می‌کند تا تغییرات رخ‌داده را در زمان‌بندی رویداد بین گونه‌ها و محیط‌ها درک کنیم. مدل Dev-ResNet یک شبکه عصبی سه‌بعدی کوچک و کارآمد است که می‌تواند رویدادهای رشد را با استفاده از ویدئوها تشخیص دهد و به راحتی آموزش داده شود. تنها محدودیت‌های واقعی، در ایجاد داده‌ها برای آموزش دادن مدل یادگیری عمیق است. ما می‌دانیم که این مدل کار می‌کند. فقط باید داده‌های آموزشی مناسب را به آن ارائه دهید. وی افزود: ما می‌خواهیم جامعه علمی گسترده‌تری را به روش‌هایی مجهز کنیم که آن‌ها را قادر می‌سازند تا درک بهتری را از نحوه رشد یک گونه تحت تأثیر عوامل گوناگون داشته باشند. بدین ترتیب، می‌فهمیم که چگونه می‌توانیم از آنها محافظت کنیم. ما باور داریم که Dev-ResNet یک گام مهم در این مسیر است. دکتر اولی تیلز، پژوهشگر ارشد این پروژه گفت: این پژوهش در سطح فناوری اهمیت دارد اما برای پیشبرد نحوه درک ما از رشد ارگانیسم نیز مهم است. گروه اکوفیزیولوژی و توسعه دانشگاه پلیموث، بیش از ۲۰ سال در این حوزه سابقه پژوهش دارد. وی افزود: دستیابی به این نقطه عطف بدون کمک یادگیری عمیق امکان‌پذیر نبود. فکر کردن به اینکه این قابلیت جدید می‌تواند ما را برای بررسی حیوانات در پویاترین دوره زندگی آنها به کجا ببرد، هیجان‌انگیز است. این پژوهش در «Journal of Experimental Biology» به چاپ رسید.

ادامه مطلب


2 ماه قبل - 120 بازدید

رسانه‌های بین‌المللی گزارش داده‌اند که در مسابقات نیمه‌ماراتن «یی‌ژوانگ» در چین، ۲۱ ربات انسان‌نما با هزاران انسان رقابت کردند. خبرگزاری رویترز گزارش داده است که این ربات‌ها امروز (شنبه، ۳۰ حمل) در بجینگ مسیر ۲۱ کیلومتری را در کنار انسان‌ها دویدند. ربات‌ها در طول مسیر با مربیان انسانی همراه بودند و برخی از آن‌ها حتی نیاز به حمایت فیزیکی داشتند تا بتوانند به راه خود ادامه دهند. در ادامه آمده است که برخی از ربات‌ها کفش‌های ورزشی پوشیده بودند و یکی از آن‌ها دستکش بوکس به دست داشت و دیگری سربندی سرخ‌رنگ با نوشته‌ی چینی «محکوم به پیروزی» بر پیشانی بسته بود. خبرگزاری رویترز گزارش داده است که در نهایت، زمان رسیدن دوندگان انسان با ربات‌ها به خط پایان، بیش از یک‌ونیم ساعت تفاوت داشت. در گزارش رویترز آمده است مردی که برنده این رقابت‌ها شد، مسیر مسابقه را در یک ساعت و دو دقیقه طی کرد. اما ربات «تیانگونگ اولترا» که از میان ربات‌ها برنده شد، مسیر مسابقه را در دو ساعت و ۴۰ دقیقه طی کرد. در ادامه آمده است که این ربات ساخت مرکز نوآوری ربات انسان‌نمای بجینگ بود که ۴۳ درصد سهام آن مال دولت چین و باقی آن متعلق به شرکت‌های فناوری خصوصی است. همچنین خبرگزاری رویترز به نقل از تانگ جیان، مدیر ارشد فناوری این مرکز نوشته است: «عملکرد تیانگونگ اولترا به لطف پاهای بلند و الگوریتمی ویژه‌ بود که دویدن انسان‌ها در ماراتن را شبیه‌سازی می‌کرد.» وی در ادامه افزوده است که این رباط در طول مسابقه تنها سه‌بار نیاز به تعویض باطری داشت. او تاکید کرده است، با وجود این‌که تیانگونگ اولترا و برخی دیگر از ربات‌ها توانستند به خط پایان مسابقه برسند، اما شماری دیگر از آنان از همان ابتدا دچار مشکل شدند و نتوانستند به خط پایان برسند. همچنین دولت چین امیدوار است که با سرمایه‌گذاری در صنایع پیشرفته‌ای مانند رباتیک، محرک‌های جدیدی برای رشد اقتصادی خود ایجاد کند.

ادامه مطلب


2 ماه قبل - 443 بازدید

آیا وقتی از چت جی‌پی‌تی(ChatGPT) می‌خواهید برای شما نامه بنویسد، به او «لطفا» می‌گویید؟ در مورد گفتن «متشکرم» پس از نوشتن آن چطور؟ اگر فکر می‌کنید رفتار مودبانه با هوش مصنوعی عجیب است باید بدانید که یک نظرسنجی جدید وجود دارد که می‌تواند شما را متعجب کند. مشخص شده است که ۴۸ درصد از آمریکایی‌ها فکر می‌کنند، هوش مصنوعی شایسته این است که مودبانه با او صحبت شود، در حالی که مشخص شده نسل «زد Z» نسبت به سایرین با ربات‌ها مهربان‌تر هستند. نظرسنجی جدیدی که به تازگی توسط تاکر ریسرچ انجام شده است، نشان می‌دهد که تقریبا نیمی از آمریکایی‌ها معتقدند که رعایت ادب متداول را به دستیاران دیجیتالی خود بسط می‌دهند و نسل‌های جوان‌تر آن را رهبری می‌کنند. بیش از نیمی از نسل زد یا ۵۶ درصد می‌گویند که مودب بودن سبک پیش فرض آنها هنگام تعامل با هوش مصنوعی است. به نقل از اس‌اف، دو نفر از هر سه نفر(۶۸ درصد) وقتی صحبت از استفاده از رفتار با هوش مصنوعی و خدمات مشابه می‌شود، می‌گویند: این فقط روش من است. ۲۹ درصد از کاربرانی که خود را مؤدب توصیف می‌کنند، از این هم فراتر رفتند و اظهار داشتند که «هر کس سزاوار رفتار درست است، چه انسان باشد و چه غیر انسان. با این حال، این نظرسنجی همچنین شکاف نسلی را در آداب برخورد با هوش مصنوعی نشان داد. در حالی که بیش از نیمی از نسل Z و ۵۲ درصد از نسل هزاره می‌گویند که نسبت به هوش مصنوعی مودب هستند، این تعداد در بین نسل ایکس به ۴۴ درصد و برای نسل پر نوزاد به ۳۹ درصد کاهش یافته است. نسل زد به اولین نسل اجتماعی از جوانی گفته می‌شود که با دسترسی به اینترنت و فناوری دیجیتال قابل حمل رشد کرده‌اند و اعضای نسل زد، «بومی دیجیتال» لقب گرفته‌اند. نسل هزاره یا نسل ایگرگ به نسلی گفته می‌شود که پس از نسل ایکس و پیش از نسل زد متولد شده‌اند. به افرادی که متولد اواخر دهه ۱۹۷۰ تا اوایل دهه ۲۰۰۰ که برابر با شروع دهه پنجاه تا پایان دهه هفتاد در افغانستان است، گفته می‌شود. نسل پر نوزاد پیش از نسل ایکس هستند که از سال‌های ۱۹۴۶ تا ۱۹۶۴ میلادی(۱۳۲۵ تا ۱۳۴۳ در افغانستان) متولد شده‌اند. نکته قابل توجه این است که این مطالعه نشان داد که ۳۹ درصد از آمریکایی‌ها معتقدند که رفتار گذشته ما نسبت به هوش مصنوعی، الکسا، سیری و سایر موجودات رباتیک ممکن است در آینده مورد توجه قرار گیرد. این تصور حاکی از آگاهی روزافزون از پیامدهای بالقوه بلندمدت تعامل ما با هوش مصنوعی است. با این حال، همه در مورد نیاز به رعایت ادب با ربات‌ها متقاعد نشده‌اند. یک چهارم از پاسخ دهندگان رویکرد خود با چت‌بات‌ها را کاربردی‌تر توصیف کردند و بدون افزودن لطفا یا تشکر، درخواست و انتظار پاسخ داشتند. علاوه بر این، ۲۷ درصد با این جمله موافق بودند که مشکلی ندارد که با فناوری‌هایی مانند هوش مصنوعی و الکسا بد رفتار باشید و سر آنها فریاد بزنید زیرا آنها هیچ احساسی ندارند. این نظرسنجی همچنین شکاف جنسیتی را در نگرش نسبت به رعایت ادب در برابر هوش مصنوعی نشان داد. در حالی که مردان و زنان به طور مشابه موافق هستند که هوش مصنوعی شایسته رفتار مودبانه است اما مردان به طور قابل توجهی بیشتر احساس می‌کنند که بی ادبی یا فحش دادن به هوش مصنوعی قابل قبول است. این آمار شامل ۳۴ درصد از مردان در مقابل ۲۰ درصد از زنان می‌شد. اینکه آیا این روند بر توسعه هوش مصنوعی یا روابط ما با فناوری تأثیر می‌گذارد یا خیر، هنوز مشخص نیست، اما یک مورد واضح است: برای بسیاری از آمریکایی‌ها، رفتار خوب فراتر از تعاملات انسانی در حوزه دیجیتال است.

ادامه مطلب


2 ماه قبل - 115 بازدید

شاید اینکه چرا هوش مصنوعی نمی‌تواند رانندگی کند، پرسش بسیاری از مردم باشد. پاسخ این پرسش را باید در نوع پردازش اطلاعاتی که رانندگی به آن نیاز دارد و هوش مصنوعی در آن تبحر و تجربه ندارد، جستجو کرد. در حالی که بسیاری از افراد در سنین پایین و قبل از رسیدن به سن قانونی رانندگی را فرا می‌گیرند، هوش مصنوعی با وجود اینکه در حال حاضر حدود ۷۳ سال سن دارد، هنوز نمی‌تواند رانندگی کند. دلایل زیادی در این رابطه وجود دارد که چرا هوش مصنوعی قادر به رانندگی نیست. حسگرها در همه شرایط به اندازه کافی خوب نیستند. قدرت پردازشی مورد نیاز برای رانندگی بیشتر از آن است که حسگرها بتوانند آن را ارائه کنند و زمان پردازش آنها می‌تواند کندتر از مغز انسان باشد. این موضوع حتی در مورد استفاده از یک ابر رایانه نیز صادق است، چرا که به عنوان مثال هوش مصنوعی قادر به تصمیم‌گیری اخلاقی نیست. همچنین موانع فناورانه زیادی وجود دارد که مانع از حرکت خودروها با هوش مصنوعی در جاده‌ها می‌شود. این در حالی است که بزرگترین مانع، حسگرها یا فناوری یا حتی مسائل حقوقی یا اخلاقی نیست، بلکه این واقعیت است که ما واقعاً نمی‌دانیم هوش مصنوعی چگونه فکر می‌کند. یک مطالعه اخیر توسط محققان شرکت آنتروپیک نشان داد که چت‌بات‌های هوش مصنوعی می‌توانند دچار توهم شوند، در انجام محاسبات اولیه ریاضیات خوب نیستند و اغلب در مورد استدلال خود دروغ می‌گویند. بنابراین به نظر می‌رسد ما هیچ چیز زیادی در مورد نحوه عملکرد هوش مصنوعی نمی‌دانیم. همانند مغز انسان، تئوری‌های زیادی در مورد نحوه عملکرد هوش مصنوعی وجود دارد. محققان سعی کردند این موضوع را مورد آزمایش قرار دهند. آنها عبارت ریاضی «۵۷+۹۲» را در ChatGPT وارد کردند و عدد ۱۴۹ را دریافت کردند که درست است، اما وقتی از آن پرسیدند «چگونه به این پاسخ رسیدی؟» هوش مصنوعی کتاب درسی استاندارد را نشان داد و محققان سپس صفرها را به عبارت ریاضی اضافه کردند و نتایج را ترکیب کردند که موجب شد ChatGPT به اشتباه بیفتد. هوش مصنوعی در واقع یک رایانه است و مانند هر ماشین‌حساب پیشرفته‌ای به صورت دیجیتالی(۰ و ۱) کار می‌کند و مجموع عبارت را نشان می‌دهد. به عنوان مثال عبارت فوق را به شکل ۱۱۱۰۰۱ (۵۷) + ۱۰۱۱۱۰۰ (۹۲) = ۱۰۰۱۰۱۰۱ (۱۴۹) محاسبه می‌کند. بنابراین هوش مصنوعی یک رایانه است و اعمال ریاضی را به همین شکل انجام می‌دهد. محققان وقتی از ChatGPT پرسیدند که چگونه اعمال ریاضی را انجام می‌دهد، توضیح کوتاهی از تبدیل اعداد به زبان باینری تا حصول نتیجه، مشابه آنچه در بالا توضیح داده شد، داد. البته همه چیز برای هوش مصنوعی از سال ۱۹۹۴ تاکنون بسیار تغییر کرده است، اما هنوز به اندازه‌ای نرسیده که هوش مصنوعی را قادر به رانندگی و توانایی برابر با انسان کند. شرکت «آنتروپیک» در حال آزمایش یک مدل هوش مصنوعی به نام کلاد(Claude) است که مانند ChatGPT و سایر چت‌بات‌های هوش مصنوعی شبیه به آنچه بسیاری از ما روزانه از طریق زبان طبیعی با آن ارتباط برقرار می‌کنیم، است. آنها دریافتند که «کلاد» اغلب منطقی را برای تطبیق با یک روایت از پیش ساخته به منظور دلجویی یا جلب رضایت شخصی که با او در حال تعامل است، ایجاد می‌کند. شبیه به روشی که سیاستمداران در مورد موضوعی صحبت می‌کنند و به نظر می‌رسد که با کسی موافق هستند، اما در حقیقت اینطور نیست. این موضوع را در رانندگی تصور کنید. در حین رانندگی، ما در هر دقیقه هزاران تصمیم می‌گیریم که می‌تواند به معنای واقعی کلمه نه تنها زندگی ما، بلکه زندگی اطرافیانمان را نیز تحت تاثیر قرار دهد. ما از حواس‌پرتی‌ها در هنگام رانندگی مطلعیم و می‌دانیم که حتی چند لحظه بی‌توجهی می‌تواند به نتایج وحشتناکی منجر شود. حالا در نظر بگیرید که چه اتفاقی می‌افتد اگر هوش مصنوعی یک داده خطرناک را توجیه کند یا نتواند به اندازه کافی سریع تصمیم بگیرد. نکته این است که در حالی که فناوری اطلاع‌رسانی هوش مصنوعی به کار زیادی برای رسیدن به سطح یک راننده انسانی نیاز دارد، خود مدل یادگیری نیز باید به آن برسد. هوش مصنوعی اکنون در دهه ۷۰ زندگی خود است، اما فقط می‌تواند در سطح شناختی یک کودک عمل کند و ما حتی نمی‌دانیم که چگونه این کار را انجام می‌دهد. وسایل نقلیه امروزی دارای ده‌ها حسگر، صدها متر سیم‌کشی، سه یا چند رایانه داخلی، اتصال بی‌سیم و وای-فای، GPS و بسیاری از ابزارهای دیگر هستند. هیچ کدام از اینها نمی‌توانند خودرو را برانند. حتی مدل‌هایی که دارای فناوری نیمه‌خودران یا خودران هستند نیز نیاز به توجه کامل و نظارت انسان دارند. ما انسان‌ها یک مزیت متمایز نسبت به هوش مصنوعی داریم و آن این است که ما با سیستم‌های حسی بسیار قوی متولد شده‌ایم که با گذر از هزاران سال فرگشت(تکامل) که ما را در استفاده از آنها بسیار متبحر کرده است، در قالب‌های چندوجهی کار می‌کنند. ما مانند بسیاری از حیوانات در جمع‌آوری ورودی‌های متعدد و عکس‌العمل بر این اساس برتر هستیم. با توسعه فناوری‌های حسی، هوش مصنوعی ممکن است خود را به عنوان یک محرک برتر نشان دهد، اما نمی‌توانیم این را با اطمینان بگوییم، زیرا هوش مصنوعی آنطور که ما فکر می‌کنیم، نمی‌اندیشد. هوش مصنوعی در شناخت و یادگیری ورودی چند حسی چندان خوب نیست. این یکی از بزرگترین شاهکارهای طبیعت است، اما تاکنون ما نتوانستیم آن را به ماشین‌ها منتقل کنیم. هوش مصنوعی همچنین در تصمیم‌گیری سریع با داده‌های کمی که در دست دارد، چندان خود را ثابت نکرده است. هوش مصنوعی شهودی نیست، در حالی که ما اغلب به صورت شهودی تصمیم می‌گیریم. این بخش بزرگی از چیزی است که ما را نه تنها به نوآوری، بلکه برای سازگاری و غلبه بر آن سوق می‌دهد. با این حال، خبر خوب برای طرفداران وسایل نقلیه خودران این است که چون ما تفکرات هوش مصنوعی را به خوبی درک نمی‌کنیم، می‌تواند کارهایی را انجام دهد که انتظارش را نداریم. این فناوری می‌تواند بصری شود و قادر به مدیریت چندین ورودی به طور همزمان باشد. به جرات می‌توان گفت که اگر این کار را انجام دهد، احتمالاً این کار را در زمان بسیار کوتاه‌تری نسبت به ما انسان‌ها انجام دهد. امیدواریم که حداقل تا آن زمان متوجه شده باشیم که چگونه هوش مصنوعی را راستگو کنیم.

ادامه مطلب