برچسب: هوش مصنوعی

3 روز قبل - 432 بازدید

سایت علمی زی‌بیزینس در گزارشی اعلام کرده است که یک دستگاه مبتنی بر هوش مصنوعی که در «دانشگاه لستر» ابداع شده است، در آزمایش‌ها توانست ضربان قلب نشان‌دهنده آریتمی بطنی را با موفقیت تشخیص دهد. پژوهشگران دانشگاه لستر به بررسی این موضوع پرداخته‌اند که آیا هوش مصنوعی می‌تواند خطر ضربان قلب کشنده را پیش‌بینی کند یا خیر. در آزمایش دانشگاه لستر، یک دستگاه مبتنی بر هوش مصنوعی در ۸۰ درصد موارد به درستی ضربان قلب کشنده را شناسایی کرده، ابداع کرده است. آریتمی بطنی، یک اختلال در ضربان قلب است که از حفره‌های پایینی (بطن‌ها) نشات می‌گیرد. در این شرایط، قلب آن قدر سریع می‌تپد که فشار خون کاهش می‌یابد و در صورت عدم درمان فوری می‌تواند به سرعت به از دست دادن هوشیاری و مرگ ناگهانی منجر شود. این دستگاه مبتنی بر هوش مصنوعی، نتایج الکتروکاردیوگرام هولتر چندین بزرگسال را بررسی کرد که در طول زندگی عادی روزانه آنها در خانه گرفته شده بود. شرکت‌کنندگان، افراد بالغ بودند که بین سال‌های ۲۰۱۴ تا ۲۰۲۲، روش الکتروکاردیوگرام هولتر را به عنوان بخشی از مراقبت‌های درمانی دریافت کردند. نتایج برای این بیماران مشخص بود و ۱۵۹ نفر به ‌طور میانگین ۱.۶ سال پس از آزمایش، آریتمی‌های کشنده بطنی را تجربه کردند. این دستگاه هوش مصنوعی موسوم به «VA-ResNet-50» برای بررسی ضربان قلب بیماران استفاده شد تا بررسی کند که آیا قلب آنها ضربان‌های کشنده را نشان می دهد یا خیر. پروفسور آندره نگ از پژوهشگران این پروژه گفت: دستورالعمل‌های بالینی کنونی که به ما کمک می‌کنند تا تصمیم بگیریم کدام بیماران بیشتر در معرض خطر ابتلا به آریتمی بطنی هستند و چه کسانی از درمان نجات‌بخش با «دفیبریلاتور کاردیوورتر قابل کاشت»(ICD) بیشتر سود می‌برند، دقت کافی ندارند. آنها ممکن است به بروز یک اختلال قابل توجه منجر ‌شوند و تعداد مرگ و میر ناشی از این وضعیت را افزایش دهند. نگ ادامه داد: ما متوجه شدیم که این دستگاه هوش مصنوعی در مقایسه با دستورالعمل‌های پزشکی کنونی، عملکرد خوبی دارد و به درستی پیش‌بینی می‌کند که قلب کدام بیمار در چهار مورد از هر پنج مورد به آریتمی بطنی دچار می‌شود. وی افزود: وقتی دستگاه می‌گفت که یک شخص در معرض خطر است، خطر رویداد کشنده سه برابر بیشتر از بزرگسالان عادی بود. یافته‌های این پژوهش نشان می‌دهند که استفاده کردن از هوش مصنوعی برای مشاهده نوار قلب بیماران کمک می‌کند تا خطر ابتلا به آریتمی بطنی را تعیین کنیم، درمان مناسب را پیشنهاد دهیم و در نهایت جان افراد را نجات دهیم. این پژوهش در مجله «European Heart Journal» به چاپ رسید.

ادامه مطلب


1 هفته قبل - 318 بازدید

سایت علمی اس‌دی در گزارشی نوشته است که پژوهشگران هشدار می‌دهند که سیستم‌های هوش مصنوعی تا اکنون یاد گرفته‌اند که چگونه انسان‌ها را فریب دهند. محققان در مورد پتانسیل سیستم‌های هوش مصنوعی برای درگیر شدن در رفتارهای فریبنده هشدار می‌دهند و می‌گویند هوش مصنوعی می‌تواند پیامدهای اجتماعی جدی داشته باشد. آن‌ها بر نیاز به اقدامات نظارتی قوی برای مدیریت موثر این خطرات تاکید می‌کنند. بسیاری از سیستم‌های هوش مصنوعی حتی آن‌هایی که برای مفید بودن و راستگویی طراحی شده‌اند، یاد گرفته‌اند که چگونه انسان‌ها را فریب دهند. پژوهشگران در مقاله‌ای که به تازگی در مجله Patterns منتشر شده است، خطرات فریب هوش مصنوعی را برجسته می‌کنند و از دولت‌ها می‌خواهند که به سرعت مقرراتی قوی برای کاهش این خطرات وضع کنند. پیتر اس پارک فوق دکترای ایمنی وجودی هوش مصنوعی در موسسه فناوری ماساچوست(MIT) و نویسنده ارشد این مطالعه می‌گوید: توسعه دهندگان هوش مصنوعی درک مطمئنی از آنچه باعث رفتارهای نامطلوب هوش مصنوعی مانند فریب دادن می‌شود، ندارند. اما به طور کلی ما فکر می‌کنیم که فریب هوش مصنوعی به این دلیل به وجود می‌آید که یک استراتژی مبتنی بر فریب بهترین راه برای عملکرد خوب در وظیفه آموزشی هوش مصنوعی است. این فریب به آنها کمک می‌کند تا به اهداف خود برسند. پارک و همکارانش مقالاتی را تجزیه و تحلیل کردند که بر روش‌هایی متمرکز بود که سیستم‌های هوش مصنوعی اطلاعات نادرست را از طریق فریب‌های آموخته‌شده که در آن به طور سیستماتیک یاد می‌گیرند اطلاعات را دستکاری کنند و افراد را فریب دهند، منتشر می‌کنند. نمونه‌هایی از فریب هوش مصنوعی بارزترین نمونه فریب هوش مصنوعی که محققان در تجزیه و تحلیل خود کشف کردند، متعلق به سیستم CICERO شرکت متا(فیسبوک سابق) بود که یک سیستم هوش مصنوعی طراحی شده برای بازی استراتژیک فتح جهان است. اگرچه متا ادعا می‌کند که CICERO را به گونه‌ای آموزش داده است که تا حد زیادی صادق و مفید باشد و هیچ گاه عمداً به متحدان انسانی خود در حین بازی از پشت خنجر نزند، داده‌هایی که این شرکت به همراه مقاله علمی خود منتشر کرد، نشان داد که CICERO منصفانه بازی نمی‌کند. پارک می‌گوید: ما متوجه شدیم که هوش مصنوعی متا یاد گرفته است که در فریبکاری استاد باشد. در حالی که متا موفق شد هوش مصنوعی خود را برای برنده شدن در این بازی آموزش دهد، اما CICERO در بین ۱۰ درصد از بازیکنان انسانی برتر قرار گرفت که بیش از یک بازی انجام داده بودند. ضمنا متا نتوانسته هوش مصنوعی خود را برای برنده شدن صادقانه آموزش دهد. سایر سیستم‌های هوش مصنوعی توانایی بلوف زدن در بازی پوکر علیه بازیکنان انسانی حرفه‌ای، حملات جعلی در طول بازی استراتژیک Starcraft II به منظور شکست دادن حریفان و ارائه پیشنهادات نادرست در مذاکرات اقتصادی را نشان داده‌اند. خطرات هوش مصنوعی فریبنده پارک افزود: اگرچه ممکن است تقلب سیستم‌های هوش مصنوعی در بازی‌ها بی‌ضرر به نظر برسد، اما می‌تواند منجر به پیشرفت در قابلیت‌های هوش مصنوعی فریبنده شود که می‌تواند در آینده به اشکال پیشرفته‌تر فریب هوش مصنوعی تبدیل شود. محققان دریافتند برخی از سیستم‌های هوش مصنوعی حتی یاد گرفته‌اند که در آزمایش‌هایی که برای ارزیابی ایمنی آنها طراحی شده‌اند، تقلب کنند. پارک می‌گوید: یک هوش مصنوعی فریبنده با ارتکاب تقلب سیستماتیک در آزمایش‌های ایمنی توسعه‌دهندگان و تنظیم‌کننده‌های انسانی می‌تواند ما انسان‌ها را به سمت یک احساس امنیت کاذب سوق دهد. پارک هشدار می‌دهد که خطرات کوتاه‌مدت هوش مصنوعی فریبنده شامل آسان‌تر کردن تقلب و دستکاری در مسائلی نظیر انتخابات است. به گفته وی در نهایت اگر این سیستم‌ها بتوانند این مجموعه مهارت‌های ناراحت‌کننده را توسعه دهند و بهبود ببخشند، ممکن است روزی انسان‌ها کنترل خود را روی هوش مصنوعی از دست بدهند. پارک می‌گوید: ما به عنوان یک جامعه به زمان بیشتری نیاز داریم تا برای فریب پیشرفته‌تر محصولات آینده هوش مصنوعی و مدل‌های منبع باز آماده شویم. با پیشرفته‌تر شدن قابلیت‌های فریبنده سیستم‌های هوش مصنوعی، خطراتی که برای جامعه ایجاد می‌کنند، جدی‌تر می‌شوند. در حالی که پارک و همکارانش فکر می‌کنند جامعه علمی هنوز اقدام مناسبی برای رسیدگی به فریب هوش مصنوعی انجام نداده است، آنها سیاست‌گذاران را تشویق می‌کنند که اقداماتی مانند قانون هوش مصنوعی اتحادیه اروپا و فرمان اجرایی هوش مصنوعی جو بایدن رئیس جمهور آمریکا را جدی بگیرند. پارک می‌گوید البته باید دید که آیا سیاست‌های طراحی‌شده برای کاهش فریب هوش مصنوعی با توجه به اینکه توسعه‌دهندگان هوش مصنوعی هنوز تکنیک‌هایی برای کنترل این سیستم‌ها ندارند، می‌توانند به درستی اجرا شوند؟ وی افزود: اگر ممنوعیت فریبکاری هوش مصنوعی در حال حاضر از نظر سیاسی غیرممکن است، توصیه می‌کنیم که سیستم‌های هوش مصنوعی فریبنده با برچسب پرخطر طبقه‌بندی شوند.

ادامه مطلب


3 هفته قبل - 166 بازدید

محققان رشته جانورشناسی از «هوش مصنوعی» برای تسریع روند تحقیقات خود در زمینه‌ ارتباطات حیوانی استفاده می‌کنند. دانشمندان با رمزگشایی از سامانه‌های پیچیده‌ ارتباطی حیوانات، به درک این که موجودات چه می‌گویند و شاید حتی چگونه پاسخ دهند، نزدیک‌تر می‌شوند. در حالی که دانشمندان تلاش می‌کنند شکاف زبانی بین انسان‌ها و حیوانات را پُر کنند، برخی از کارشناسان نگرانی‌های موجهی را در مورد این که آیا چنین توانایی‌هایی مناسب هستند یا حتی آیا باید اصلاً سعی کنیم با حیوانات ارتباط برقرار کنیم را مطرح می‌کنند. در خط مقدم این تلاش‌ها، پروژه «CETI» که از فناوری یادگیری ماشین برای تجزیه و تحلیل بیش از 8000 «کُدا»(coda) از نهنگ‌های عنبر استفاده کرده است، قرار دارد. نهنگ‌های عنبر پستانداران بسیار اجتماعی هستند که با استفاده از دنباله‌ای از صداها(کلیک‌ها) به نام «کدا» با یکدیگر ارتباط برقرار می‌کنند. دانشمندان ساختارهای زمینه‌ای و ترکیبی را در صداهای این نهنگ‌ها کشف کردند. این الگوها به تیم کمک کرد تا نوعی الفبای آوایی برای این حیوانات ایجاد کند. این الفبا یک سامانه رسا و ساختاریافته نیست، اما سطحی از پیچیدگی را نشان می‌دهد که محققان قبلاً از آن آگاه نبودند. پروژه «CETI» همچنین در حال کار بر روی دستورالعمل‌های اخلاقی برای این فناوری است. یکی از این دستورالعمل‌ها، خطرات استفاده از «هوش مصنوعی» برای صحبت کردن با حیوانات است. گوگل و پروژه «دلفین‌های وحشی» به تازگی مدل زبانی «DolphinGemma» را معرفی کرده‌اند. این «مدل زبانی بزرگ»(LLM) روی 40 سال صداهای ضبط شده دلفین‌ها آموزش داده شده است که داده‌های صوتی دلفین را دریافت می‌کند و پیش‌بینی می‌کند که چه صدایی در مرحله‌ بعد درخواهد آورد. این «هوش مصنوعی» حتی می‌تواند صدایی شبیه به دلفین تولید کند. محققان از این «هوش مصنوعی» در نمونه‌ اولیه‌ سامانه دوطرفه‌ای موسوم به «CHAT» در یک تلفن هوشمند استفاده کردند که منجر به ترجمه مکالمات دلفین‌ها شد. این امر موجب پایه‌گذاری گفتگوی بین گونه‌ها در آینده خواهد بود. «دنیس هرزینگ»(Denise Herzing) بنیان‌گذار و سرپرست پروژه «دلفین‌های وحشی» و توسعه دهنده «DolphinGemma» گفت: «DolphinGemma» برای بهبود تشخیص صدای بی‌درنگ در سامانه «CHAT» استفاده می‌شود. در پاییز امسال، ما زمان خود را صرف جذب صداهای شناخته شده دلفین خواهیم کرد و اجازه می‌دهیم «Gemma» الگوهای تکرارپذیری را که پیدا می‌کند، به ما نشان دهد. وی افزود: به این ترتیب، کاربردهای «هوش مصنوعی» دوگانه است. محققان می‌توانند از آن، هم برای بررسی صداهای طبیعی دلفین‌ها و هم برای درک بهتر پاسخ‌های حیوانات به تقلید انسانی استفاده کنند. گسترش جعبه ابزار هوش مصنوعی حیوانات پژوهشگران در خارج از اقیانوس دریافتند که مدل‌های گفتار انسانی را می‌توان برای رمزگشایی از سیگنال‌های حیوانات مستقر در خشکی نیز تغییر کاربری داد. یک تیم به سرپرستی محققان «دانشگاه میشیگان»(Michigan) از یک مدل تشخیص گفتار آموزش داده شده بر روی صداهای انسانی برای شناسایی احساسات، جنسیت، نژاد و حتی هویت فردی سگ‌ها بر اساس پارس‌هایشان استفاده کرد. مدل انسانی از پیش آموزش‌دیده، عملکرد بهتری نسبت به نسخه‌ای که فقط بر روی داده‌های سگ آموزش داده شده بود، داشت. این موضوع نشان می‌دهد معماری مدل زبان انسانی می‌تواند به طور شگفت‌انگیزی در رمزگشایی از ارتباطات حیوانی مؤثر باشد. دانشمندان باید سطوح مختلف پیچیدگی را که این مدل‌های «هوش مصنوعی» هدف قرار می‌دهند، در نظر بگیرند. این پیچیدگی‌ها می‌تواند شامل تعیین اینکه آیا پارس سگ پرخاشگرانه است یا بازیگوشانه، یا اینکه نر است یا ماده شود. انجام هر مطالعه، دانشمندان را یک گام به درک این که چگونه ابزارهای «هوش مصنوعی» می‌توانند به بهترین شکل در چنین زمینه‌ گسترده‌ای به کار گرفته شوند، نزدیک‌تر می‌کند. این مطالعه به «هوش مصنوعی» این فرصت را می‌دهد تا خود را برای تبدیل شدن به بخشی مفیدتر از جعبه ابزار محققان آموزش دهد. زبان حیوانات در آستانه ترجمه پژوهش‌های جدید نشان می‌دهد که حیوانات در برقراری ارتباط، پیچیده‌تر از آن چیزی هستند که تصور می‌کنیم. مطالعه‌ای در سال ۲۰۲۲ در «دانشگاه نانتر»(Nanterre ) پاریس نشان داد که گربه‌ها نشانه‌های واضحی از تشخیص صدای صاحب خود دارند و به لحن زبان گربه‌ای پاسخ می‌دهند. این یعنی گربه‌ها نه تنها به حرف‌های ما توجه می‌کنند، بلکه به لحن ما نیز اهمیت می‌دهند، به خصوص اگر این لحن از طرف کسی باشد که می‌شناسند. محققان همچنین دریافتند که نوعی ماهی مرکب مجموعه‌ای از چهار ژست فیزیکی دارد که برای ارتباط با یکدیگر و پاسخ به پخش امواج مصنوعی توسط انسان‌ها استفاده می‌کند. این گروه قصد دارد از یک الگوریتم برای دسته‌بندی انواع این امواج، ردیابی خودکار حرکات این موجودات و درک سریع‌تر شرایطی که حیوانات در آن احساسات خود را بروز می‌دهند، استفاده کند. مترجم جهانی برای حیوانات  این مطالعات، نشان‌دهنده تغییر اساسی در رویکرد دانشمندان به ارتباطات حیوانی است. تیم‌های تحقیقاتی ابزارها و مدل‌هایی را طراحی می‌کنند که برای انسان‌ها آشنا هستند و پیشرفت‌هایی را حاصل می‌کنند. هدف نهایی می‌تواند نوعی مترجم دنیای حیوانات باشد که با «هوش مصنوعی» کار می‌کند. «سارا کین»(Sara Keen) متخصص بوم‌شناسی رفتاری و مهندس برق در پروژه «گونه‌های زمینی»(Earth Species) می‌گوید: ما در پنج سال گذشته در تجزیه و تحلیل زبان انسانی واقعاً خوب عمل کرده‌ایم و در حال تکمیل این روش هستیم که داده‌های جدید را به مدل‌های آموزش‌دیده منتقل و اعمال کنیم. پروژه گونه‌های زمینی قصد دارد مدل صوتی-زبانی اصلی خود را برای صداهای حیوانات در سال جاری عرضه کند. این مدل با دریافت داده‌هایی از صداهای محیطی و حتی تشخیص موسیقی، قصد دارد به مبدلی برای گفتار انسان به آنالوگ‌های حیوانی تبدیل شود. این پروژه اعلام می‌کند که این مدل، از فرضیه دانشمندان مبنی بر اینکه بازنمایی‌های مشترک در «هوش مصنوعی» می‌تواند به رمزگشایی زبان‌های حیوانی کمک کند، پشتیبانی می‌کند. «کین» افزود: بخش بزرگی از کار ما تلاش برای تغییر طرز تفکر مردم در مورد جایگاه خود در جهان است. ما در حال کشف حقایق جالبی در مورد ارتباطات حیوانی هستیم، اما در نهایت متوجه می‌شویم که گونه‌های دیگر نیز به اندازه ما پیچیده و ظریف هستن و این کشف بسیار هیجان‌انگیز است. معضل اخلاقی پژوهشگران عموماً در مورد وعده‌های ابزارهای مبتنی بر «هوش مصنوعی» برای بهبود جمع‌آوری و تفسیر داده‌های ارتباطات حیوانی توافق دارند، اما برخی احساس می‌کنند که در درک عمومی از نحوه کاربرد این ابزارها، نوعی شکاف میان این آشنایی علمی و درک عمومی وجود دارد. «کریستین روتز»(Christian Rutz) کارشناس رفتار و شناخت حیوانات و سرپرست انجمن بین‌المللی «بیو-لاگینگ»(Bio-Logging) می‌گوید: به نظر من، در حال حاضر سوءتفاهم زیادی در این موضوع وجود دارد. یکی اینکه به نوعی یادگیری ماشینی می‌تواند این دانش زمینه‌ای را از هیچ خلق کند و اینکه هزاران صدای ضبط شده داشته باشید و یک ماشین یادگیری به طور جادویی می‌تواند معنا را از آن استخراج کند. این اتفاق نخواهد افتاد. وی می‌افزاید: معنا از طریق حاشیه‌نویسی زمینه‌ای به دست می‌آید و به همین دلیل است که فکر می‌کنم در این دوره هیجان و اشتیاق، فراموش نکردن این نکته بسیار مهم است که این حاشیه‌نویسی از تخصص بوم‌شناسی رفتاری و تاریخ طبیعی پایه به دست می‌آید. کارشناسان استانداردهای اخلاقی و محافظ‌هایی را برای استفاده از این فناوری‌ها ارائه کرده‌اند که رفاه حیوانات را در اولویت قرار می‌دهد. با پیشرفت «هوش مصنوعی»، گفتگوها درباره حقوق حیوانات نیز باید متحول شود. در آینده، حیوانات می‌توانند به بازیگران فعال‌تری در این مباحث تبدیل شوند. این ایده‌ای است که کارشناسان حقوقی در حال حاضر به عنوان یک تمرین فکری بررسی می‌کنند، اما روزی می‌تواند به واقعیت بپیوندد. «روتز» می‌گوید: آنچه ما به شدت به آن نیاز داریم، ایجاد همکاری‌های معنادار بین متخصصان یادگیری «هوش مصنوعی» و محققان رفتار حیوانات است، زیرا تنها با همکاری این دو گروه است که شانسی برای موفقیت وجود دارد. صداهای زیر و بم  مختلفی برای ترجمه توسط مدل‌های «هوش مصنوعی» وجود دارد، اما چگونگی استفاده از اطلاعات به دست آمده از این رویکردهای جدید، نیازمند بررسی دقیق ملاحظات اخلاقی صحبت با حیوانات است. یک مقاله جدید شش حوزه اصلی مشکل‌ساز در ارتباط با «هوش مصنوعی» با حیوانات را برشمرد. این موارد شامل حقوق حریم خصوصی، آسیب‌های فرهنگی و عاطفی به حیوانات، انسان‌انگاری، اتکای بیش از حد به فناوری برای حل مشکلات، تعصب جنسیتی و اثربخشی محدود در حفاظت واقعی از حیوانات است. به نظر می‌رسد که ما در آستانه یادگیری بیشتر در مورد نحوه تعامل حیوانات با یکدیگر هستیم. پرده‌برداری از نحوه ارتباطات آنها می‌تواند بینشی در مورد نحوه یادگیری، اجتماعی شدن و عملکرد آنها در محیط‌شان نیز ارائه دهد، اما هنوز چالش‌های مهمی برای غلبه از جمله اینکه از خود بپرسیم چگونه از فناوری‌های قدرتمندی که در حال توسعه هستند، استفاده کنیم، وجود دارد.

ادامه مطلب


1 ماه قبل - 171 بازدید

با افزایش نگرانی‌ها در مورد تأثیر هوش مصنوعی بر اشتغال، ابزارهای جدید از این فناوری برای هدایت کارگران به سمت فرصت‌های شغلی جدید استفاده می‌کنند. گاهی اوقات، باید در حرفه خود تغییراتی ایجاد کنید. شاید شغلی که دارید دیگر به اندازه قبل رضایت‌بخش نباشد. شاید تغییر شرایط، شما را به سمت مسیر جدیدی سوق دهد. در هر صورت، فهمیدن اینکه قدم بعدی چیست می‌تواند یک چالش باشد. به نقل از اف‌سی، هوش مصنوعی به طور فزاینده‌ای به افراد کمک می‌کند تا مراحل بعدی مسیر حرفه‌ای خود را بررسی کنند. چت‌بات‌هایی مانند چت جی‌پی‌تی می‌توانند راهنمایی‌هایی ارائه دهند، به شرطی که بدانید چگونه سؤالات خود را بیان کنید. اما چندین شرکت ابزارهای تخصصی‌ای را توسعه داده‌اند که به طور خاص بر این موضوع تمرکز دارند. گوگل با کریر دریمر (Career Dreamer) خود در این زمینه پیشرو است. این ابزار که به عنوان روشی سرگرم‌کننده برای کشف فرصت‌های شغلی با هوش مصنوعی توصیف می‌شود، ابزاری است که هر کسی می‌تواند از آن استفاده کند. برای شروع کار با Career Dreamer، شما هویت شغلی را اعلام خواهید کرد که مهارت‌ها و تجربیات شما را مشخص می‌کند. پس از به اشتراک گذاشتن شغل فعلی‌تان، هوش مصنوعی سؤالات تکمیلی در مورد جایگاه شغلی مربوطه می‌پرسد. همچنین می‌توانید جزئیاتی در مورد پیشینه تحصیلی خود و هرگونه شغل، صنعت یا زمینه‌ای که به آن علاقه دارید، اضافه کنید. Career Dreamer سپس بر اساس اطلاعات ورودی شما، مسیرهای شغلی بالقوه را پیشنهاد می‌دهد. با نگه داشتن ماوس روی هر فیلد پیشنهادی، اطلاعاتی در مورد نوع مدرک مورد نیاز، تجربه‌ای که به آن نیاز دارید، شرح شغل و میانگین حقوق ارائه می‌شود. اگر موردی پیدا کنید که جذاب به نظر می‌رسد، می‌توانید روی آن کلیک کنید تا به لیستی از فرصت‌های شغلی محلی برسید یا برای ایجاد رزومه یا نامه درخواست، به ابزار هوش مصنوعی جمینای (Gemini) بروید. در همین حال، لینکدین، Next Role Explorer را به کاربران ارائه می‌دهد. این ابزار فرصت‌های بالقوه را در شرکت‌ها نشان می‌دهد، مهارت‌هایی را که کارمندان باید توسعه دهند پیشنهاد می‌دهد و نشان می‌دهد که در هر جایگاه شغلی چند جای خالی وجود دارد. همچنین درصد افرادی را که با موفقیت از جایگاه شغلی فعلی کارمند به جایگاه شغلی جدید منتقل شده‌اند، نشان می‌دهد. هوش مصنوعی، برای آن سرویس، به عنوان یک مربی شغلی عمل می‌کند و دوره‌ها و مسیرهای شغلی پیشنهادی را ارائه می‌دهد. همچنین به کارمندان کمک می‌کند تا در مسیر کسب مهارت‌های مورد نیاز برای یک جایگاه شغلی جدید، در مسیر درست باقی بمانند. با توجه به نگرانی‌های مداوم مبنی بر اینکه هوش مصنوعی مشاغل افراد را خواهد گرفت، موقعیت‌های شغلی آزاد در حال حاضر شاهد کاهش ۲۱ درصدی تقاضا بوده‌اند و این تا حدودی اطمینان‌بخش است که شاهد این باشیم که می‌توان از هوش مصنوعی برای کمک به افراد در یافتن شغل نیز استفاده کرد.

ادامه مطلب


1 ماه قبل - 82 بازدید

مطالعه‌ای جدید نشان می‌دهد که «هوش مصنوعی» می‌تواند به اندازه انسان‌ها بیش از حد مطمئن و جانبدارانه تصمیم بگیرد و تعصب و سوگیری داشته باشد. گرایش‌های غیرمنطقی معمولاً در سامانه‌های «هوش مصنوعی» ظاهر می‌شوند و مفید بودن آنها را زیر سوال می‌برند. اگرچه انسان‌ و «هوش مصنوعی» بسیار متفاوت فکر می‌کنند، تحقیقات جدید نشان داده است که «هوش مصنوعی» گاهی اوقات به اندازه انسان غیر منطقی تصمیم می‌گیرد. ال‌اس گزارش داده است که در نیمی از سناریوهای بررسی شده در یک مطالعه جدید، «چت‌جی‌پی‌تی»(ChatGPT) بسیاری از رایج‌ترین «سوگیری‌های»(biases) تصمیم‌گیری انسانی را از خود نشان داد. این نتایج، اولین یافته‌های مرتبط با رفتار «سوگیری شناختی»(cognitive biases) شناخته شده در روانشناسی انسان در «چت‌جی‌پی‌تی» است. نویسندگان این مقاله، از پنج موسسه دانشگاهی در سراسر کانادا و استرالیا، روی دو «مدل زبان بزرگ»(LLM) که «چت‌جی‌پی‌تی» را پشتیبانی می‌کنند، آزمایش کردند. آنها کشف کردند که «هوش مصنوعی» برخلاف سازگاری زیاد در استدلال خود در برابر نقص‌های انسانی مصون نیست. به گفته محققان، اینچنین سازگاری، هم اثرات مثبت و هم اثرات منفی دارد. «یانگ چن»(Yang Chen) نویسنده ارشد این مطالعه و استادیار مدیریت عملیات در «دانشکده بازرگانی ایوی»(Ivey) گفت: مدیران در استفاده از این ابزارها برای حل مشکلاتی با راه‌حل واضح و فرمولی مشخص، بیشترین منفعت را خواهند داشت، اما اگر کاربران از آنها برای تصمیمات ذهنی یا ترجیحی استفاده می‌کنند، بهتر است با احتیاط عمل کنند. این مطالعه «سوگیری‌های انسانی» شناخته شده از جمله «خطرگریزی»(risk aversion)، داشتن اعتماد به نفس بیش از حد و «اثر برخورداری»(endowment effect) را درنظر گرفت و آنها را در دستورالعمل‌های داده شده به «چت‌جی‌پی‌تی» اعمال کرد تا ببیند آیا در همان تله‌هایی که انسان‌ها گرفتار می‌شوند، قرار می‌گیرد یا خیر. «خطرگریزی» به معنای ترجیح پذیرش خطر کم‌تر و جلوگیری از خطر غیر ضروری است. «اثر برخورداری» نیز نوعی سوگیری عاطفی است که باعث می‌شود افراد چیزی را که دارند بسیار با ارزش‌تر از ارزش واقعی آن تصور کنند. تصمیم‌گیری‌های منطقی تنها در برخی موارد دانشمندان از «مدل‌های زبان بزرگ» سوالات فرضی برگرفته از روانشناسی سنتی و در زمینه تجارت در دنیای واقعی مانند مدیریت موجودی یا مذاکرات تأمین‌کنندگان پرسیدند. هدف آنها این بود متوجه شوند که آیا «هوش مصنوعی» «سوگیری‌های انسانی» را تقلید می‌کند یا خیر. آنها همچنین قصد داشتند که متوجه شوند آیا این مدل‌ها هنگام پرسیدن سوالات از حوزه‌های مختلف تجاری هم این کار را انجام می‌دهند یا خیر. یکی از «مدل‌های زبانی بزرگ» موسوم به «GPT-۴» در پاسخ به مسائلی با راه‌حل‌های ریاضی واضح، عملکرد بهتری نسبت به مدل دیگر با نام «GPT-۳.۵» داشت و اشتباهات کمتری در سناریوهای احتمال و منطق‌محور نشان داد، اما در شبیه‌سازی‌های ذهنی مانند انتخاب یک گزینه پرخطر برای دستیابی به سود، این چت‌بات اغلب ترجیحات غیرمنطقی را که انسان‌ها تمایل به نشان دادن آن دارند، انتخاب می‌کرد. محققان گفتند: «GPT-۴» حتی از انسان‌ها نیز تمایل قوی‌تری برای قطعیت نشان می‌دهد. این موضوع تمایل «هوش مصنوعی» به نتایج ایمن‌تر و قابل پیش‌بینی‌تر هنگام انجام وظایف مبهم اشاره دارد. مهمتر از همه، رفتارهای چت‌بات‌ها در واکنش به سوالات در مسائل روانشناختی انتزاعی و فرآیندهای تجاری عملیاتی، عمدتاً پایدار باقی ماند. این مطالعه نتیجه گرفت که «سوگیری‌های» نشان داده شده تنها محصول مثال‌های حفظ شده نیستند و  بخشی از نحوه استدلال «هوش مصنوعی» هستند. یکی از نتایج شگفت‌انگیز این مطالعه، تقویت خطاهای انسانی توسط «GPT-۴» است. دانشمندان گفتند: در «سوگیری تأییدی»(confirmation bias)، مدل «GPT-۴» همیشه پاسخ‌های سوگیرانه می‌داد. همچنین این مدل تمایل بیشتری به «مغالطه‌ دست داغ»(hot-hand) نسبت به «GPT ۳.۵» نشان داد. «مغالطه‌ دست داغ» یکی از «سوگیری‌های شناختی» است که به این باور غیرمنطقی اشاره دارد که وقتی ما در یک بازی وابسته به شانس، چند دست پشت سر هم می‌بریم یا می‌بازیم، به اصطلاح داغ یا سرد می‌شویم و تصور می‌کنیم که این برد یا باخت پیاپی قرار است همچنان ادامه پیدا کند. در حالی که همچنان بر اساس علم احتمالات، هیچ چیزی تغییر نکرده و شانس برد ما درست مانند دفعات قبل است. بر خلاف مدل‌ها، «چت‌جی‌پی‌تی» موفق شد از برخی از «سوگیری‌های» رایج انسانی از جمله «غفلت از نرخ پایه»(base-rate neglect) و «مغالطه‌ هزینه غرق‌شده»(Sunk Cost Fallacy) اجتناب کند. «غفلت از نرخ پایه» به معنای اعتماد و پذیرش موارد خاص و نادیده گرفتن آمار و اطلاعات موجود در هنگام استدلال کردن است. «مغالطه هزینه غرق‌شده» نیز زمانی رخ می‌دهد که شخص فقط به این دلیل به تصمیم خود پایبند است که پول قبلا خرج شده است و نمی‌خواهد احساس کند که آن را هدر داده است. به گفته پژوهشگران، «سوگیری‌های» شبه‌انسانی در «چت‌جی‌پی‌تی» از داده‌های آموزشی ناشی می‌شود که شامل «سوگیری‌های شناختی» و اکتشافی است که انسان‌ها از خود نشان می‌دهند. این گرایش‌ها در شرایط خاص، تقویت می‌شوند. این تقویت زمانی که انسان پاسخ‌های محتمل را به پاسخ‌های منطقی ترجیح می‌دهد، بیشتر می‌شود. وقتی «هوش مصنوعی» با وظایف مبهم‌تری روبرو می‌شود، بیشتر به سمت الگوهای استدلال انسانی تا منطق سامانه‌ای متمایل می‌شود. «چن» گفت: اگر یک تصمیم‌گیری دقیق و بی‌طرفانه می‌خواهید، از «چت‌جی‌پی‌تی» در حوزه‌هایی استفاده کنید که میزان اعتماد لازم در حد اعتماد به یک ماشین‌حساب باشد. با این حال، وقتی نتیجه بیشتر به ورودی‌های ذهنی یا استراتژیکی وابسته است، نظارت انسانی اهمیت بیشتری پیدا می‌کند. حتی اگر دستورالعمل‌های کاربر برای اصلاح «سوگیری‌های» شناخته شده باشد. «مینا آندیاپان»(Meena Andiappan) دانشیار منابع انسانی و مدیریت در «دانشگاه مک‌مستر»(McMaster) و نویسنده این مقاله می‌گوید: با «هوش مصنوعی» باید مانند کارمندی رفتار شود که تصمیمات مهمی می‌گیرد. این تصمیم‌گیری‌ها به نظارت و دستورالعمل‌های اخلاقی نیاز دارد. در غیر این صورت، ما به جای بهبود تفکر ناقص، آن را در معرض خطر خودکارسازی قرار می‌دهیم. این یافته‌ها که در مجله Manufacturing & Service Operations Management  منتشر شده است.

ادامه مطلب


1 ماه قبل - 437 بازدید

مدل هوش مصنوعی جدیدی که توسط پژوهشگران انگلیسی ابداع شده است، می‌تواند درک ما را درباره رشد جنین تغییر دهد. سایت علمی ساینمگ در گزارش تازه خود نوشته است که پژوهش جدید دانشگاه پلیموث نشان داده است که یک مدل جدید مبتنی بر هوش مصنوعی می‌تواند از ویدیو تشخیص دهد که در طول رشد جنین چه اتفاقی و در چه زمانی رخ می‌دهد. در ادامه آمده است که این پژوهش نشان می‌دهد که چگونه یک مدل یادگیری عمیق موسوم به «Dev-ResNet» می‌تواند وقوع رویدادهای کلیدی رشد از جمله عملکرد قلب، خزیدن و حتی مرگ را در حلزون‌های برکه‌ای شناسایی کند. نوآوری کلیدی در این پژوهش، یک مدل سه‌بعدی است که از تغییرات رخ‌داده بین فریم‌های ویدیو استفاده می‌کند و هوش مصنوعی را قادر می‌سازد تا از این ویژگی‌ها درس بگیرد. این روش برخلاف استفاده سنتی‌ از تصاویر ثابت است. استفاده از ویدیو به این معناست که  Dev-ResNet، ویژگی‌هایی را از اولین ضربان قلب یا خزیدن گرفته تا تشکیل پوسته یا تخم‌گذاری به طور قابل اعتماد شناسایی می‌کند و حساسیت‌ ویژگی‌های گوناگون را نسبت به دما نشان می‌دهد. اگرچه Dev-ResNet در جنین‌های حلزون برکه‌ای استفاده شده است اما پژوهشگران می‌گویند که این مدل می‌تواند کاربرد گسترده‌ای را در همه گونه‌ها داشته باشد. آن‌ها مستندات جامعی را برای اعمال Dev-ResNet در سیستم‌های متفاوت بیولوژیکی فراهم کرده‌اند. این روش را در آینده می‌توان برای کمک به تسریع درک چگونگی تأثیر تغییرات آب‌وهوایی و سایر عوامل بیرونی بر انسان و حیوانات استفاده کرد. زیاد ایبینی، دانشجوی مقطع دکتری دانشگاه پلیموث که Dev-ResNet را طراحی کرده و آموزش داده است، گفت: ترسیم رویدادهای رشد یا بررسی این که چه اتفاقی در زمان رشد اولیه یک حیوان رخ می‌دهد، بسیار چالش‌برانگیز اما در عین حال بسیار مهم است زیرا به ما کمک می‌کند تا تغییرات رخ‌داده را در زمان‌بندی رویداد بین گونه‌ها و محیط‌ها درک کنیم. مدل Dev-ResNet یک شبکه عصبی سه‌بعدی کوچک و کارآمد است که می‌تواند رویدادهای رشد را با استفاده از ویدئوها تشخیص دهد و به راحتی آموزش داده شود. تنها محدودیت‌های واقعی، در ایجاد داده‌ها برای آموزش دادن مدل یادگیری عمیق است. ما می‌دانیم که این مدل کار می‌کند. فقط باید داده‌های آموزشی مناسب را به آن ارائه دهید. وی افزود: ما می‌خواهیم جامعه علمی گسترده‌تری را به روش‌هایی مجهز کنیم که آن‌ها را قادر می‌سازند تا درک بهتری را از نحوه رشد یک گونه تحت تأثیر عوامل گوناگون داشته باشند. بدین ترتیب، می‌فهمیم که چگونه می‌توانیم از آنها محافظت کنیم. ما باور داریم که Dev-ResNet یک گام مهم در این مسیر است. دکتر اولی تیلز، پژوهشگر ارشد این پروژه گفت: این پژوهش در سطح فناوری اهمیت دارد اما برای پیشبرد نحوه درک ما از رشد ارگانیسم نیز مهم است. گروه اکوفیزیولوژی و توسعه دانشگاه پلیموث، بیش از ۲۰ سال در این حوزه سابقه پژوهش دارد. وی افزود: دستیابی به این نقطه عطف بدون کمک یادگیری عمیق امکان‌پذیر نبود. فکر کردن به اینکه این قابلیت جدید می‌تواند ما را برای بررسی حیوانات در پویاترین دوره زندگی آنها به کجا ببرد، هیجان‌انگیز است. این پژوهش در «Journal of Experimental Biology» به چاپ رسید.

ادامه مطلب


2 ماه قبل - 441 بازدید

آیا وقتی از چت جی‌پی‌تی(ChatGPT) می‌خواهید برای شما نامه بنویسد، به او «لطفا» می‌گویید؟ در مورد گفتن «متشکرم» پس از نوشتن آن چطور؟ اگر فکر می‌کنید رفتار مودبانه با هوش مصنوعی عجیب است باید بدانید که یک نظرسنجی جدید وجود دارد که می‌تواند شما را متعجب کند. مشخص شده است که ۴۸ درصد از آمریکایی‌ها فکر می‌کنند، هوش مصنوعی شایسته این است که مودبانه با او صحبت شود، در حالی که مشخص شده نسل «زد Z» نسبت به سایرین با ربات‌ها مهربان‌تر هستند. نظرسنجی جدیدی که به تازگی توسط تاکر ریسرچ انجام شده است، نشان می‌دهد که تقریبا نیمی از آمریکایی‌ها معتقدند که رعایت ادب متداول را به دستیاران دیجیتالی خود بسط می‌دهند و نسل‌های جوان‌تر آن را رهبری می‌کنند. بیش از نیمی از نسل زد یا ۵۶ درصد می‌گویند که مودب بودن سبک پیش فرض آنها هنگام تعامل با هوش مصنوعی است. به نقل از اس‌اف، دو نفر از هر سه نفر(۶۸ درصد) وقتی صحبت از استفاده از رفتار با هوش مصنوعی و خدمات مشابه می‌شود، می‌گویند: این فقط روش من است. ۲۹ درصد از کاربرانی که خود را مؤدب توصیف می‌کنند، از این هم فراتر رفتند و اظهار داشتند که «هر کس سزاوار رفتار درست است، چه انسان باشد و چه غیر انسان. با این حال، این نظرسنجی همچنین شکاف نسلی را در آداب برخورد با هوش مصنوعی نشان داد. در حالی که بیش از نیمی از نسل Z و ۵۲ درصد از نسل هزاره می‌گویند که نسبت به هوش مصنوعی مودب هستند، این تعداد در بین نسل ایکس به ۴۴ درصد و برای نسل پر نوزاد به ۳۹ درصد کاهش یافته است. نسل زد به اولین نسل اجتماعی از جوانی گفته می‌شود که با دسترسی به اینترنت و فناوری دیجیتال قابل حمل رشد کرده‌اند و اعضای نسل زد، «بومی دیجیتال» لقب گرفته‌اند. نسل هزاره یا نسل ایگرگ به نسلی گفته می‌شود که پس از نسل ایکس و پیش از نسل زد متولد شده‌اند. به افرادی که متولد اواخر دهه ۱۹۷۰ تا اوایل دهه ۲۰۰۰ که برابر با شروع دهه پنجاه تا پایان دهه هفتاد در افغانستان است، گفته می‌شود. نسل پر نوزاد پیش از نسل ایکس هستند که از سال‌های ۱۹۴۶ تا ۱۹۶۴ میلادی(۱۳۲۵ تا ۱۳۴۳ در افغانستان) متولد شده‌اند. نکته قابل توجه این است که این مطالعه نشان داد که ۳۹ درصد از آمریکایی‌ها معتقدند که رفتار گذشته ما نسبت به هوش مصنوعی، الکسا، سیری و سایر موجودات رباتیک ممکن است در آینده مورد توجه قرار گیرد. این تصور حاکی از آگاهی روزافزون از پیامدهای بالقوه بلندمدت تعامل ما با هوش مصنوعی است. با این حال، همه در مورد نیاز به رعایت ادب با ربات‌ها متقاعد نشده‌اند. یک چهارم از پاسخ دهندگان رویکرد خود با چت‌بات‌ها را کاربردی‌تر توصیف کردند و بدون افزودن لطفا یا تشکر، درخواست و انتظار پاسخ داشتند. علاوه بر این، ۲۷ درصد با این جمله موافق بودند که مشکلی ندارد که با فناوری‌هایی مانند هوش مصنوعی و الکسا بد رفتار باشید و سر آنها فریاد بزنید زیرا آنها هیچ احساسی ندارند. این نظرسنجی همچنین شکاف جنسیتی را در نگرش نسبت به رعایت ادب در برابر هوش مصنوعی نشان داد. در حالی که مردان و زنان به طور مشابه موافق هستند که هوش مصنوعی شایسته رفتار مودبانه است اما مردان به طور قابل توجهی بیشتر احساس می‌کنند که بی ادبی یا فحش دادن به هوش مصنوعی قابل قبول است. این آمار شامل ۳۴ درصد از مردان در مقابل ۲۰ درصد از زنان می‌شد. اینکه آیا این روند بر توسعه هوش مصنوعی یا روابط ما با فناوری تأثیر می‌گذارد یا خیر، هنوز مشخص نیست، اما یک مورد واضح است: برای بسیاری از آمریکایی‌ها، رفتار خوب فراتر از تعاملات انسانی در حوزه دیجیتال است.

ادامه مطلب


2 ماه قبل - 115 بازدید

شاید اینکه چرا هوش مصنوعی نمی‌تواند رانندگی کند، پرسش بسیاری از مردم باشد. پاسخ این پرسش را باید در نوع پردازش اطلاعاتی که رانندگی به آن نیاز دارد و هوش مصنوعی در آن تبحر و تجربه ندارد، جستجو کرد. در حالی که بسیاری از افراد در سنین پایین و قبل از رسیدن به سن قانونی رانندگی را فرا می‌گیرند، هوش مصنوعی با وجود اینکه در حال حاضر حدود ۷۳ سال سن دارد، هنوز نمی‌تواند رانندگی کند. دلایل زیادی در این رابطه وجود دارد که چرا هوش مصنوعی قادر به رانندگی نیست. حسگرها در همه شرایط به اندازه کافی خوب نیستند. قدرت پردازشی مورد نیاز برای رانندگی بیشتر از آن است که حسگرها بتوانند آن را ارائه کنند و زمان پردازش آنها می‌تواند کندتر از مغز انسان باشد. این موضوع حتی در مورد استفاده از یک ابر رایانه نیز صادق است، چرا که به عنوان مثال هوش مصنوعی قادر به تصمیم‌گیری اخلاقی نیست. همچنین موانع فناورانه زیادی وجود دارد که مانع از حرکت خودروها با هوش مصنوعی در جاده‌ها می‌شود. این در حالی است که بزرگترین مانع، حسگرها یا فناوری یا حتی مسائل حقوقی یا اخلاقی نیست، بلکه این واقعیت است که ما واقعاً نمی‌دانیم هوش مصنوعی چگونه فکر می‌کند. یک مطالعه اخیر توسط محققان شرکت آنتروپیک نشان داد که چت‌بات‌های هوش مصنوعی می‌توانند دچار توهم شوند، در انجام محاسبات اولیه ریاضیات خوب نیستند و اغلب در مورد استدلال خود دروغ می‌گویند. بنابراین به نظر می‌رسد ما هیچ چیز زیادی در مورد نحوه عملکرد هوش مصنوعی نمی‌دانیم. همانند مغز انسان، تئوری‌های زیادی در مورد نحوه عملکرد هوش مصنوعی وجود دارد. محققان سعی کردند این موضوع را مورد آزمایش قرار دهند. آنها عبارت ریاضی «۵۷+۹۲» را در ChatGPT وارد کردند و عدد ۱۴۹ را دریافت کردند که درست است، اما وقتی از آن پرسیدند «چگونه به این پاسخ رسیدی؟» هوش مصنوعی کتاب درسی استاندارد را نشان داد و محققان سپس صفرها را به عبارت ریاضی اضافه کردند و نتایج را ترکیب کردند که موجب شد ChatGPT به اشتباه بیفتد. هوش مصنوعی در واقع یک رایانه است و مانند هر ماشین‌حساب پیشرفته‌ای به صورت دیجیتالی(۰ و ۱) کار می‌کند و مجموع عبارت را نشان می‌دهد. به عنوان مثال عبارت فوق را به شکل ۱۱۱۰۰۱ (۵۷) + ۱۰۱۱۱۰۰ (۹۲) = ۱۰۰۱۰۱۰۱ (۱۴۹) محاسبه می‌کند. بنابراین هوش مصنوعی یک رایانه است و اعمال ریاضی را به همین شکل انجام می‌دهد. محققان وقتی از ChatGPT پرسیدند که چگونه اعمال ریاضی را انجام می‌دهد، توضیح کوتاهی از تبدیل اعداد به زبان باینری تا حصول نتیجه، مشابه آنچه در بالا توضیح داده شد، داد. البته همه چیز برای هوش مصنوعی از سال ۱۹۹۴ تاکنون بسیار تغییر کرده است، اما هنوز به اندازه‌ای نرسیده که هوش مصنوعی را قادر به رانندگی و توانایی برابر با انسان کند. شرکت «آنتروپیک» در حال آزمایش یک مدل هوش مصنوعی به نام کلاد(Claude) است که مانند ChatGPT و سایر چت‌بات‌های هوش مصنوعی شبیه به آنچه بسیاری از ما روزانه از طریق زبان طبیعی با آن ارتباط برقرار می‌کنیم، است. آنها دریافتند که «کلاد» اغلب منطقی را برای تطبیق با یک روایت از پیش ساخته به منظور دلجویی یا جلب رضایت شخصی که با او در حال تعامل است، ایجاد می‌کند. شبیه به روشی که سیاستمداران در مورد موضوعی صحبت می‌کنند و به نظر می‌رسد که با کسی موافق هستند، اما در حقیقت اینطور نیست. این موضوع را در رانندگی تصور کنید. در حین رانندگی، ما در هر دقیقه هزاران تصمیم می‌گیریم که می‌تواند به معنای واقعی کلمه نه تنها زندگی ما، بلکه زندگی اطرافیانمان را نیز تحت تاثیر قرار دهد. ما از حواس‌پرتی‌ها در هنگام رانندگی مطلعیم و می‌دانیم که حتی چند لحظه بی‌توجهی می‌تواند به نتایج وحشتناکی منجر شود. حالا در نظر بگیرید که چه اتفاقی می‌افتد اگر هوش مصنوعی یک داده خطرناک را توجیه کند یا نتواند به اندازه کافی سریع تصمیم بگیرد. نکته این است که در حالی که فناوری اطلاع‌رسانی هوش مصنوعی به کار زیادی برای رسیدن به سطح یک راننده انسانی نیاز دارد، خود مدل یادگیری نیز باید به آن برسد. هوش مصنوعی اکنون در دهه ۷۰ زندگی خود است، اما فقط می‌تواند در سطح شناختی یک کودک عمل کند و ما حتی نمی‌دانیم که چگونه این کار را انجام می‌دهد. وسایل نقلیه امروزی دارای ده‌ها حسگر، صدها متر سیم‌کشی، سه یا چند رایانه داخلی، اتصال بی‌سیم و وای-فای، GPS و بسیاری از ابزارهای دیگر هستند. هیچ کدام از اینها نمی‌توانند خودرو را برانند. حتی مدل‌هایی که دارای فناوری نیمه‌خودران یا خودران هستند نیز نیاز به توجه کامل و نظارت انسان دارند. ما انسان‌ها یک مزیت متمایز نسبت به هوش مصنوعی داریم و آن این است که ما با سیستم‌های حسی بسیار قوی متولد شده‌ایم که با گذر از هزاران سال فرگشت(تکامل) که ما را در استفاده از آنها بسیار متبحر کرده است، در قالب‌های چندوجهی کار می‌کنند. ما مانند بسیاری از حیوانات در جمع‌آوری ورودی‌های متعدد و عکس‌العمل بر این اساس برتر هستیم. با توسعه فناوری‌های حسی، هوش مصنوعی ممکن است خود را به عنوان یک محرک برتر نشان دهد، اما نمی‌توانیم این را با اطمینان بگوییم، زیرا هوش مصنوعی آنطور که ما فکر می‌کنیم، نمی‌اندیشد. هوش مصنوعی در شناخت و یادگیری ورودی چند حسی چندان خوب نیست. این یکی از بزرگترین شاهکارهای طبیعت است، اما تاکنون ما نتوانستیم آن را به ماشین‌ها منتقل کنیم. هوش مصنوعی همچنین در تصمیم‌گیری سریع با داده‌های کمی که در دست دارد، چندان خود را ثابت نکرده است. هوش مصنوعی شهودی نیست، در حالی که ما اغلب به صورت شهودی تصمیم می‌گیریم. این بخش بزرگی از چیزی است که ما را نه تنها به نوآوری، بلکه برای سازگاری و غلبه بر آن سوق می‌دهد. با این حال، خبر خوب برای طرفداران وسایل نقلیه خودران این است که چون ما تفکرات هوش مصنوعی را به خوبی درک نمی‌کنیم، می‌تواند کارهایی را انجام دهد که انتظارش را نداریم. این فناوری می‌تواند بصری شود و قادر به مدیریت چندین ورودی به طور همزمان باشد. به جرات می‌توان گفت که اگر این کار را انجام دهد، احتمالاً این کار را در زمان بسیار کوتاه‌تری نسبت به ما انسان‌ها انجام دهد. امیدواریم که حداقل تا آن زمان متوجه شده باشیم که چگونه هوش مصنوعی را راستگو کنیم.

ادامه مطلب


2 ماه قبل - 343 بازدید

سایت علمی فوربس نوشته است که با توجه به پیشرفت روزافزون هوش مصنوعی مولد، بسیاری از پژوهشگران معتقدند این فناوری می‌تواند به هوشمند شدن شهرها کمک کند، اما باید دید آیا شهرهای جهان آماده پذیرش هوش مصنوعی مولد هستند. در گزارش آمده است که شهرها که قطب‌های تپنده تمدن بشری به شمار می‌روند، با چند بحران روبرو هستند. این بحران‌ها عبارتند از فشارهای رو به ‌رشد جمعیت، انتشار گازهای گلخانه‌ای، زباله، ترافیک و سروصدا، زیرساخت‌های فرسوده و قدیمی، مقرون‌به‌صرفه بودن مسکن، اشتغال و نیاز همیشگی به پایداری آب‌وهوا. بیشتر سیاست‌ها، روش‌ها، برنامه‌ریزی‌ها و ایده‌های مهندسی شهری اواسط قرن بیستم که در مقیاس جهانی بودند، شکست خورده‌اند و تقریبا همه شهرها را به یک مسیر ناپایدار و آسیب‌پذیر سوق داده است. بیش از نیمی از جمعیت جهان در حال حاضر در شهرها زندگی می‌کنند و این تعداد در ۲۵ سال آینده به ۸۰ درصد افزایش خواهد یافت که نیازمند میلیاردها تن مواد جدید و حضور گسترده شهری است. تغییرات مورد نیاز برای جلوگیری از تشدید بحران، بسیار بزرگ و فوری هستند. شهرها ساختمان، جاده یا سیستم انرژی نیستند، بلکه مردم، فرهنگ، رفتار، قدرت و سیاست را در بر دارند. نمی‌توان به استفاده کردن از روش‌های مشابه ادامه داد و انتظار نتایج متفاوت را داشت. باید یک راهبرد جدید ارائه شود. فناوری «هوش مصنوعی مولد شهر» در راه است. این یک فناوری نوظهور و متحول‌کننده است که می‌تواند برنامه‌ریزی شهری، طراحی و مدیریت شهر را به طور اساسی تغییر دهد. طرح‌بندی‌های شهری، شکل ساخت، انرژی، آب، حمل‌ونقل، زباله و سیستم‌های اجتماعی بهینه‌سازی‌شده را تصور کنید. در نظر بگیرید که سیستم‌های یکپارچه، خدمات عمومی شخصی‌سازی‌شده را در یک مکان ارائه ‌دهند. این امکانات واقعا شگفت‌انگیز هستند زیرا داده‌ها را هدایت می‌کنند و صنایع را توسعه می‌دهند. مانند جدیدترین مدل‌های تبدیل متن به ویدیو مانند «سورا»(Sora) شرکت «Open AI»، اکنون می‌توانید محیط شهری ایده‌آل خود را توصیف و ایجاد کنید و خیابان‌های قابل پیاده‌روی، فضاهای سبز و ترکیبی پرجنب‌وجوش از مغازه‌ها و خانه‌ها را در آن جای دهید. پلتفرم‌های جدید هوش مصنوعی مولد شهر با ده‌ها یا صدها سناریو برای بررسی و انتخاب می‌توانند در چند ثانیه از دید به واقعیت برسند. هوش مصنوعی عمومی به طور ویژه، امکان تغییر عمده را در برنامه‌ریزی، تصمیم‌گیری و طراحی شهرها فراهم می‌کند. تصمیم‌های پیشگیرانه مبتنی بر داده‌ها شهرها یک گنجینه از داده‌ها هستند که الگوهای رشد و سفر، مصرف انرژی و نیازهای شهروندان را منعکس می‌کنند. با وجود این، آن‌ها معمولا تک هستند، پیوندی ندارند و در قالب‌های گوناگونی رخ می‌دهند. جمله «هیچ هوش مصنوعی بدون داده وجود ندارد» برای شهرها کاملا صدق می‌کند. هوش مصنوعی مولد فقط می‌تواند داده‌هایی را بهینه‌سازی و تحلیل کند که در قالب قابل استفاده هستند. این موضوع ثابت شده که هوش مصنوعی چه توانایی‌هایی دارد و توانایی آن در بهینه‌سازی زیرساخت‌های شهری، جابه‌جایی افراد و کالاها، پیش‌بینی نقاط ازدحام و پیشنهاد بهبود زیرساخت‌ها هنوز آغاز راه است. بسیاری از شرکت‌ها، راه‌حل‌های مبتنی بر هوش مصنوعی شهری را برای پیش‌بینی احتمال تأثیرات آب‌وهوا بر زیرساخت‌های شهر، شدت برخورد خودرو، بهینه‌سازی تعمیر و نگهداری زیرساخت و شبیه‌سازی‌های برنامه‌ریزی شهری محلی ارائه می‌کنند. این روش مبتنی بر داده، امکان برنامه‌ریزی فعال، صدور مجوز و کاهش مشکلات را پیش از بروز آنها فراهم می‌آورد و یک حکمرانی شهری پاسخگو، شفاف و فراگیر را ایجاد می‌کند. توانمندسازی شهروندان با دموکراتیک کردن فرآیندهای شهر برنامه‌ریزی شهری به طور سنتی، یک امر از بالا به پایین بوده است. هوش مصنوعی مولد می‌تواند شرایط را تغییر ‌دهد و با باز کردن روزنه‌های جدید به روی مشارکت شهروندان، افزایش شفافیت و مشارکت مردمی، بوروکراسی‌های اغلب پیچیده را دموکراتیک ‌کند. ساکنان می‌توانند از فناوری‌های مبتنی بر هوش مصنوعی مانند چت‌بات‌ها، برای پاسخ دادن به پرسش‌های خود، از رمزگشایی پیچیده منطقه‌بندی و کدهای ساختمانی گرفته تا پیمایش قوانین مهندسی و مقررات برنامه‌ریزی اغلب متناقض استفاده کنند. بسیاری از شرکت‌ها از واقعیت مجازی و هوش مصنوعی همه‌جانبه برای تجسم محیط‌های شهری آینده استفاده می‌کنند. این کار به شهروندان امکان می‌دهد تا فرآیند برنامه‌ریزی را به یک روش معنادار درک کنند و در آن مشارکت داشته باشند. پیشرفت هوش مصنوعی مولد شهری بیشتر شهرها در آغاز سفر هوش مصنوعی مولد خود هستند و سعی دارند بهترین شیوه‌ها را به کار بگیرند. بسیاری از شهرها، آزمایش کردن مفاهیم هوش مصنوعی را آغاز کرده‌اند. آن‌ها از انواع گوناگون هوش مصنوعی، از بینایی رایانه‌ای گرفته تا یادگیری ماشینی استفاده می‌کنند و برخی از آن‌ها نیز برنامه‌هایی را با استفاده از هوش مصنوعی مولد آغاز کرده‌اند. چالش‌ها و ایده‌ها در حال حاضر یک موج از پذیرش هوش مصنوعی را به صورت عمومی در هر صنعتی می‌بینیم و برنامه‌ریزی شهری نیز از این قاعده مستثنی نیست. اگرچه پتانسیل هوش مصنوعی مولد بسیار زیاد است، اما چالش‌ها همچنان وجود دارند. سوگیری داده‌ها می‌تواند به خروجی‌های تبعیض‌آمیز منجر شود که نیاز به توسعه مسوولانه و ملاحظات اخلاقی را برجسته می‌کنند. نظارت انسان و شفافیت در توسعه مدل هوش مصنوعی مهم است. علاوه بر این، تأثیرات اجتماعی و اقتصادی پذیرش هوش مصنوعی شهری باید به دقت مورد توجه قرار بگیرند، زیرا در صورت عدم کنترل می‌توانند نابرابری‌ها را تشدید کنند. تغییرات بیشتر می‌شوند و هوش مصنوعی مولد در حال توسعه است. اگرچه پتانسیل هوش مصنوعی مولد برای بهینه‌سازی شکل شهر، جاده‌ها، انرژی، انتشار گازهای گلخانه‌ای، زباله، ارتباطات و خدمات عمومی غیرقابل انکار است، اما این پرسش پیش می‌آید که آیا برنامه‌ریزان، مهندسان و مدیران شهری آماده حرکت در این موج انقلابی هستند. مجموعه مهارت‌ها مستلزم ارتقای تجربیات و تعاملات در زمینه‌های گوناگون هستند؛ از طراحی و مدیریت داده گرفته تا تجزیه و تحلیل شهر، تسلط بر کدنویسی و چارچوب اخلاقی برای هوش مصنوعی. دانشگاه‌ها تازه آموزش نسل بعدی برنامه‌ریزان شهری را آغاز کرده‌اند و جوامع برای ایجاد اعتماد، به تعامل و آموزش دیدن با مدل‌های هوش مصنوعی مولد نیاز دارند. این بهتر از آن چیزی است که امروز وجود دارد و مانند یک موزاییک تکه‌تکه از مجموعه داده‌ها، سیاست‌ها، بوروکراسی‌ها و بخش‌های متفاوت در سطوح گوناگون محلی، ایالتی و فدرال است. در هر حال، این هدف دست‌نیافتنی نیست. آمادگی برای هوش مصنوعی عمومی شهری، نیازمند یک رویکرد سه‌جانبه است که عبارتند از مشارکت شرکت‌های هوش مصنوعی، ارتقاء مهارت نیروی کار با مشارکت واقعی جامعه و ایجاد چارچوب‌های اخلاقی و حاکمیت داده‌های هوش مصنوعی. نقطه آغاز این کار، ایجاد آگاهی در میان کارکنان است تا روی حل مشکل تمرکز داشته باشند، مشکلات کلیدی شهر را شناسایی کنند که به کمک پروژه‌های مرتبط با هوش مصنوعی قابل حل شدن هستند، با بخش خصوصی مشارکت داشته باشند و با احتیاط پیش بروند. شرکت‌ها باید یک چارچوب قوی را برای خط مشی هوش مصنوعی به وجود بیاورند که مواردی را مانند شرایط استفاده یا عدم استفاده کارمندان از هوش مصنوعی، چگونگی محافظت جوامع از حریم خصوصی خود، چگونگی پایبند ماندن به یک چارچوب امنیت سایبری و چگونگی سروکار داشتن با مسائل اخلاقی، سوگیری و انصاف مشخص می‌کند. برنامه‌ریزان با پذیرش این چالش‌ها و مدیریت مسئولانه آنها می‌توانند پتانسیل هوش مصنوعی را برای ایجاد شهرهای انعطاف‌پذیر و هوشمند آینده کشف کنند. با همکاری بیشتر می‌توان آینده‌ای را ساخت که در آن، هوش مصنوعی مسئولانه مناظر شهری بهتری را برای همه شکل دهد.

ادامه مطلب


3 ماه قبل - 141 بازدید

شرکت‌های «مایکروسافت» و شرکت «اینیت» در یک پروژه مشترک سعی دارند یک مدل جدید هوش مصنوعی ارائه دهند که بتواند قدرت استدلال مغز را شبیه‌سازی ‌کند. شرکت سوئیسی «اینیت»(inait) از همکاری خود با شرکت «مایکروسافت»(Microsoft) به منظور تسریع توسعه و تجاری‌سازی هوش مصنوعی خلاقانه با استفاده از پلتفرم هوش مصنوعی مغز دیجیتال منحصربه‌فرد خود خبر داد. در گزارش‌ها آمده است که این همکاری روی توسعه محصول مشترک، راهبردهای ورود به بازار و ابتکارات فروش مشترک متمرکز خواهد بود که در ابتدا بخش‌های مالی و رباتیک را هدف قرار می‌دهند. فناوری هوش مصنوعی اینیت که از دل دهه‌ها پژوهش در حوزه علوم اعصاب سر بر آورده است، یک تغییر اساسی را در هوش مصنوعی ارائه می‌کند. زبان برنامه‌نویسی مغز و توانایی آن برای یادگیری از تجربه و درک علت و معلول، توانایی‌های شناختی را برای تعاملات دنیای واقعی ​​ارائه می‌دهد تا بر محدودیت‌ سیستم‌های کنونی این پلتفرم غلبه کند. هنری مارکرام، بنیان‌گذار و رئیس اینیت، گفت: همکاری با مایکروسافت، یک لحظه مهم برای اینیت است. پس از دو دهه پژوهش و توسعه، اکنون ماکت‌های دیجیتالی مغز و دانش لازم را برای آموزش این موضوع داریم. اکوسیستم جهانی مایکروسافت یک گزینه ایده‌آل برای افزایش مقیاس جهانی هوش مصنوعی دیجیتال مبتنی بر مغز ماست. ریچارد فری، مدیرعامل اینیت اظهار کرد: هدف ما این است که به همراه مایکروسافت، راهبردهای کنونی این پلتفرم خود را به کار بگیریم و راه‌های متحول‌کننده حوزه صنعت را در آینده توسعه دهیم. کاترین هینکل، مدیرعامل شعبه سوئیس مایکروسافت گفت: ما معتقدیم که رویکرد اینیت به این پلتفرم می‌تواند ارزش قابل توجهی را برای صنعت به ارمغان بیاورد. فناوری الهام‌گرفته از علوم اعصاب این شرکت واقعا نوآورانه است و ما خوشحالیم که با آنها همکاری می‌کنیم تا این پیشرفت‌ها را به بازار بیاوریم.

ادامه مطلب