برچسب: انسان‌ها

18 ساعت قبل - 41 بازدید

مطالعه‌ای جدید نشان می‌دهد که «هوش مصنوعی» می‌تواند به اندازه انسان‌ها بیش از حد مطمئن و جانبدارانه تصمیم بگیرد و تعصب و سوگیری داشته باشد. گرایش‌های غیرمنطقی معمولاً در سامانه‌های «هوش مصنوعی» ظاهر می‌شوند و مفید بودن آنها را زیر سوال می‌برند. اگرچه انسان‌ و «هوش مصنوعی» بسیار متفاوت فکر می‌کنند، تحقیقات جدید نشان داده است که «هوش مصنوعی» گاهی اوقات به اندازه انسان غیر منطقی تصمیم می‌گیرد. ال‌اس گزارش داده است که در نیمی از سناریوهای بررسی شده در یک مطالعه جدید، «چت‌جی‌پی‌تی»(ChatGPT) بسیاری از رایج‌ترین «سوگیری‌های»(biases) تصمیم‌گیری انسانی را از خود نشان داد. این نتایج، اولین یافته‌های مرتبط با رفتار «سوگیری شناختی»(cognitive biases) شناخته شده در روانشناسی انسان در «چت‌جی‌پی‌تی» است. نویسندگان این مقاله، از پنج موسسه دانشگاهی در سراسر کانادا و استرالیا، روی دو «مدل زبان بزرگ»(LLM) که «چت‌جی‌پی‌تی» را پشتیبانی می‌کنند، آزمایش کردند. آنها کشف کردند که «هوش مصنوعی» برخلاف سازگاری زیاد در استدلال خود در برابر نقص‌های انسانی مصون نیست. به گفته محققان، اینچنین سازگاری، هم اثرات مثبت و هم اثرات منفی دارد. «یانگ چن»(Yang Chen) نویسنده ارشد این مطالعه و استادیار مدیریت عملیات در «دانشکده بازرگانی ایوی»(Ivey) گفت: مدیران در استفاده از این ابزارها برای حل مشکلاتی با راه‌حل واضح و فرمولی مشخص، بیشترین منفعت را خواهند داشت، اما اگر کاربران از آنها برای تصمیمات ذهنی یا ترجیحی استفاده می‌کنند، بهتر است با احتیاط عمل کنند. این مطالعه «سوگیری‌های انسانی» شناخته شده از جمله «خطرگریزی»(risk aversion)، داشتن اعتماد به نفس بیش از حد و «اثر برخورداری»(endowment effect) را درنظر گرفت و آنها را در دستورالعمل‌های داده شده به «چت‌جی‌پی‌تی» اعمال کرد تا ببیند آیا در همان تله‌هایی که انسان‌ها گرفتار می‌شوند، قرار می‌گیرد یا خیر. «خطرگریزی» به معنای ترجیح پذیرش خطر کم‌تر و جلوگیری از خطر غیر ضروری است. «اثر برخورداری» نیز نوعی سوگیری عاطفی است که باعث می‌شود افراد چیزی را که دارند بسیار با ارزش‌تر از ارزش واقعی آن تصور کنند. تصمیم‌گیری‌های منطقی تنها در برخی موارد دانشمندان از «مدل‌های زبان بزرگ» سوالات فرضی برگرفته از روانشناسی سنتی و در زمینه تجارت در دنیای واقعی مانند مدیریت موجودی یا مذاکرات تأمین‌کنندگان پرسیدند. هدف آنها این بود متوجه شوند که آیا «هوش مصنوعی» «سوگیری‌های انسانی» را تقلید می‌کند یا خیر. آنها همچنین قصد داشتند که متوجه شوند آیا این مدل‌ها هنگام پرسیدن سوالات از حوزه‌های مختلف تجاری هم این کار را انجام می‌دهند یا خیر. یکی از «مدل‌های زبانی بزرگ» موسوم به «GPT-۴» در پاسخ به مسائلی با راه‌حل‌های ریاضی واضح، عملکرد بهتری نسبت به مدل دیگر با نام «GPT-۳.۵» داشت و اشتباهات کمتری در سناریوهای احتمال و منطق‌محور نشان داد، اما در شبیه‌سازی‌های ذهنی مانند انتخاب یک گزینه پرخطر برای دستیابی به سود، این چت‌بات اغلب ترجیحات غیرمنطقی را که انسان‌ها تمایل به نشان دادن آن دارند، انتخاب می‌کرد. محققان گفتند: «GPT-۴» حتی از انسان‌ها نیز تمایل قوی‌تری برای قطعیت نشان می‌دهد. این موضوع تمایل «هوش مصنوعی» به نتایج ایمن‌تر و قابل پیش‌بینی‌تر هنگام انجام وظایف مبهم اشاره دارد. مهمتر از همه، رفتارهای چت‌بات‌ها در واکنش به سوالات در مسائل روانشناختی انتزاعی و فرآیندهای تجاری عملیاتی، عمدتاً پایدار باقی ماند. این مطالعه نتیجه گرفت که «سوگیری‌های» نشان داده شده تنها محصول مثال‌های حفظ شده نیستند و  بخشی از نحوه استدلال «هوش مصنوعی» هستند. یکی از نتایج شگفت‌انگیز این مطالعه، تقویت خطاهای انسانی توسط «GPT-۴» است. دانشمندان گفتند: در «سوگیری تأییدی»(confirmation bias)، مدل «GPT-۴» همیشه پاسخ‌های سوگیرانه می‌داد. همچنین این مدل تمایل بیشتری به «مغالطه‌ دست داغ»(hot-hand) نسبت به «GPT ۳.۵» نشان داد. «مغالطه‌ دست داغ» یکی از «سوگیری‌های شناختی» است که به این باور غیرمنطقی اشاره دارد که وقتی ما در یک بازی وابسته به شانس، چند دست پشت سر هم می‌بریم یا می‌بازیم، به اصطلاح داغ یا سرد می‌شویم و تصور می‌کنیم که این برد یا باخت پیاپی قرار است همچنان ادامه پیدا کند. در حالی که همچنان بر اساس علم احتمالات، هیچ چیزی تغییر نکرده و شانس برد ما درست مانند دفعات قبل است. بر خلاف مدل‌ها، «چت‌جی‌پی‌تی» موفق شد از برخی از «سوگیری‌های» رایج انسانی از جمله «غفلت از نرخ پایه»(base-rate neglect) و «مغالطه‌ هزینه غرق‌شده»(Sunk Cost Fallacy) اجتناب کند. «غفلت از نرخ پایه» به معنای اعتماد و پذیرش موارد خاص و نادیده گرفتن آمار و اطلاعات موجود در هنگام استدلال کردن است. «مغالطه هزینه غرق‌شده» نیز زمانی رخ می‌دهد که شخص فقط به این دلیل به تصمیم خود پایبند است که پول قبلا خرج شده است و نمی‌خواهد احساس کند که آن را هدر داده است. به گفته پژوهشگران، «سوگیری‌های» شبه‌انسانی در «چت‌جی‌پی‌تی» از داده‌های آموزشی ناشی می‌شود که شامل «سوگیری‌های شناختی» و اکتشافی است که انسان‌ها از خود نشان می‌دهند. این گرایش‌ها در شرایط خاص، تقویت می‌شوند. این تقویت زمانی که انسان پاسخ‌های محتمل را به پاسخ‌های منطقی ترجیح می‌دهد، بیشتر می‌شود. وقتی «هوش مصنوعی» با وظایف مبهم‌تری روبرو می‌شود، بیشتر به سمت الگوهای استدلال انسانی تا منطق سامانه‌ای متمایل می‌شود. «چن» گفت: اگر یک تصمیم‌گیری دقیق و بی‌طرفانه می‌خواهید، از «چت‌جی‌پی‌تی» در حوزه‌هایی استفاده کنید که میزان اعتماد لازم در حد اعتماد به یک ماشین‌حساب باشد. با این حال، وقتی نتیجه بیشتر به ورودی‌های ذهنی یا استراتژیکی وابسته است، نظارت انسانی اهمیت بیشتری پیدا می‌کند. حتی اگر دستورالعمل‌های کاربر برای اصلاح «سوگیری‌های» شناخته شده باشد. «مینا آندیاپان»(Meena Andiappan) دانشیار منابع انسانی و مدیریت در «دانشگاه مک‌مستر»(McMaster) و نویسنده این مقاله می‌گوید: با «هوش مصنوعی» باید مانند کارمندی رفتار شود که تصمیمات مهمی می‌گیرد. این تصمیم‌گیری‌ها به نظارت و دستورالعمل‌های اخلاقی نیاز دارد. در غیر این صورت، ما به جای بهبود تفکر ناقص، آن را در معرض خطر خودکارسازی قرار می‌دهیم. این یافته‌ها که در مجله Manufacturing & Service Operations Management  منتشر شده است.

ادامه مطلب


3 هفته قبل - 77 بازدید

رسانه‌های بین‌المللی گزارش داده‌اند که در مسابقات نیمه‌ماراتن «یی‌ژوانگ» در چین، ۲۱ ربات انسان‌نما با هزاران انسان رقابت کردند. خبرگزاری رویترز گزارش داده است که این ربات‌ها امروز (شنبه، ۳۰ حمل) در بجینگ مسیر ۲۱ کیلومتری را در کنار انسان‌ها دویدند. ربات‌ها در طول مسیر با مربیان انسانی همراه بودند و برخی از آن‌ها حتی نیاز به حمایت فیزیکی داشتند تا بتوانند به راه خود ادامه دهند. در ادامه آمده است که برخی از ربات‌ها کفش‌های ورزشی پوشیده بودند و یکی از آن‌ها دستکش بوکس به دست داشت و دیگری سربندی سرخ‌رنگ با نوشته‌ی چینی «محکوم به پیروزی» بر پیشانی بسته بود. خبرگزاری رویترز گزارش داده است که در نهایت، زمان رسیدن دوندگان انسان با ربات‌ها به خط پایان، بیش از یک‌ونیم ساعت تفاوت داشت. در گزارش رویترز آمده است مردی که برنده این رقابت‌ها شد، مسیر مسابقه را در یک ساعت و دو دقیقه طی کرد. اما ربات «تیانگونگ اولترا» که از میان ربات‌ها برنده شد، مسیر مسابقه را در دو ساعت و ۴۰ دقیقه طی کرد. در ادامه آمده است که این ربات ساخت مرکز نوآوری ربات انسان‌نمای بجینگ بود که ۴۳ درصد سهام آن مال دولت چین و باقی آن متعلق به شرکت‌های فناوری خصوصی است. همچنین خبرگزاری رویترز به نقل از تانگ جیان، مدیر ارشد فناوری این مرکز نوشته است: «عملکرد تیانگونگ اولترا به لطف پاهای بلند و الگوریتمی ویژه‌ بود که دویدن انسان‌ها در ماراتن را شبیه‌سازی می‌کرد.» وی در ادامه افزوده است که این رباط در طول مسابقه تنها سه‌بار نیاز به تعویض باطری داشت. او تاکید کرده است، با وجود این‌که تیانگونگ اولترا و برخی دیگر از ربات‌ها توانستند به خط پایان مسابقه برسند، اما شماری دیگر از آنان از همان ابتدا دچار مشکل شدند و نتوانستند به خط پایان برسند. همچنین دولت چین امیدوار است که با سرمایه‌گذاری در صنایع پیشرفته‌ای مانند رباتیک، محرک‌های جدیدی برای رشد اقتصادی خود ایجاد کند.

ادامه مطلب


2 ماه قبل - 136 بازدید

درتازه‌ترین مورد محققان اعلام کرده‌اند که یک ژن جدید که به عنوان «ژن زبان» انسان شناخته می‌شود، می‌تواند صدای موش‌ها را زمانی که در DNA آن‌ها قرار می‌گیرد، تغییر دهد. این ژن منحصر بفرد NOVA1 نام دارد. در حالی که تقریباً همه پستانداران دیگر دارای نوع یکسانی از این ژن در کد ژنتیکی خود هستند، در نسخه انسانی این ژن، یک تغییر کوچک در یک اسید آمینه مشاهده می‌شود. محققان در دانشگاه راکفلر و آزمایشگاه کولد اسپرینگ هاربر در نیویورک اعلام کرده‌اند که این تغییر ظریف ممکن است نقش مهمی در منشأ زبان گفتاری و گسترش و بقای انسان‌های هوشمند ایفا کرده باشد. حتی نئاندرتال‌ها و دنیسوواها نیز این نوع ژن را نداشتند، که نشان می‌دهد این تغییر در چند صد هزار سال گذشته تکامل یافته است. ژن‌های دیگری که به عنوان «ژن‌های زبان» پیشنهاد شده‌اند، مانند FOXP2که باعث تغییر صدای جیرجیر موش‌ها می‌شوند، در DNA نئاندرتال‌ها نیز یافت می‌شوند. بنابراین، اگرچه این ژن‌ها احتمالاً در منشأ زبان انسان نقش داشته‌اند، ممکن است مسوول موفقیت‌های تکاملی اخیر ما نباشند. در ادامه آمده است، هنوز مشخص نیست که توانایی‌های زبانی خویشاوندان منقرض شده انسان‌ها چه بوده است، اما این تغییر اخیر در ژنوم انسان بسیار موفقیت‌آمیز ظاهر شده است. در بیش از ۶۵۰,۰۰۰ توالی DNA انسان، محققان تنها شش نفر را یافتند که نوع مدرن ژن NOVA1 را نداشتند. در مورد منشأ زبان پیچیده انسان، NOVA1 «تازه‌وارد» محسوب می‌شود. ژنتیک‌دان ولفگانگ انارد که روی ژن FOXP2 کار کرده است، گفت: این ژن بخشی از یک تغییر تکاملی گسترده در انسان‌های مدرن اولیه است و به منشأ باستانی زبان گفتاری اشاره دارد. رابرت دارنل، نورواونکولوژیست از دانشگاه راکفلر که از اوایل دهه ۱۹۹۰ روی این ژن و ارتباط آن با بیماری‌ها و عملکردهای ذهنی مطالعه کرده است، می‌گوید: NOVA1 ممکن است یک ژن واقعی زبان انسان باشد؛ البته قطعاً تنها یکی از تغییرات ژنتیکی خاص انسان است. وقتی دارنل و تیمش به طور مصنوعی نوع انسانی NOVA1 را در موش‌ها ایجاد کردند، متوجه شدند که جیرجیر موش‌ها تغییر کرده است. موش‌های بالغ و بچه‌ها هنوز به همان میزان صدا تولید می‌کردند، اما الگوهای صوتی آن‌ها تغییر کرده بود. در مقایسه با موش‌های معمولی، بچه‌موش‌های اصلاح‌شده ژنتیکی جیرجیرهای فراصوتی با فرکانس بالاتری تولید می‌کردند. صدای آن‌ها توجه مادرشان را بیشتر از صدای بچه‌موش‌های معمولی جلب نمی‌کرد، اما این صداها ممکن است نشان‌دهنده تلاش بیشتر برای تعامل اجتماعی باشد؛ هرچند ناموفق. موش‌های نر بالغ نیز در طول جفت‌یابی از صداهای با فرکانس بالاتر برای دلایل مشابه استفاده می‌کنند. وقتی موش‌های نر بالغ با نوع انسانی NOVA1 اصلاح ژنتیکی شدند، جیرجیر آن‌ها در طول جفت‌یابی مانند بچه‌موش‌ها زیرتر نشد، بلکه صداهای آن‌ها شامل هجاهای پیچیده‌تری شد. دارنل توضیح می‌دهد: آن‌ها با موش‌های ماده ‘به طور متفاوتی صحبت کردند’. می‌توان تصور کرد که چنین تغییراتی در صدا می‌تواند تأثیر عمیقی بر تکامل داشته باشد. اینکه چرا موش‌ها با نوع انسانی NOVA1 صدای متفاوتی می‌دهند، معمایی است که دارنل و همکارانش مشتاق حل آن هستند. تیم آنها مشکوک است که نوع انسانی این ژن باعث تغییرات مولکولی در برخی قسمت‌های مغز در حال رشد جوندگان می‌شود – چه در مسیرهای صوتی مغز میانی و ساقه مغز و چه در مناطق تکامل‌یافته‌تر در قشر مغز که کنترل زیر و بمی و فرکانس صدا را بر عهده دارند. ژن NOVA1 به عنوان یک «تنظیم‌کننده اصلی ژن» شناخته می‌شود زیرا در طول رشد بیش از ۹۰ درصد از ژن‌های دیگر انسان را تحت تأثیر قرار می‌دهد. این ژن پروتئینی به نام Nova-1 را رمزگذاری می‌کند که می‌تواند بخش‌هایی از RNA پیام‌رسان را هنگام اتصال به نورون‌ها برش داده و بازآرایی کند. این کار نحوه سنتز پروتئین‌ها توسط سلول‌های مغز را تغییر می‌دهد و احتمالاً تنوع مولکولی در سیستم عصبی مرکزی ایجاد می‌کند. وقتی دارنل و تیمش موش‌ها را با نوع انسانی NOVA1 «انسان‌گونه» کردند، تغییرات مولکولی در برش RNA در سلول‌های مغزی، به ویژه در مناطق مرتبط با رفتارهای صوتی، مشاهده کردند. دارنل می‌گوید: فکر کردیم، وای! این را انتظار نداشتیم. این یکی از آن لحظات واقعاً شگفت‌انگیز در علم بود. برای دارنل، درک NOVA1 یک تلاش مادام‌العمر بوده است. تصور می‌شود که این ژن به تنظیم یادگیری در انسان کمک می‌کند و جهش‌های آن می‌تواند باعث اختلالات شدید روانی و ناهنجاری‌هایی در رشد حرکتی شود. نقش آن در رشد گفتار تازه در حال ظهور است، و اگرچه بسیاری از فرضیات هنوز باقی مانده است، اما احتمالات بسیار عمیق هستند.

ادامه مطلب


4 ماه قبل - 105 بازدید

وقتی دوره‌ای از زندگی‌یک جامعه با رویدادهای دشوار و ویرانگر سپری می‌‌شود که اثرات بد آن برای کل آن نسل برجای می‌‌ماند، به آن تروما‌یا آسیب جمعی ( به عبارت دیگر ترومای مشترک) می‌گویند. ما انسان‌ها وقتی رویدادهای مثبت‌یا منفی را با هم تجربه می‌کنیم با خاطرات مشترک آن  تجربه به‌یکدیگر متصل می‌شویم. برای مثال زندگی همه‌ی ما تحت تاثیر جنگ‌ها، انفجارات، ویروس کرونا و سایر مواردی که به خاطر می‌آورید تغییر کرده است. مهم نیست که چه کسی و در چه جایگاهی بوده اید، در هر صورت نمی‌توانستید از تاثیرات بد این اتفاقات کاملا ایمن باشید. با درک واکنش هر جامعه نسبت به تجربیات تلخ گذشته می‌فهمیم که طرز فکر و زندگی ما چگونه ممکن است در نتیجه‌ی رویدادهای گوناگون تغییر کند. تروما‌یا آسیب جمعی به معنای شرایط بد روحی و روانی در گروهی از انسان‌هاست که در پاسخ به حادثه‌ی تلخ مشترکی رخ می‌دهد. با استناد به تحقیقی که در 2018 در نشریه‌ی پیشگامان روانشناسی به چاپ رسید: ” ترومای جمعی فرایندی روانشناختی، اجتماعی و پویا می‌باشد که در درجه‌ی اول به ساخت مفهومی‌ جدید منجر می‌‌شود”. به عبارت دیگر ترومای جمعی رویدادی است که باعث می‌‌شود افراد گروه به درک و تصوری مشترک از رویداد آسیب‌زا برسند. آثار ترومای جمعی بر سلامت روان: پریشانی روانی: در بیشتر موارد افرادی که رویداد آسیب‌زای بزرگی را تجربه کرده‌اند نشانه‌های از اختلال اضطراب پس از سانحه یا PTSD را از خودشان بروز می‌دهند. بسیاری از آنها همچنین علائمی مانند کاهش سطح سلامت، احساس نا امنی و اضطراب بالا را نشان می‌دهند. اختلالات اضطرابی: ترومای جمعی مانند هر ترومای دیگری برای سیستم عصبی انسان مشکل‌ساز است. پی تی اس دی ناشی از آن ممکن است باعث حملات پنیک و اضطراب فلج‌کننده هنگام انجام کار‌های باشد که ترومای گذشته را برای فرد یادآوری می‌کند، مانند سوار شدن به هواپیما پس از یک حادثه‌ی هوایی. مهم نیست که اضطراب چگونه ایجاد می‌شود مهم این است که آن را بشناسید و یاد بگیرید با آن کنار بیایید. اگر این علائم در روند عادی و کیفیت زندگی شما تأثیر می‌گذارد زمان آن رسیده که به آن توجه کنید تا علائم بهبود یابند. عزت‌نفس پائین: اگر بی‌توجه به نکات مثبتی که عزیزانتان درمورد شما می‌گویند با عزت‌نفس پائین دست‌وپنجه نرم می‌کنید احتمالاً علت این عزت‌نفس پائین ترومای جمعی می‌تواند باشد. بسیاری از مطالعات ارتباط بین تروما و عزت‌نفس پائین را نشان داده‌اند. بحران موجودیت: وقتی اتفاقات بد رخ می‌دهند، درک آن‌ها یا فهمیدن اینکه با وجودشان چگونه ادامه بدهیم همیشه آسان نیست. این ممکن است باعث بحران موجودیت شود. به این دلیل مردم یا کل جامعه ممکن است احساس دورافتادگی کنند و به باور‌های خود شک کنند و یا حتی ممکن است به جایگاه خود در جهان هستی تردید پیدا کنند. ترومای جمعی چگونه بر جوامع تأثیر می‌گذارد؟ ماهیت آسیب‌های جمعی این است که کل گروه را تحت تأثیر قرار می‌دهد. اکنون به راه‌های که ترومای جمعی با آن‌ها در جوامع تأثیر می‌گذارد نگاهی می‌اندازیم: بیگانه هراسی: تروما و ترس ناشی از آن باعث می‌شود که در حضور افراد خارج از گروه آَشنای خود احساس ناامنی کنیم. این امر به‌ویژه در خصوص مشکلاتی شناخته شده مانند خشونت‌های نظامی، خشونت‌های جنسیتی و جنایات ناشی از خصومت‌های شخصی صادق است. مردم ممکن است از گروهی که با این رویداد‌ها مرتبط‌اند بترسند یا احساس بدی به آن‌ها داشته باشند. ترومای نسلی: هنگامی که افراد ضربۀ روحی‌ای را تجربه می‌کنند یاد می‌گیرند سازگار شوند، رشد می‌کنند و این تجربیات را به فرزندان خود منتقل می‌کنند، اما همه‌ی تجربیاتی که منتقل می‌شوند سازنده نیستند. درحالی‌که فرزندانشان از دانش مفید آن‌ها سود می‌برند با تأثیرات منفی آن‌ها نیز در جدال خواهند بود. این تأثیرات به افزایش احساس اضطراب و دور افتادگی در افراد می‌انجامد. بی‌اعتمادی و خشونت: تحقیقات نشان داده که تروما گاهی به افزایش بی‌اعتمادی و احساس تهدید از سوی دیگران می‌انجامد. این امر بخصوص در مورد افرادی که در کودکی در معرض سوءاستفاده قرار گرفته‌اند شدیدتر است. چگونه گروه‌های انسانی از آسیب‌های جمعی معنا می‌سازند: رویداد‌های که باعث ترومای جمعی می‌شوند اغلب کوتاه‌اند و اما چیزی که مهم است تأثیری است که از آن‌ها باقی می‌ماند؛ یعنی درک انسان‌ها از آنچه اتفاق افتاده میزان و مدت اثر تروما را تعیین می‌کند. گیلاد هیرشبرگر در مقاله‌اش به نام "ترومای اجتماعی و ساخت اجتماعی" معنا توضیح می‌دهد گروه‌های که در معرض ترومای جمعی قرار گرفته‌اند چگونه از تجربهٔ تروما معنای می‌سازند. یافته‌ها پیچیده‌اند؛ اما به زبان ساده او دریافت که انتقال آگاهی در مقایسه با تهدیدات باعث ایمنی گروه اجتماعی می‌شود. با گذشت زمان داشتن شناخت جمعی از تهدید به بخشی از ناخودآگاه گروه تبدیل می‌شود و جداسازی خاطره‌ی آسیب از هویت گروه را دشوار می‌کند. این ویژگی از یک طرف در حفاظت از گروه اجتماعی مؤثر است؛ اما از سوی دیگر گروه را در حالت قربانی بودن نگه می‌دارد. تغییر کردن هر فرد ممکن است به معنی جدا شدن او از گروه باشد و این اتفاق یعنی تهدیدی اجتماعی به معنی از دست دادن بخشی از هویت فرد. پس چرا برخی از انسان‌ها باید به گذشته‌ی دردناک خود بچسبند؟ به این دلیل که گروه ناخودآگاه می‌ترسد که فراموش کردن تجربه‌ی قبلی به معنای قرار گرفتن در معرض آسیب‌های دوباره است. افراط در رویکرد از یک سوراخ دوبار گزیده نشدن اعضای جامعه را در حالتی قرار می‌دهد که همیشه مراقب باشند. این اضطراب مزمن و فعال بودن مدام پاسخ فیزیولوژیک ستیز و گریز در بدن ممکن است احساس ایمنی ضعیف به همراه داشته باشد و بهای سنگینی دارد. چگونه ترومای جمعی را درمان کنیم؟ اتفاقاتی که باعث ترومای جمعی می‌شوند دردناک و سنگین‌اند. سرکوب احساسات و نادیده گرفتن تجربیات فردی اولین گزینه‌ای است که افراد ناخواسته انجام می‌دهند. اگر مستقیماً تحت‌تأثیر آسیب قرار نگرفته‌اید ممکن است برای شناخت ترومایی که در شما شکل گرفته است زمان کافی نگذارید و این می‌تواند خطرناک باشد؛ سرکوب تروما ممکن است عواقب منفی در سلامت روح و جسم شما داشته باشد. در اینجا چند راه برای بهبود وضعیت روحی و جسمی شما معرفی می‌کنیم: افزایش پیوند با دوستان و خانواده فعالیت‌های خیریه و داوطلبانه از دیگران کمک بخواهید پیگیری بیش از حد اخبار را متوقف کنید نیمه‌ی پر لیوان را ببینید سخن پایانی: در جایگاه یک فرد از جامعه مواجه شدن با آسیب اجتماعی ممکن است دشوار باشد؛ اما اگر بتوانیم انعطاف‌پذیر بودن را بیاموزیم از مزایای غلبه بر بحران‌ها بهره‌مند خواهیم شد. نویسنده: مرضیه بهروزی «روانشناس بالینی»

ادامه مطلب


12 ماه قبل - 245 بازدید

سایت علمی اس‌دی در گزارشی نوشته است که پژوهشگران هشدار می‌دهند که سیستم‌های هوش مصنوعی تا اکنون یاد گرفته‌اند که چگونه انسان‌ها را فریب دهند. محققان در مورد پتانسیل سیستم‌های هوش مصنوعی برای درگیر شدن در رفتارهای فریبنده هشدار می‌دهند و می‌گویند هوش مصنوعی می‌تواند پیامدهای اجتماعی جدی داشته باشد. آن‌ها بر نیاز به اقدامات نظارتی قوی برای مدیریت موثر این خطرات تاکید می‌کنند. بسیاری از سیستم‌های هوش مصنوعی حتی آن‌هایی که برای مفید بودن و راستگویی طراحی شده‌اند، یاد گرفته‌اند که چگونه انسان‌ها را فریب دهند. پژوهشگران در مقاله‌ای که به تازگی در مجله Patterns منتشر شده است، خطرات فریب هوش مصنوعی را برجسته می‌کنند و از دولت‌ها می‌خواهند که به سرعت مقرراتی قوی برای کاهش این خطرات وضع کنند. پیتر اس پارک فوق دکترای ایمنی وجودی هوش مصنوعی در موسسه فناوری ماساچوست(MIT) و نویسنده ارشد این مطالعه می‌گوید: توسعه دهندگان هوش مصنوعی درک مطمئنی از آنچه باعث رفتارهای نامطلوب هوش مصنوعی مانند فریب دادن می‌شود، ندارند. اما به طور کلی ما فکر می‌کنیم که فریب هوش مصنوعی به این دلیل به وجود می‌آید که یک استراتژی مبتنی بر فریب بهترین راه برای عملکرد خوب در وظیفه آموزشی هوش مصنوعی است. این فریب به آنها کمک می‌کند تا به اهداف خود برسند. پارک و همکارانش مقالاتی را تجزیه و تحلیل کردند که بر روش‌هایی متمرکز بود که سیستم‌های هوش مصنوعی اطلاعات نادرست را از طریق فریب‌های آموخته‌شده که در آن به طور سیستماتیک یاد می‌گیرند اطلاعات را دستکاری کنند و افراد را فریب دهند، منتشر می‌کنند. نمونه‌هایی از فریب هوش مصنوعی بارزترین نمونه فریب هوش مصنوعی که محققان در تجزیه و تحلیل خود کشف کردند، متعلق به سیستم CICERO شرکت متا(فیسبوک سابق) بود که یک سیستم هوش مصنوعی طراحی شده برای بازی استراتژیک فتح جهان است. اگرچه متا ادعا می‌کند که CICERO را به گونه‌ای آموزش داده است که تا حد زیادی صادق و مفید باشد و هیچ گاه عمداً به متحدان انسانی خود در حین بازی از پشت خنجر نزند، داده‌هایی که این شرکت به همراه مقاله علمی خود منتشر کرد، نشان داد که CICERO منصفانه بازی نمی‌کند. پارک می‌گوید: ما متوجه شدیم که هوش مصنوعی متا یاد گرفته است که در فریبکاری استاد باشد. در حالی که متا موفق شد هوش مصنوعی خود را برای برنده شدن در این بازی آموزش دهد، اما CICERO در بین ۱۰ درصد از بازیکنان انسانی برتر قرار گرفت که بیش از یک بازی انجام داده بودند. ضمنا متا نتوانسته هوش مصنوعی خود را برای برنده شدن صادقانه آموزش دهد. سایر سیستم‌های هوش مصنوعی توانایی بلوف زدن در بازی پوکر علیه بازیکنان انسانی حرفه‌ای، حملات جعلی در طول بازی استراتژیک Starcraft II به منظور شکست دادن حریفان و ارائه پیشنهادات نادرست در مذاکرات اقتصادی را نشان داده‌اند. خطرات هوش مصنوعی فریبنده پارک افزود: اگرچه ممکن است تقلب سیستم‌های هوش مصنوعی در بازی‌ها بی‌ضرر به نظر برسد، اما می‌تواند منجر به پیشرفت در قابلیت‌های هوش مصنوعی فریبنده شود که می‌تواند در آینده به اشکال پیشرفته‌تر فریب هوش مصنوعی تبدیل شود. محققان دریافتند برخی از سیستم‌های هوش مصنوعی حتی یاد گرفته‌اند که در آزمایش‌هایی که برای ارزیابی ایمنی آنها طراحی شده‌اند، تقلب کنند. پارک می‌گوید: یک هوش مصنوعی فریبنده با ارتکاب تقلب سیستماتیک در آزمایش‌های ایمنی توسعه‌دهندگان و تنظیم‌کننده‌های انسانی می‌تواند ما انسان‌ها را به سمت یک احساس امنیت کاذب سوق دهد. پارک هشدار می‌دهد که خطرات کوتاه‌مدت هوش مصنوعی فریبنده شامل آسان‌تر کردن تقلب و دستکاری در مسائلی نظیر انتخابات است. به گفته وی در نهایت اگر این سیستم‌ها بتوانند این مجموعه مهارت‌های ناراحت‌کننده را توسعه دهند و بهبود ببخشند، ممکن است روزی انسان‌ها کنترل خود را روی هوش مصنوعی از دست بدهند. پارک می‌گوید: ما به عنوان یک جامعه به زمان بیشتری نیاز داریم تا برای فریب پیشرفته‌تر محصولات آینده هوش مصنوعی و مدل‌های منبع باز آماده شویم. با پیشرفته‌تر شدن قابلیت‌های فریبنده سیستم‌های هوش مصنوعی، خطراتی که برای جامعه ایجاد می‌کنند، جدی‌تر می‌شوند. در حالی که پارک و همکارانش فکر می‌کنند جامعه علمی هنوز اقدام مناسبی برای رسیدگی به فریب هوش مصنوعی انجام نداده است، آنها سیاست‌گذاران را تشویق می‌کنند که اقداماتی مانند قانون هوش مصنوعی اتحادیه اروپا و فرمان اجرایی هوش مصنوعی جو بایدن رئیس جمهور آمریکا را جدی بگیرند. پارک می‌گوید البته باید دید که آیا سیاست‌های طراحی‌شده برای کاهش فریب هوش مصنوعی با توجه به اینکه توسعه‌دهندگان هوش مصنوعی هنوز تکنیک‌هایی برای کنترل این سیستم‌ها ندارند، می‌توانند به درستی اجرا شوند؟ وی افزود: اگر ممنوعیت فریبکاری هوش مصنوعی در حال حاضر از نظر سیاسی غیرممکن است، توصیه می‌کنیم که سیستم‌های هوش مصنوعی فریبنده با برچسب پرخطر طبقه‌بندی شوند.

ادامه مطلب