برچسب: هوش مصنوعی

1 سال قبل - 230 بازدید

سایت علمی فوربس گزارش داده است که اگرچه هوش مصنوعی مولد به سرعت گسترش می‌یابد و کارآیی بسیاری را برای شرکت‌ها دارد، اما با مشکلاتی نیز به همراه است که باید به آن‌ها توجه شود. هوش مصنوعی مولد به ‌ویژه مدل‌های زبانی بزرگ مانند ChatGPT، مهم‌ترین محصول نهایی هستند که از زمان آغازشدن پژوهش در حوزه هوش مصنوعی به کار گرفته شده‌اند. درگزارش آمده است که اهمیت هوش مصنوعی مولد، یک موضوع قابل توجه است. شرکت مشاور مدیریت مک‌کنزی تخمین می‌زند که هوش مصنوعی مولد می‌تواند سالانه ۷.۹ تریلیون دلار را به اقتصاد جهانی اضافه کند. در ادامه آمده است که هوش مصنوعی مولد با وجود پتانسیل فوق‌العاده‌ای که دارد، بدون کاستی نیست. به نقل از سایت علمی فوربس، در واقع، می‌توان استدلال کرد که ورود آن فعلاً اوضاع را به هم ریخته است. حال که ۱۰ ماه از انتشار ChatGPT 4 می‌گذرد، بیایید نگاهی به مشکلات اصلی هوش مصنوعی مولد بیندازیم و چند ایده را در مورد چگونگی غلبه کردن بر آن‌ها بررسی کنیم. ۱. دقت همه ما درباره مشکل توهم ChatGPT شنیده‌ایم. مدل‌های زبانی بزرگ برای ارائه دادن پاسخ‌های احتمالی طراحی شده‌اند که از داده‌های آموزشی می‌گیرند و می‌توانند کمی بیش از اندازه نسبت به ارائه دادن پاسخ مشتاق باشند. این موضوع مشخص شده است که مدل‌های زبانی بزرگ به ‌جای گفتن «نمی‌دانم»، پاسخ‌هایی را درست می‌کنند و مشکلات بسیاری را از آسیب‌رساندن به یک برند گرفته تا نقض کردن مقررات به وجود می‌آورند. ایجاد حفاظ‌های اخلاقی و موضوعی برای مدل‌های مولد هوش مصنوعی می‌تواند به حل کردن این مشکل کمک کند. بنابراین، تقویت کردن آموزش یک مدل هوش مصنوعی مولد با پایگاه‌های دانش مختص حوزه‌های سازمانی می‌تواند سودمند باشد. با وجود این، شرکت‌ها به منظور آماده شدن برای یک آینده قابل پیش‌بینی باید دقت بهتری را در اعلان‌های مهندسی داشته باشند و یک انسان را در جریان نگه دارند تا همه اطلاعات تولید شده با مدل‌ زبانی بزرگ را بررسی کند. ۲. سوگیری شاید مشکل سوگیری هوش مصنوعی، یک خبر قدیمی باشد، اما گسترش سریع هوش مصنوعی مولد این نگرانی را بیش از حد تصور تشدید کرده است. اکنون، به جای نگرانی در مورد یک سوگیری کوچک، مدیران شرکت‌ها باید نگران باشند که سوگیری هوش مصنوعی بتواند فرهنگ شرکت آن‌ها را به طور کامل تحت سلطه خود درآورد. آیا سهولت استفاده کردن از برنامه‌هایی مانند ChatGPT به این معناست که با توجه کردن به یک دیدگاه، تعدد صداهای ما خفه می‌شود؟ منتقدان ادعا کرده‌اند که این نرم‌افزار یک سوگیری آشکار دارد که تعصبات جنسیتی را تداوم می‌بخشد و ذاتا از نظر نژادی مغرضانه عمل می‌کند. برای اطمینان یافتن از اینکه هوش مصنوعی مولد نمی‌تواند دیدگاه‌های سمی را در یک سازمان یا شرکت تداوم ببخشد، گروه مهندسی شرکت باید در تماس نزدیک با این موضوع باشد و تلاش کند تا ارزش‌های شرکتی و انسانی خود را به هوش مصنوعی القا کند. ۳. حجم اطلاعات با توجه به اینکه ایجاد محتوای جدید با هوش مصنوعی مولد بسیار آسان شده است، غرق در اطلاعات شده‌ایم. ایمیل‌ها، کتاب‌های الکترونیکی، صفحات وب، پست‌های منتشر شده در رسانه‌های اجتماعی و سایر آثار تولید شده، سیل اطلاعات را سرازیر می‌کنند. حتی حجم درخواست‌های شغلی نیز افزایش یافته که به دلیل توانایی در تولید سریع رزومه‌های سفارشی‌سازی‌شده و نامه‌های پوششی با هوش مصنوعی است. مدیریت کردن این حجم بزرگ از اطلاعات جدید، کار دشواری است. چگونه می‌توان از کوه اطلاعات ایجادشده در یک سازمان استفاده کرد؟ چگونه می‌توان همه این اطلاعات را ذخیره کرد؟ چگونه می‌توان با تحلیل داده‌ها همگام شد؟ وقتی همه محتوا با هوش مصنوعی تولید شده باشد، شایستگی اطلاعات و اشخاص چگونه ارزیابی خواهد شد؟ برای جلوگیری کردن از سردرگمی و فرسودگی کارمندان باید فناوری‌ها و روش‌های مناسبی را سازمان‌دهی کرد، زیرا حجم اطلاعات پس از این بیشتر هم خواهد شد. ۴. امنیت سایبری هوش مصنوعی مولد، قابلیت انجام دادن حملات سایبری جدید را به شدت افزایش داده است. از این فناوری می‌توان برای تحلیل رمز به منظور افزایش دادن آسیب‌پذیری و نوشتن بدافزار استفاده کرد. همچنین، می‌توان از هوش مصنوعی مولد برای تولید کردن فیلم‌های جعلی و صداهای شبیه‌سازی‌شده به منظور کلاه‌برداری و آدم‌ربایی مجازی استفاده کرد. هوش مصنوعی مولد می‌تواند ایمیل‌های قانع‌کننده‌ای را در حمایت کردن از حملات فیشینگ و موارد دیگر بنویسد. علاوه بر این، رمزهایی که با کمک هوش مصنوعی نوشته می‌شوند، ممکن است بیشتر از رمزهای تولیدشده توسط انسان در معرض هک شدن باشند. بهترین راه مقابله کردن با آتش، خود آتش است. هوش مصنوعی می‌تواند برای تحلیل کردن رمز در جستجوی آسیب‌پذیری‌ها و انجام دادن آزمایش‌های نفوذ مداوم و بهبود مدل‌های دفاعی استفاده شود. نباید آسیب‌پذیری شماره یک امنیت سایبری را در یک شرکت فراموش کرد. این آسیب‌پذیری، انسان‌ها هستند. هوش مصنوعی مولد می‌تواند گزارش‌های فعالیت کاربر را در جستجوی رفتار خطرناک تحلیل کند، اما اولین خط دفاعی شرکت باید آموزش دادن کارکنانی باشد که بیشتر از پیش هوشیاری به خرج دهند. ۵. مالکیت معنوی شکایت‌های هنرمندان، نویسندگان، آژانس‌های عکس و سایرین نشان می‌دهد که داده‌ها و سبک‌های اختصاصی این افراد بدون اجازه آن‌ها برای آموزش دادن نرم‌افزار هوش مصنوعی مولد استفاده شده است. شرکت‌هایی که از نرم‌افزار مولد هوش مصنوعی استفاده می‌کنند، نگران هستند که در این معضل گرفتار شوند. اگر هوش مصنوعی مولد تصاویری را از یک کمپین تبلیغاتی تولید کند که ناخواسته به حریم کار شخص دیگری وارد شود، مسئولیت آن با چه کسی خواهد بود؟ اطلاعاتی که با استفاده از هوش مصنوعی ایجاد می‌شوند، متعلق به چه کسی هستند؛ اشخاص، شرکت‌های نرم‌افزاری مولد هوش مصنوعی یا خود هوش مصنوعی؟ تاکنون حکم این بوده که آثار تولید شده توسط انسان‌ها با کمک هوش مصنوعی دارای حق چاپ هستند، اما هنوز در مورد ثبت اختراعات صحبت نشده است. توصیه کارشناسان این است که انسان‌ها در جریان ایجاد همه اطلاعات قرار بگیرند و اطمینان حاصل شود که تیم حقوقی شرکت با توجه به سرعت تکامل قوانین، به انجام دادن بررسی‌های لازم ادامه دهند. ۶. سایه هوش مصنوعی روی کار نظرسنجی شرکت رایانش ابری سیلزفورس که روی ۱۴ هزار نفر کارمند در ۱۴ کشور انجام شده است، نشان می‌دهد نیمی از کارکنانی که از فناوری‌های مولد هوش مصنوعی استفاده می‌کنند، این کار را بدون تایید سازمان‌های محل اشتغال خود انجام می‌دهند. بازگشت به روش‌های پیشین در این مورد امکان‌پذیر نخواهد بود. بنابراین، بهتر است سیاست‌هایی را برای هوش مصنوعی مولد تعیین کرد و برنامه‌هایی را برای آموزش دادن کارکنان به کار گرفت. همچنین، کارمندان باید با سرپرست‌های فناوری اطلاعات شرکت خود در مورد کارهایی صحبت کنند که برای کشف و مدیریت نرم‌افزارهای هوش مصنوعی مولد روی دستگاه‌های شرکت انجام می‌دهند. هنوز مشکلاتی برای مدیریت کردن هوش مصنوعی مولد وجود دارد، اما این فناوری باید مدیریت شود زیرا ما در بحبوحه روند تغییر کردن نحوه انجام دادن تجارت به شیوه‌ای هستیم که پیشتر توسط هیچ‌کس انجام نشده است. هوش مصنوعی مولد، حوزه‌های گوناگونی را از جمله مراقبت‌های بهداشتی، بانکداری، تدارکات، بیمه، خدمات مشتریان و تجارت الکترونیک تحت تاثیر قرار داده است. به سختی می‌توان صنعتی را یافت که به ‌دلیل استفاده کردن از هوش مصنوعی مولد، ناگهان در معرض اختلالات برق‌آسا قرار نگیرد. آسیب‌پذیری و سرعت اختلال هرگز بیشتر از این نبوده است. هوش مصنوعی امسال باید در اولویت هیئت مدیره شرکت‌ها باشد.

ادامه مطلب


1 سال قبل - 171 بازدید

سایت علمی بیزنس اعلام کرده است که نتایج تحقیقات جدید نشان داد که هوش مصنوعی هنوز برای جایگزینی بیشتر مشاغل انسانی پرهزینه است. این سایت علمی با نشر گزارشی گفته است که محققان از دست دادن شغل ناشی از هوش مصنوعی را کمتر از ریزش شغل کنونی در بازار می‌دانند. در ادامه آمده است که بر اساس نتایج تحقیق موسسه فناوری ماساچوست، هوش مصنوعی (AI) هنوز برای جایگزینی بیشتر مشاغل انسانی پرهزینه است. در گزارش آمده است که عبارت «ماشین‌ها مشاغل ما را می‌دزدند» احساسی است که اغلب در زمان تغییرات سریع فناوری بیان می‌شود. چنین اضطرابی با ایجاد مدل‌های زبانی بزرگ (مانند چت بات ChatGPT، Bard، GPT-۴) که مهارت قابل‌توجهی در کارهایی که قبلا فقط انسان‌ها در آنها مهارت نشان می‌دادند، دوباره ظهور کرده است. سایت علمی بیزنس می‌گوید که تحقیقات نشان داده است که تنها ۲۳ درصد از جبران خسارت کارگرانی که در معرض توانایی رایانه‌ای هوش مصنوعی قرار می‌گیرند، به دلیل هزینه‌های اولیه بالای سیستم‌های هوش مصنوعی، برای شرکت‌ها مقرون‌به‌صرفه است. برعکس، در صورتی که یک سیستم فقط در سطح شرکت قابل استفاده باشد، ۷۷ درصد از وظایف برای خودکارسازی مقرون به صرفه نیستند. در گزارش آمده است که این تضاد روشن می‌کند که مقرون به صرفه بودن مدل‌های هوش مصنوعی احتمالا نقش مهمی در گسترش فناوری ایفا می‌کند. این تحقیق می‌گوید حتی اگر سیستم رایانه‌ای هوش مصنوعی ۱۰۰۰ دلار قیمت داشته باشد، باز هم وظایفی وجود دارد مانند مشاغل کم دستمزد و کار در شرکت‌های کوچک که جایگزینی آن‌ها با هوش مصنوعی از نظر اقتصادی جذاب نیست. این موسسه افزود هوش مصنوعی می‌تواند از طریق کاهش هزینه گسترش یا افزایش مقیاسی که در آن پیشرفت انجام می‌شود، جذاب‌تر شود. در گزارش آمده است که به‌طور کلی، مدل ما نشان می‌دهد که از دست دادن شغل ناشی از توانایی رایانه‌ای هوش مصنوعی، حتی فقط در مجموعه وظایف آن، کمتر از انحراف شغلی موجود در بازار خواهد بود بنابراین جایگزینی نیروی کار بیشتر تدریجی تا ناگهانی خواهد شد.

ادامه مطلب


1 سال قبل - 343 بازدید

سایت‌های علمی ساینس گزارش داده است که تجزیه و تحلیل اثر انگشت به دلیل منحصر به فرد بودن و ماندگاری الگوها، ابزاری ارزشمند در تنظیمات قانونی و امنیتی در نظر گرفته می‌شود؛ هیچ دو نفر و حتی دوقلوهای همسانی یافت نشدند که الگوی اثر انگشت مشترک داشته باشند در واقع، اثر انگشت آنقدر منحصر به فرد است که اثر انگشت شما حتی با یکدیگر همخوانی ندارد، اما اکنون، تحقیقات جدید با استفاده از هوش مصنوعی (AI) ادعاهایی را مطرح کرده است که می‌تواند مسیر شناسایی اثر انگشت پزشکی قانونی را تغییر دهد. این سایت علمی در گزارشش نوشته است، در حالی که منحصر به فرد بودن اثر انگشتان آن چیزی است که آن‌ها را در تحقیقات صحنه جرم بسیار مهم جلوه می‌دهند، اما ناتوانی در تطبیق اثر انگشت مختلف از یک شخص که به عنوان اثر انگشت درون شخص شناخته می‌شود، می‌تواند باعث ایجاد مشکلات اساسی در ارتباط شواهد پزشکی قانونی شود. محققان دانشگاه کلمبیا مدلی از هوش مصنوعی ایجاد کرده‌اند که می‌تواند با اطمینان ۹۹.۹۹ درصد با اثر انگشت‌های درون فردی مطابقت داشته باشد البته با این استدلال که اثر انگشت یک فرد منحصر به فرد نیست و ما فقط آن‌ها را به روشی اشتباه مقایسه کرده‌ایم. الگوهای اثرانگشت از برجستگی‌ها و شیارهای فرورفته روی انگشتان تشکیل شده است. در حال حاضر، اثر انگشت با مقایسه الگوهای برآمدگی اصطکاکی بر اساس سه دسته‌بندی حلقه‌ها، چرخش‌ها و قوس‌ها تجزیه و تحلیل می‌شوند. فرآیند تصمیم‌گیری هوش مصنوعی جدید مبتنی بر تجزیه و تحلیل الگوهای باینری، جهت، تراکم برآمدگی و جزئیات است. محققان با تجزیه و تحلیل چرخش‌ها و حلقه‌های نزدیک به مرکز اثر انگشت که منحصر به فرد شناخته می‌شوند این مورد را دریافتند که بیشتر شباهت‌های اثر انگشت درون فردی با جهت‌گیری برجستگی توضیح داده می‌شود و به این نتیجه رسیدند که جزئیات، کمترین اعتبار را در بین دسته‌های تحلیل دارند. آنان استدلال کردند در حالی که تجزیه و تحلیل جزئیات ممکن است دقیق‌ترین مورد برای تطبیق انگشتان یکسان باشد، اما بر روی ویژگی‌های اثر انگشت فردی تمرکز می‌کند که بعید است در اثر انگشت درون فردی رخ دهد و این مورد باعث می‌شود که برای تطبیق انگشت متقابل دقت کمتری داشته باشد. این مدل با استفاده از پایگاه داده عمومی دولت ایالات‌متحده از حدود ۶۰هزار اثر انگشت و ۵۲۵ هزار تصویر، آموزش داده شد. آنان دریافتند که عملکرد هوش مصنوعی در بین جنسیت‌ها و گروه‌های نژادی مختلف سازگار است و زمانی که با نمونه‌هایی از همه گروه‌ها آموزش داده می‌شود، بهترین عملکرد را دارد. محقق این تحقیق، ارشد مهندسی دانشگاه کلمبیا که به تجزیه و تحلیل داده‌ها کمک کرد، در بیانیه‌ای گفت: «فقط تصور کنید وقتی این کار روی میلیون‌ها اثر انگشت آموزش داده شود، چقدر خوب عمل می‌کند.» این گروه امیدوار هستند که روزی بتوان از این مدل هوش مصنوعی برای اولویت‌بندی سرنخ‌ها، تبرئه مظنونان بی‌گناه و به‌طور بالقوه کمک به ایجاد سرنخ‌های جدید برای موارد خاص استفاده کرد. هاد لیپسون، محقق و استاد دانشگاه مهندسی کلمبیا گفت: «این تحقیق نمونه‌ای از این مورد است که چگونه حتی نمونه‌ای از هوش مصنوعی تقریبا ساده، با توجه به مجموعه داده‌های ساده‌ای که سال‌ها در اطراف جامعه پژوهشی وجود داشته است، می‌تواند بینش‌هایی ارائه دهد که برای دهه‌ها از کارشناسان دور بوده است.» هیجان‌انگیزتر این واقعیت است که  دانشجوی کارشناسی بدون هیچ پیشینه‌ای در پزشکی قانونی، می‌تواند از هوش مصنوعی برای به چالش کشیدن باورهای رایج در کل رشته استفاده کند. ما در آستانه تجربه انفجاری از اکتشافات علمی مبتنی بر هوش مصنوعی توسط افراد غیرمتخصص هستیم و جامعه متخصص، از جمله دانشگاهیان، باید آماده شوند. با این حال، این تحقیق بدون انتقاد نبوده است؛ این مقاله در ابتدا توسط مجله معتبر پزشکی قانونی با داور و ویراستار متخصص ناشناس رد شد و به این نتیجه رسید که به خوبی شناخته شده است که هر «اثر انگشت منحصر به فرد است» و تشخیص شباهت‌های درون فردی ممکن نیست. در حالی که این مقاله نیاز به آموزش مدل را بر روی مجموعه داده‌های بزرگتر و متنوع‌تر تایید می‌کند، باید دید که آیا هوش مصنوعی قادر به تولید نتایج به اندازه کافی قابل اعتماد برای ارائه شواهد قطعی در محکومیت‌های جنایی است یا خیر. نتایج این تحقیق در نشریه Science Advances منتشر شده است.

ادامه مطلب


1 سال قبل - 191 بازدید

سایت علمی دیلی‌میل در گزارشی نوشته است که یک نظرسنجی جدید نشان می‌دهد که هوش مصنوعی می‌تواند انسان‌ها را به سوی انقراض سوق دهد. دیلی‌میل نوشته است که بسیاری از کارشناسان فناوری هشدار داده‌اند که هوش مصنوعی در مسیر تخریب و نابودی قرار دارد، اما یک بررسی جدید از محققان برتر احتمال انقراض انسان را مشخص کرده است. در ادامه آمده است که گروهی از دانشمندان بین‌المللی از دو هزار و ۷۷۸ متخصص هوش مصنوعی در مورد آینده این سیستم‌ها سوال کردند و پنج درصد گزارش کردند که این فناوری منجر به فروپاشی خواهد شد. این سایت علمی نوشته است که از هر ۱۰ محقق، یک نفر به موضوع ترسناک‌تری اشاره کرد و آن وجود ۲۵ درصد شانس نابودی بشر توسط هوش مصنوعی بود. کارشناسان سه دلیل احتمالی را در این مورد ذکر کردند. هوش مصنوعی به گروه‌های تهدیدکننده اجازه می‌دهد ابزارهای قدرتمندی مانند ویروس‌های مهندسی شده بسازند، حاکمان مستبد از هوش مصنوعی برای کنترل جمعیت خود استفاده می‌کنند و سیستم‌های هوش مصنوعی نابرابری اقتصادی را بدتر می‌کند. کنترل و تنظیم هوش مصنوعی تنها راه حل برای محافظت از انسان است و اگر هوش مصنوعی تنظیم نشود، محققان تخمین می‌زنند که ۱۰ درصد احتمال دارد که ماشین‌ها تا سال ۲۰۲۷ در همه وظایف از انسان‌ها بهتر عمل کنند و این احتمال تا سال ۲۰۴۷ به ۵۰ درصد افزایش خواهد یافت. در این نظرسنجی از کارشناسان درباره چهار شغل خاص که کاملاً خودکار می‌شوند، سوال شد و پاسخ دریافت کردند که احتمال ۵۰ درصد وجود دارد که هوش مصنوعی تا سال ۲۱۱۶ به طور کامل همه چیز را تصاحب کند. کاتیا گریس، یکی از نویسندگان این مطالعه، به نیوساینتیست گفته است: «این یک نشانه مهم است که اکثر محققان هوش مصنوعی غیرممکن نمی‌دانند که هوش مصنوعی پیشرفت بشریت را نابود کند.» تقریبا ۵۸ درصد از محققان نسبت به تصاحب هوش مصنوعی خوشبین‌تر بودند و گفتند تنها پنج درصد احتمال دارد که باعث انقراض انسان شود. سازمان ملل متحد پیش از این هشدارهایی را در مورد استفاده گروه‌های تروریستی از هوش مصنوعی برای اهداف مخرب به اشتراک گذاشته است. سایت علمی دیلی‌میل گزارش داده است که اثبات شده که در دنیای جرایم سایبری، هوش مصنوعی ابزار قدرتمندی است که می‌توان از آن برای پیشبرد یا تسهیل تروریسم و افراط‌گرایی خشونت‌آمیز منجر به تروریسم استفاده کرد. مدیر سازمان ملل متحد در گزارشی از سازمان ملل گفت: «اتومبیل‌های خودران، افزایش حملات سایبری به زیرساخت‌های حیاتی، یا امکان گسترش سخنان نفرت‌انگیز و تحریک به خشونت به روشی سریع‌تر و کارآمدتر از مواردی هستند که توسط هوش مصنوعی می‌توان انجام داد. این در حالی است که در سال ۲۰۲۳، تنها ۳۷ درصد از کارگران با هوش مصنوعی جایگزین شدند.» صدها کارشناس، از جمله سم آلتمن، مدیر اجرایی شرکت اُپن ای‌آی(OpenAI)  و دمیس حسابیس، مدیر اجرایی دیپ‌مایند گوگل (Google DeepMind)، در ماه می سال گذشته بیانیه‌ای در یک جمله صادر کردند و خواستار کنترل و وضع مقررات بیشتر برای هوش مصنوعی شدند. در این بیانیه آمده است: «کاهش خطر انقراض ناشی از هوش مصنوعی باید در کنار سایر خطرات اجتماعی مانند بیماری‌های همه‌گیر و جنگ هسته‌ای یک اولویت جهانی باشد.» حتی «پدرخوانده هوش مصنوعی»، جفری هینتون، گفت که از ایجاد هوش مصنوعی پشیمان است اگرچه به نیویورک تایمز گفت: من خودم را با این بهانه دلداری می‌دهم که اگر من این کار را نمی‌کردم، شخص دیگری این کار را می‌کرد. هنوز ابهامات قابل توجهی در مورد تأثیرات بلندمدت هوش مصنوعی وجود دارد و این مطالعه اذعان دارد که پیش‌بینی حتی برای متخصصان نیز سخت است.

ادامه مطلب