برچسب: هوش مصنوعی

1 سال قبل - 325 بازدید

سایت‌های علمی ساینس گزارش داده است که تجزیه و تحلیل اثر انگشت به دلیل منحصر به فرد بودن و ماندگاری الگوها، ابزاری ارزشمند در تنظیمات قانونی و امنیتی در نظر گرفته می‌شود؛ هیچ دو نفر و حتی دوقلوهای همسانی یافت نشدند که الگوی اثر انگشت مشترک داشته باشند در واقع، اثر انگشت آنقدر منحصر به فرد است که اثر انگشت شما حتی با یکدیگر همخوانی ندارد، اما اکنون، تحقیقات جدید با استفاده از هوش مصنوعی (AI) ادعاهایی را مطرح کرده است که می‌تواند مسیر شناسایی اثر انگشت پزشکی قانونی را تغییر دهد. این سایت علمی در گزارشش نوشته است، در حالی که منحصر به فرد بودن اثر انگشتان آن چیزی است که آن‌ها را در تحقیقات صحنه جرم بسیار مهم جلوه می‌دهند، اما ناتوانی در تطبیق اثر انگشت مختلف از یک شخص که به عنوان اثر انگشت درون شخص شناخته می‌شود، می‌تواند باعث ایجاد مشکلات اساسی در ارتباط شواهد پزشکی قانونی شود. محققان دانشگاه کلمبیا مدلی از هوش مصنوعی ایجاد کرده‌اند که می‌تواند با اطمینان ۹۹.۹۹ درصد با اثر انگشت‌های درون فردی مطابقت داشته باشد البته با این استدلال که اثر انگشت یک فرد منحصر به فرد نیست و ما فقط آن‌ها را به روشی اشتباه مقایسه کرده‌ایم. الگوهای اثرانگشت از برجستگی‌ها و شیارهای فرورفته روی انگشتان تشکیل شده است. در حال حاضر، اثر انگشت با مقایسه الگوهای برآمدگی اصطکاکی بر اساس سه دسته‌بندی حلقه‌ها، چرخش‌ها و قوس‌ها تجزیه و تحلیل می‌شوند. فرآیند تصمیم‌گیری هوش مصنوعی جدید مبتنی بر تجزیه و تحلیل الگوهای باینری، جهت، تراکم برآمدگی و جزئیات است. محققان با تجزیه و تحلیل چرخش‌ها و حلقه‌های نزدیک به مرکز اثر انگشت که منحصر به فرد شناخته می‌شوند این مورد را دریافتند که بیشتر شباهت‌های اثر انگشت درون فردی با جهت‌گیری برجستگی توضیح داده می‌شود و به این نتیجه رسیدند که جزئیات، کمترین اعتبار را در بین دسته‌های تحلیل دارند. آنان استدلال کردند در حالی که تجزیه و تحلیل جزئیات ممکن است دقیق‌ترین مورد برای تطبیق انگشتان یکسان باشد، اما بر روی ویژگی‌های اثر انگشت فردی تمرکز می‌کند که بعید است در اثر انگشت درون فردی رخ دهد و این مورد باعث می‌شود که برای تطبیق انگشت متقابل دقت کمتری داشته باشد. این مدل با استفاده از پایگاه داده عمومی دولت ایالات‌متحده از حدود ۶۰هزار اثر انگشت و ۵۲۵ هزار تصویر، آموزش داده شد. آنان دریافتند که عملکرد هوش مصنوعی در بین جنسیت‌ها و گروه‌های نژادی مختلف سازگار است و زمانی که با نمونه‌هایی از همه گروه‌ها آموزش داده می‌شود، بهترین عملکرد را دارد. محقق این تحقیق، ارشد مهندسی دانشگاه کلمبیا که به تجزیه و تحلیل داده‌ها کمک کرد، در بیانیه‌ای گفت: «فقط تصور کنید وقتی این کار روی میلیون‌ها اثر انگشت آموزش داده شود، چقدر خوب عمل می‌کند.» این گروه امیدوار هستند که روزی بتوان از این مدل هوش مصنوعی برای اولویت‌بندی سرنخ‌ها، تبرئه مظنونان بی‌گناه و به‌طور بالقوه کمک به ایجاد سرنخ‌های جدید برای موارد خاص استفاده کرد. هاد لیپسون، محقق و استاد دانشگاه مهندسی کلمبیا گفت: «این تحقیق نمونه‌ای از این مورد است که چگونه حتی نمونه‌ای از هوش مصنوعی تقریبا ساده، با توجه به مجموعه داده‌های ساده‌ای که سال‌ها در اطراف جامعه پژوهشی وجود داشته است، می‌تواند بینش‌هایی ارائه دهد که برای دهه‌ها از کارشناسان دور بوده است.» هیجان‌انگیزتر این واقعیت است که  دانشجوی کارشناسی بدون هیچ پیشینه‌ای در پزشکی قانونی، می‌تواند از هوش مصنوعی برای به چالش کشیدن باورهای رایج در کل رشته استفاده کند. ما در آستانه تجربه انفجاری از اکتشافات علمی مبتنی بر هوش مصنوعی توسط افراد غیرمتخصص هستیم و جامعه متخصص، از جمله دانشگاهیان، باید آماده شوند. با این حال، این تحقیق بدون انتقاد نبوده است؛ این مقاله در ابتدا توسط مجله معتبر پزشکی قانونی با داور و ویراستار متخصص ناشناس رد شد و به این نتیجه رسید که به خوبی شناخته شده است که هر «اثر انگشت منحصر به فرد است» و تشخیص شباهت‌های درون فردی ممکن نیست. در حالی که این مقاله نیاز به آموزش مدل را بر روی مجموعه داده‌های بزرگتر و متنوع‌تر تایید می‌کند، باید دید که آیا هوش مصنوعی قادر به تولید نتایج به اندازه کافی قابل اعتماد برای ارائه شواهد قطعی در محکومیت‌های جنایی است یا خیر. نتایج این تحقیق در نشریه Science Advances منتشر شده است.

ادامه مطلب


1 سال قبل - 181 بازدید

سایت علمی دیلی‌میل در گزارشی نوشته است که یک نظرسنجی جدید نشان می‌دهد که هوش مصنوعی می‌تواند انسان‌ها را به سوی انقراض سوق دهد. دیلی‌میل نوشته است که بسیاری از کارشناسان فناوری هشدار داده‌اند که هوش مصنوعی در مسیر تخریب و نابودی قرار دارد، اما یک بررسی جدید از محققان برتر احتمال انقراض انسان را مشخص کرده است. در ادامه آمده است که گروهی از دانشمندان بین‌المللی از دو هزار و ۷۷۸ متخصص هوش مصنوعی در مورد آینده این سیستم‌ها سوال کردند و پنج درصد گزارش کردند که این فناوری منجر به فروپاشی خواهد شد. این سایت علمی نوشته است که از هر ۱۰ محقق، یک نفر به موضوع ترسناک‌تری اشاره کرد و آن وجود ۲۵ درصد شانس نابودی بشر توسط هوش مصنوعی بود. کارشناسان سه دلیل احتمالی را در این مورد ذکر کردند. هوش مصنوعی به گروه‌های تهدیدکننده اجازه می‌دهد ابزارهای قدرتمندی مانند ویروس‌های مهندسی شده بسازند، حاکمان مستبد از هوش مصنوعی برای کنترل جمعیت خود استفاده می‌کنند و سیستم‌های هوش مصنوعی نابرابری اقتصادی را بدتر می‌کند. کنترل و تنظیم هوش مصنوعی تنها راه حل برای محافظت از انسان است و اگر هوش مصنوعی تنظیم نشود، محققان تخمین می‌زنند که ۱۰ درصد احتمال دارد که ماشین‌ها تا سال ۲۰۲۷ در همه وظایف از انسان‌ها بهتر عمل کنند و این احتمال تا سال ۲۰۴۷ به ۵۰ درصد افزایش خواهد یافت. در این نظرسنجی از کارشناسان درباره چهار شغل خاص که کاملاً خودکار می‌شوند، سوال شد و پاسخ دریافت کردند که احتمال ۵۰ درصد وجود دارد که هوش مصنوعی تا سال ۲۱۱۶ به طور کامل همه چیز را تصاحب کند. کاتیا گریس، یکی از نویسندگان این مطالعه، به نیوساینتیست گفته است: «این یک نشانه مهم است که اکثر محققان هوش مصنوعی غیرممکن نمی‌دانند که هوش مصنوعی پیشرفت بشریت را نابود کند.» تقریبا ۵۸ درصد از محققان نسبت به تصاحب هوش مصنوعی خوشبین‌تر بودند و گفتند تنها پنج درصد احتمال دارد که باعث انقراض انسان شود. سازمان ملل متحد پیش از این هشدارهایی را در مورد استفاده گروه‌های تروریستی از هوش مصنوعی برای اهداف مخرب به اشتراک گذاشته است. سایت علمی دیلی‌میل گزارش داده است که اثبات شده که در دنیای جرایم سایبری، هوش مصنوعی ابزار قدرتمندی است که می‌توان از آن برای پیشبرد یا تسهیل تروریسم و افراط‌گرایی خشونت‌آمیز منجر به تروریسم استفاده کرد. مدیر سازمان ملل متحد در گزارشی از سازمان ملل گفت: «اتومبیل‌های خودران، افزایش حملات سایبری به زیرساخت‌های حیاتی، یا امکان گسترش سخنان نفرت‌انگیز و تحریک به خشونت به روشی سریع‌تر و کارآمدتر از مواردی هستند که توسط هوش مصنوعی می‌توان انجام داد. این در حالی است که در سال ۲۰۲۳، تنها ۳۷ درصد از کارگران با هوش مصنوعی جایگزین شدند.» صدها کارشناس، از جمله سم آلتمن، مدیر اجرایی شرکت اُپن ای‌آی(OpenAI)  و دمیس حسابیس، مدیر اجرایی دیپ‌مایند گوگل (Google DeepMind)، در ماه می سال گذشته بیانیه‌ای در یک جمله صادر کردند و خواستار کنترل و وضع مقررات بیشتر برای هوش مصنوعی شدند. در این بیانیه آمده است: «کاهش خطر انقراض ناشی از هوش مصنوعی باید در کنار سایر خطرات اجتماعی مانند بیماری‌های همه‌گیر و جنگ هسته‌ای یک اولویت جهانی باشد.» حتی «پدرخوانده هوش مصنوعی»، جفری هینتون، گفت که از ایجاد هوش مصنوعی پشیمان است اگرچه به نیویورک تایمز گفت: من خودم را با این بهانه دلداری می‌دهم که اگر من این کار را نمی‌کردم، شخص دیگری این کار را می‌کرد. هنوز ابهامات قابل توجهی در مورد تأثیرات بلندمدت هوش مصنوعی وجود دارد و این مطالعه اذعان دارد که پیش‌بینی حتی برای متخصصان نیز سخت است.

ادامه مطلب