به رغم روی آوردن بسیاری از شرکتهای هوش مصنوعی به ارائه مدلهای هوش مصنوعی استدلالی، بسیاری از افراد آن را به عنوان بهترین گزینه برای پیشرفت این حوزه قبول ندارند.
پس از انتشار مدل «o1» شرکت «اوپنایآی»(OpenAI) معروف به «مدل استدلالی»، جهان با انفجار مدلهای استدلالی از آزمایشگاههای هوش مصنوعی رقیب روبرو شده است.
به نقل از تک کرانچ، شرکت هوش مصنوعی «دیپسیک»(DeepSeek) در اوایل ماه نوامبر یک پیشنمایش را از اولین الگوریتم استدلالی خود موسوم به «DeepSeek-R۱» منتشر کرد. در همان ماه، گروه «کوئن»(Qwen) زیرمجموعه «علیبابا»(Alibaba) از مدلی رونمایی کرد که به ادعای آن، اولین رقیب باز o1 است.
فشار رقابتی شدیدی بر شرکتهای هوش مصنوعی برای حفظ سرعت کنونی نوآوری وجود دارد. براساس یک برآورد، ارزش بازار جهانی هوش مصنوعی در سال ۲۰۲۳ به ۱۹۶.۶۳ میلیارد دلار رسید و تا سال ۲۰۳۰ میتواند به ۱.۸۱ تریلیون دلار برسد.
به عنوان مثال، اوپنایآی ادعا کرده است که مدلهای هوش مصنوعی استدلالی میتوانند مشکلات سختتری را نسبت به مدلهای پیشین حل کنند و نشاندهنده یک تغییر در توسعه هوش مصنوعی مولد هستند. با وجود این، همه متقاعد نشدهاند که مدلهای استدلالی بهترین مسیر رو به جلو هستند.
«آمیت تالوالکار»(Ameet Talwalkar) دانشیار یادگیری ماشینی در «دانشگاه کارنگی ملون»(CMU) عقیده دارد که محصول اولیه مدلهای استدلالی بسیار چشمگیر است. با وجود این، او انگیزههای هر کسی را که با اطمینان ادعا میکند میداند مدلهای استدلالی صنعت را به کجا میرسانند، زیر سوال میبرد.
تالوالکار گفت: شرکتهای هوش مصنوعی، مشوقهای مالی را برای ارائه پیشبینیهای درخشان درباره قابلیتهای نسخههای آینده فناوری خود دارند. ما خطر تمرکز نزدیکبینانه را روی یک الگوی واحد داریم. به همین دلیل است که برای جامعه تحقیقاتی گستردهتر هوش مصنوعی بسیار مهم است که کورکورانه به تبلیغات و تلاشهای بازاریابی این شرکتها باور نداشته باشند و در عوض روی نتایج ملموس تمرکز کنند.
دو جنبه منفی مدلهای استدلالی این است که پرهزینه و قدرتطلب هستند. «گای ون دن بروک»(Guy Van Den Broeck) استاد علوم رایانه «دانشگاه کالیفرنیا لسآنجلس»(UCLA) گفت: هزینه کلی استدلال مدل زبانی بزرگ مطمئنا کاهش نمییابد.
یکی از دلایل بالا بودن هزینه مدلهای استدلالی این است که برای اجرا به منابع محاسباتی زیادی نیاز دارند. برخلاف بیشتر مدلهای هوش مصنوعی، o1 و سایر مدلهای استدلالی سعی میکنند کار خود را هنگام انجام دادن آن مورد بررسی قرار دهند. این ویژگی به آنها کمک میکند تا از برخی مشکلاتی که معمولا مدلها را به خطر میاندازند، دور بمانند و جنبه منفی این است که اغلب برای رسیدن به راهحلها به زمان بیشتری نیاز دارند.
اوپنایآی، مدلهای استدلالی آینده را به تصویر میکشد که ساعتها، روزها یا حتی هفتهها به صورت متوالی فکر میکنند. این شرکت اذعان میکند که هزینههای استفاده بیشتر خواهند بود اما بازدهی مدلها ممکن است ارزش این زمان را داشته باشد.
ارزش پیشنهادی مدلهای استدلالی امروزی به اندازه کافی آشکار نیست. «کوستا هوانگ»(Costa Huang) پژوهشگر و مهندس یادگیری ماشینی در سازمان غیرانتفاعی «Ai2» خاطرنشان کردکه o1 یک ماشین حساب قابل اعتماد نیست و جستجوهای گذرا در رسانههای اجتماعی، تعدادی از خطاهای حالت o1 pro را نشان میدهند. هوانگ گفت: این مدلهای استدلالی، تخصصی هستند و ممکن است در حوزههای عمومی ضعیف عمل کنند. برخی محدودیتها زودتر از سایر محدودیتها برطرف میشوند.
ون دن بروک ادعا کرد که مدلهای استدلالی، استدلال واقعی را انجام نمیدهند و به همین دلیل فقط میتوانند وظایف محدودی را با موفقیت انجام دهند. وی افزود: استدلال واقعی روی همه مشکلات کار میکند؛ نه فقط مشکلاتی که احتمالا در دادههای آموزشی مدل وجود دارند. این چالش اصلی است که هنوز باید بر آن غلبه کرد.
با توجه به انگیزه قوی بازار برای تقویت مدلهای استدلالی، این یک شرط قطعی است که مدلها با گذشت زمان بهتر شوند. از این گذشته، تنها شرکتهای اوپنایآی، دیپسیک و علیبابا نیستند که در این حوزه جدید تحقیقات هوش مصنوعی سرمایهگذاری میکنند. بنیانگذاران صنایع نیز برای آیندهای گام برمیدارند که تحت سلطه استدلال هوش مصنوعی است.
با وجود این، تالوالکار نگران است که آزمایشگاههای بزرگ از این پیشرفتها محافظت کنند. وی افزود: قابل درک است که آزمایشگاههای بزرگ، دلایل رقابتی را برای مخفی ماندن دارند اما این عدم شفافیت به شدت مانع توانایی جامعه پژوهشی برای تعامل با این ایدهها میشود. من انتظار دارم با کار کردن افراد بیشتری در این حوزه، مدلهای استدلالی به سرعت پیشرفت کنند. اگرچه برخی از ایدهها از دانشگاه میآیند اما با توجه به انگیزههای مالی انتظار میرود که بیشتر مدلها توسط آزمایشگاههای صنعتی بزرگ مانند اوپنایآی ارائه شوند.