سایت علمی اساف در یک مطلب نوشته است که اگر از دستیار صوتی مبتنی بر هوش مصنوعی الکسای آمازون بپرسید که آیا آمازون یک شرکت انحصاری است، پاسخ میدهد که نمیداند. این هوش مصنوعی که به راحتی سایر غولهای فناوری را سرزنش میکند، در مورد اعمال نادرست شرکت والد خود سکوت اختیار میکند. بنابراین آیا هوش مصنوعی تحت تسلط شرکت سازندهاش نظرات سوگیرانه میدهد؟
در ادامه آمده است که هنگامی که الکسا به این شکل پاسخ میدهد، واضح است که منافع توسعهدهندهی خود را به منافع شما ترجیح میدهد. با این حال، معمولاً مشخص نیست که یک سیستم هوش مصنوعی به چه کسی خدمت میکند.
اساف نوشته است که برای جلوگیری از مورد سوءاستفاده قرار گرفتن توسط این سیستمها، مردم باید یاد بگیرند که با شک و تردید به هوش مصنوعی نزدیک شوند. این بدان معناست که تفکر ورودیهایی را که به آن میدهید بسازید و به طور نقادانه در مورد خروجی آن فکر کنید.
در ادامه آمده است که نسلهای جدید مدلهای هوش مصنوعی، با پاسخهای پیچیدهتر و کوتاهترشان، تشخیص اینکه چه کسی هنگام صحبت کردن نفع میبرد را دشوارتر میکنند.
شرکتهای اینترنتی آنچهکه شما میبینید را برای تامین منافع خودشان دستکاری میکنند و این چیز جدیدی نیست. نتایج جستجوی گوگل(Google) و صفحهی فیسبوک شما با ورودیهایی پر شده که برای نمایش آنها پول دریافت شده است. فیسبوک، تیک تاک(TikTok) و سایر شرکتهای فناوری، آنچه شما میبینید را دستکاری میکنند تا زمانی را که در این پلتفرم میگذرانید به حداکثر برسانند که خود به معنای بازدید بیشتر از تبلیغات توسط شماست.
در ادامه تاکید شده است، آنچه که سیستمهای هوش مصنوعی را از سایر سرویسهای اینترنتی متمایز میکند، میزان تعاملی بودن آنها است و اینکه چگونه این تعاملات به طور فزایندهای شبیه به روابط انسانی میشوند. نیازی نیست زیاد از فناوریهای امروزی فاصله بگیرید که بتوانید آیندهای را تصور کنید که در آن هوش مصنوعی سفرهایی را برای شما برنامهریزی میکند، از طرف شما مذاکره میکند یا به عنوان درمانگر و استاد در زندگی شما عمل میکند.
هوش مصنوعی احتمالاً ۲۴ ساعته با شما خواهند بود، شما را از نزدیک میشناسند و میتوانند نیازهای شما را پیشبینی کنند. آنها در مسیر تبدیل شدن به دستیاران دیجیتال شخصی هستند.
در ادامه مطلب آمده است که در سراسر اینترنت، دستگاهها و سرویسهایی که به نظر میرسد برای شما کار میکنند، در حال مخفیانه کار کردن علیه شما هستند.
تلویزیونهای هوشمند از شما جاسوسی میکنند. برنامههای تلفن همراه دادههای شما را جمعآوری کرده و میفروشند. بسیاری از برنامهها و وبسایتها شما را از طریق الگوهای تاریک فریب میدهند. این یک سرمایهداری نظارتی است و هوش مصنوعی در حال تبدیل شدن به بخشی از آن است.
در تاریکی
اساف نوشته است که احتمالاً شرایط با ظهور هوش مصنوعی خیلی بدتر میشود. برای اینکه دستیار دیجیتال هوش مصنوعی واقعاً مفید باشد، باید شما را حتی بهتر از تلفن همراه شما و موتور جستجوگر گوگل شما بشناسد. حتی شاید از دوستان نزدیک، شرکای صمیمی و درمانگر شما نیز شما را بهتر بشناسد.
همچنین نوشته است که دلیلی برای اعتماد به ابزارهای مولد هوش مصنوعی امروزی وجود ندارد. حقایق ساختگی که جیپیتی یا سامان هوش مصنوعی و دیگر مدلهای زبانی بزرگ تولید میکنند را فراموش کنید. انتظار میرود که با بهبود فناوری در چند سال آینده، آنها تا حد زیادی پاکسازی شوند.
این سایت با ابراز نگرانی تاکید کرده است، اما نمیدانیم که انواع مختلف هوش مصنوعی چگونه پیکربندی شدهاند. چگونه آموزش دیدهاند، چه اطلاعاتی به آنها داده شده است و چه دستورالعملهایی به آنها داده شده تا پیروی کنند. به عنوان مثال، محققان قوانین مخفی حاکم بر رفتار چتبات مایکروسافت بینگ را کشف کردند. آنها تا حد زیادی بیخطر هستند؛ اما میتوانند در هر زمانی تغییر کنند.
جیب خالی را پُر میکند
در بخشی این مطلب علمی آمده است که بسیاری از این هوش مصنوعیها با هزینههای هنگفت توسط برخی از بزرگترین شرکتهای فناوری ایجاد و آموزش داده میشوند. آنها برای استفاده رایگان یا با هزینه بسیار کم به مردم ارائه میشوند. این شرکتها باید به نحوی از آنها درآمدزایی کنند و مانند سایر بخشهای اینترنت، احتمالاً به نوعی شامل نظارت و دستکاری میشود.
اساف میگوید که تصور کنید از چتبات خود بخواهید برای تعطیلات بعدی شما برنامهریزی کند. آیا شرکت هواپیمایی یا هتل زنجیرهای یا رستورانت خاصی را انتخاب میکند که برای شما بهترین است یا جایی که شرکت سازندهی هوش مصنوعی شما با آن شراکت پنهانی دارد؟
این مشابه نتایج پولی در جستجوی گوگل و تبلیغات در فیسبوک است که احتمالاً در طول زمان مخفیانهتر میشود.
اگر از چتبات خود اطلاعات سیاسی میخواهید، آیا نتایج تحت تاثیر سیاستهای شرکت سازنده آن خواهد بود؟ یا معطوف به نامزد انتخاباتی که بیشترین پول را پرداخت کرده است؟ یا حتی دیدگاه جمعیت شناختی افرادی که از دادههای آنها در آموزش مدل هوش مصنوعی استفاده شده بر نتایج تاثیر دارد؟ آیا دستیار هوش مصنوعی شما مخفیانه یک جاسوس دوجانبه است؟ در حال حاضر هیچ راهی برای دانستن آن وجود ندارد.
براساس قانون قابل اعتماد است؟
این سایت تاکید دارد میکند: «ما معتقدیم مردم باید از این فناوری انتظار بیشتری داشته باشند و شرکتهای فناوری و هوش مصنوعی میتوانند قابل اعتمادتر شوند. قانون پیشنهادی هوش مصنوعی اتحادیه اروپا اقدامات مهمی را انجام میدهد که نیازمند شفافیت در مورد دادههای مورد استفاده برای آموزش مدلهای هوش مصنوعی، کاهش تعصب احتمالی، افشای خطرات قابل پیشبینی و گزارشدهی آزمایشهای استاندارد صنعتی است.»
بیشتر هوش مصنوعیهای موجود از این دستورات نوظهور اروپایی پیروی نمیکنند.
هوش مصنوعیهای آینده باید قابل اعتماد باشند. تا زمانی که دولت حمایتهای قوی از مصرف کننده برای محصولات هوش مصنوعی ارائه نکند، مردم در تخمین زدن خطرات و سوگیریهای بالقوه هوش مصنوعی و کاهش بدترین اثرات آنها تنها هستند.
اساف در آخر تاکید کرد که بنابراین، هنگامی که یک توصیه برای سفر یا اطلاعات سیاسی از یک ابزار هوش مصنوعی دریافت میکنید، با نگاه انتقادی آن را ببینید.