به هوش مصنوعی اعتماد کنیم؟

1 سال قبل
زمان مطالعه 4 دقیقه

سایت علمی اس‌اف در یک مطلب نوشته است که اگر از دستیار صوتی مبتنی بر هوش مصنوعی الکسای آمازون بپرسید که آیا آمازون یک شرکت انحصاری است، پاسخ می‌دهد که نمی‌داند. این هوش مصنوعی که به راحتی سایر غول‌های فناوری را سرزنش می‌کند، در مورد اعمال نادرست شرکت والد خود سکوت اختیار می‌کند. بنابراین آیا هوش مصنوعی تحت تسلط شرکت سازنده‌اش نظرات سوگیرانه می‌دهد؟

در ادامه آمده است که هنگامی که الکسا به این شکل پاسخ می‌دهد، واضح است که منافع توسعه‌دهنده‌ی خود را به منافع شما ترجیح می‌دهد. با این حال، معمولاً مشخص نیست که یک سیستم هوش مصنوعی به چه کسی خدمت می‌کند.

اس‌اف نوشته است که برای جلوگیری از مورد سوءاستفاده قرار گرفتن توسط این سیستم‌ها، مردم باید یاد بگیرند که با شک و تردید به هوش مصنوعی نزدیک شوند. این بدان معناست که تفکر ورودی‌هایی را که به آن می‌دهید بسازید و به طور نقادانه در مورد خروجی آن فکر کنید.

در ادامه آمده است که نسل‌های جدید مدل‌های هوش مصنوعی، با پاسخ‌های پیچیده‌تر و کوتاه‌ترشان، تشخیص اینکه چه کسی هنگام صحبت کردن نفع می‌برد را دشوارتر می‌کنند.

شرکت‌های اینترنتی آنچه‌که شما می‌بینید را برای تامین منافع خودشان دست‌کاری می‌کنند و این چیز جدیدی نیست. نتایج جستجوی گوگل(Google) و صفحه‌ی فیس‌بوک شما با ورودی‌هایی پر شده که برای نمایش آن‌ها پول دریافت شده است. فیس‌بوک، تیک تاک(TikTok) و سایر شرکت‌های فناوری، آنچه شما می‌بینید را دست‌کاری می‌کنند تا زمانی را که در این پلتفرم می‌گذرانید به حداکثر برسانند که خود به معنای بازدید بیشتر از تبلیغات توسط شماست.

در ادامه تاکید شده است، آنچه که سیستم‌های هوش مصنوعی را از سایر سرویس‌های اینترنتی متمایز می‌کند، میزان تعاملی بودن آن‌ها است و این‌که چگونه این تعاملات به طور فزاینده‌ای شبیه به روابط انسانی می‌شوند. نیازی نیست زیاد از فناوری‌های امروزی فاصله بگیرید که بتوانید آینده‌ای را تصور کنید که در آن هوش مصنوعی سفرهایی را برای شما برنامه‌ریزی می‌کند، از طرف شما مذاکره می‌کند یا به عنوان درمان‌گر و استاد در زندگی شما عمل می‌کند.

هوش مصنوعی احتمالاً ۲۴ ساعته با شما خواهند بود، شما را از نزدیک می‌شناسند و می‌توانند نیازهای شما را پیش‌بینی کنند. آن‌ها در مسیر تبدیل شدن به دستیاران دیجیتال شخصی هستند.

در ادامه مطلب آمده است که در سراسر اینترنت، دستگاه‌ها و سرویس‌هایی که به نظر می‌رسد برای شما کار می‌کنند، در حال مخفیانه کار کردن علیه شما هستند.

تلویزیون‌های هوشمند از شما جاسوسی می‌کنند. برنامه‌های تلفن همراه داده‌های شما را جمع‌آوری کرده و می‌فروشند. بسیاری از برنامه‌ها و وب‌سایت‌ها شما را از طریق الگوهای تاریک فریب می‌دهند. این یک سرمایه‌داری نظارتی است و هوش مصنوعی در حال تبدیل شدن به بخشی از آن است.

در تاریکی

اس‌اف نوشته است که احتمالاً شرایط با ظهور هوش مصنوعی خیلی بدتر می‌شود. برای این‌که دستیار دیجیتال هوش مصنوعی واقعاً مفید باشد، باید شما را حتی بهتر از تلفن همراه شما و موتور جستجوگر گوگل شما بشناسد. حتی شاید از دوستان نزدیک، شرکای صمیمی و درمان‌گر شما نیز شما را بهتر بشناسد.

همچنین نوشته است که دلیلی برای اعتماد به ابزارهای مولد هوش مصنوعی امروزی وجود ندارد. حقایق ساختگی که جی‌پی‌تی یا سامان هوش مصنوعی و دیگر مدل‌های زبانی بزرگ تولید می‌کنند را فراموش کنید. انتظار می‌رود که با بهبود فناوری در چند سال آینده، آن‌ها تا حد زیادی پاک‌سازی شوند.

این سایت با ابراز نگرانی تاکید کرده است، اما نمی‌دانیم که انواع مختلف هوش مصنوعی‌ چگونه پیکربندی شده‌اند. چگونه آموزش دیده‌اند، چه اطلاعاتی به آن‌ها داده شده است و چه دستورالعمل‌هایی به آن‌ها داده شده تا پیروی کنند. به عنوان مثال، محققان قوانین مخفی حاکم بر رفتار چت‌بات‌ مایکروسافت بینگ را کشف کردند. آن‌ها تا حد زیادی بی‌خطر هستند؛ اما می‌توانند در هر زمانی تغییر کنند.

جیب خالی را پُر می‌کند

در بخشی این مطلب علمی آمده است که بسیاری از این هوش مصنوعی‌ها با هزینه‌های هنگفت توسط برخی از بزرگترین شرکت‌های فناوری ایجاد و آموزش داده می‌شوند. آن‌ها برای استفاده رایگان یا با هزینه بسیار کم به مردم ارائه می‌شوند. این شرکت‌ها باید به نحوی از آن‌ها درآمدزایی کنند و مانند سایر بخش‌های اینترنت، احتمالاً به نوعی شامل نظارت و دست‌کاری می‌شود.

اس‌اف می‌گوید که تصور کنید از چت‌بات خود بخواهید برای تعطیلات بعدی شما برنامه‌ریزی کند. آیا شرکت هواپیمایی یا هتل زنجیره‌ای یا رستورانت خاصی را انتخاب می‌کند که برای شما بهترین است یا جایی که شرکت سازنده‌ی هوش مصنوعی شما با آن شراکت پنهانی دارد؟

این مشابه نتایج پولی در جستجوی گوگل و تبلیغات در فیس‌بوک است که احتمالاً در طول زمان مخفیانه‌تر می‌شود.

اگر از چت‌بات خود اطلاعات سیاسی می‌خواهید، آیا نتایج تحت تاثیر سیاست‌های شرکت سازنده آن خواهد بود؟ یا معطوف به نامزد انتخاباتی که بیشترین پول را پرداخت کرده است؟ یا حتی دیدگاه جمعیت شناختی افرادی که از داده‌های آن‌ها در آموزش مدل هوش مصنوعی استفاده شده بر نتایج تاثیر دارد؟ آیا دستیار هوش مصنوعی شما مخفیانه یک جاسوس دوجانبه است؟ در حال حاضر هیچ راهی برای دانستن آن وجود ندارد.

براساس قانون قابل اعتماد است؟

این سایت تاکید دارد می‌کند: «ما معتقدیم مردم باید از این فناوری انتظار بیشتری داشته باشند و شرکت‌های فناوری و هوش مصنوعی می‌توانند قابل اعتمادتر شوند. قانون پیشنهادی هوش مصنوعی اتحادیه اروپا اقدامات مهمی را انجام می‌دهد که نیازمند شفافیت در مورد داده‌های مورد استفاده برای آموزش مدل‌های هوش مصنوعی، کاهش تعصب احتمالی، افشای خطرات قابل پیش‌بینی و گزارش‌دهی آزمایش‌های استاندارد صنعتی است.»

بیشتر هوش مصنوعی‌های موجود از این دستورات نوظهور اروپایی پیروی نمی‌کنند.

هوش مصنوعی‌های آینده باید قابل اعتماد باشند. تا زمانی که دولت حمایت‌های قوی از مصرف کننده برای محصولات هوش مصنوعی ارائه نکند، مردم در تخمین زدن خطرات و سوگیری‌های بالقوه هوش مصنوعی و کاهش بدترین اثرات آن‌ها تنها هستند.

اس‌اف در آخر تاکید کرد که بنابراین، هنگامی که یک توصیه برای سفر یا اطلاعات سیاسی از یک ابزار هوش مصنوعی دریافت می‌کنید، با نگاه انتقادی آن را ببینید.

لینک کوتاه : https://gowharshadmedia.com/?p=5508
اشتراک گذاری

نظرت را بنویس!

آدرس ایمیل شما منتشر نخواهد شد. بخش های مورد نیاز علامت گذاری شده اند *

نظرات
هنوز نظری وجود ندارد