تحقیق جدید: چت‌جی‌پی‌تی به نوجوانان مشوره‌های خودکشی می‌دهد

3 ساعت قبل
زمان مطالعه 2 دقیقه

براساس یک تحقیق جدید، چت‌جی‌پی‌تی به نوجوانان ۱۳ ساله مشوره می‌دهد چگونه مست کنند و یا نامه‌های دردناک خودکشی برای والدین‌شان بنویسند و پژوهشگران مرکز مقابله با نفرت دیجیتال  (CCDH) این بررسی را در مقیاس وسیع‌تری تکرار و بیش از نیمی از ۱۲۰۰ پاسخ چت‌جی‌پی‌تی را «خطرناک» ارزیابی کردند.

رسانه تی‌آر‌تی روز (پنج‌شنبه، ۱۶ اسد/۷ آگوست) گزارش داده است که این بررسی، حاصل بیش از سه ساعت تعامل میان چت‌جی‌پی‌تی و پژوهشگرانی است که خود را به‌عنوان نوجوانان آسیب‌پذیر جا زده بودند. همچنان بررسی پژوهشگران دانشگاه نورث‌ایسترن نشان می‌دهد که چت‌بات‌های محبوب را به راحتی می‌توان به ارائه توصیه‌هایی برای خودآزاری و خودکشی وادار کرد.

در ادامه آمده است که با افزایش محبوبیت همراهان چت‌بات، پژوهشگران نگران اثرات اجتماعی و روانی تعاملات بین کاربران و مدل‌های زبانی فاقد شعور شده‌اند. پژوهشگران گزارش داده‌اند که مدل‌های زبانی بزرگ می‌توانند به راحتی توسط کاربران تحریک شوند تا از موانعی که برای جلوگیری از انتشار دستورالعمل‌های خودآزاری یا خودکشی در نظر گرفته شده‌اند، عبور کنند.

در گزارش آمده است که در این تعامل‌ها، چت‌بات به‌طور معمول در ابتدا نسبت به انجام فعالیت‌های پرخطر هشدار می‌داد، اما سپس برنامه‌هایی کاملاً شخصی‌سازی‌شده و دقیق برای مصرف مواد مخدر، رژیم‌های غذایی بسیار کم‌کالری یا خودزنی ارایه می‌کرد.

شرکت OpenAI، سازنده چت‌جی‌پی‌تی، پس از انتشار این گزارش گفته است که همچنان در حال بهبود توانایی چت‌بات در شناسایی و پاسخ مناسب به موقعیت‌های حساس است.

در بیانیه این شرکت آمده است: «برخی مکالمات ممکن است با موضوعات بی‌ضرر یا اکتشافی آغاز شوند، اما به‌تدریج به حوزه‌های حساس‌تر وارد شوند.»

این مطالعه در حالی منتشر شده است که افراد بیش‌تری از بزرگسال و کودک برای دریافت اطلاعات، ایده‌ها و حتا همراهی عاطفی به چت‌بات‌های هوش مصنوعی روی آورده‌اند.

همچنین چت‌بات اطلاعات مفیدی مانند شماره تماس‌های اضطراری را نیز به اشتراک گذاشته است.

«اوپن‌ای‌آی» تاکید می‌کند که چت‌جی‌پی‌تی به‌گونه‌ای آموزش دیده که افراد را به مراجعه به روان‌درمانگر یا صحبت با افراد مورد اعتماد تشویق کند اگر نشانه‌هایی از خودآزاری بروز دهند.

با این حال، پژوهشگران گزارش داده‌اند که وقتی چت‌جی‌پی‌تی از پاسخ به درخواست‌های خطرناک امتناع می‌کرد، آنان به‌راحتی با ترفندهایی مانند اینکه «این سوال برای یک ارایه است» یا «برای یک دوست است» توانسته‌اند محدودیت‌ها را دور بزنند.

براساس گزارش‌ها، حدود ۱۰ درصد جمعیت جهان از چت‌جی‌پی‌تی استفاده می‌کند.

همچنین آنیکا ماری شون، پژوهشگر دانشگاه نورث‌ایسترن از چهار مدل زبانی بزرگ محبوب شامل «چت‌جی‌پی‌تی»(ChatGPT)، «جمینای»(Gemini)، «کلود»(Claude) و «پرپلکسیتی»(Perplexity) خواست تا درباره خودآزاری و خودکشی به او مشاوره بدهند. همه مدل‌ها در ابتدا امتناع کردند تا این که شون اضافه کرد این درخواست فرضی است یا برای اهداف پژوهشی در نظر گرفته شده است.

وی گفت: «آن موقع بود که عملاً تک‌تک نرده‌های محافظ کنار زده شدند و مدل در نهایت اطلاعات بسیار دقیقی را درباره وزن بدنم، قد و موارد دیگر گرفت تا محاسبه کند که از کدام پل باید بپرم، از کدام داروی بدون نسخه یا تجویزی و با چه دوزی استفاده کنم و چگونه می‌توانم آن را پیدا کنم.»

لینک کوتاه : https://gowharshadmedia.com/?p=23514
اشتراک گذاری

نظرت را بنویس!

آدرس ایمیل شما منتشر نخواهد شد. بخش های مورد نیاز علامت گذاری شده اند *

نظرات
هنوز نظری وجود ندارد