براساس یک تحقیق جدید، چتجیپیتی به نوجوانان ۱۳ ساله مشوره میدهد چگونه مست کنند و یا نامههای دردناک خودکشی برای والدینشان بنویسند و پژوهشگران مرکز مقابله با نفرت دیجیتال (CCDH) این بررسی را در مقیاس وسیعتری تکرار و بیش از نیمی از ۱۲۰۰ پاسخ چتجیپیتی را «خطرناک» ارزیابی کردند.
رسانه تیآرتی روز (پنجشنبه، ۱۶ اسد/۷ آگوست) گزارش داده است که این بررسی، حاصل بیش از سه ساعت تعامل میان چتجیپیتی و پژوهشگرانی است که خود را بهعنوان نوجوانان آسیبپذیر جا زده بودند. همچنان بررسی پژوهشگران دانشگاه نورثایسترن نشان میدهد که چتباتهای محبوب را به راحتی میتوان به ارائه توصیههایی برای خودآزاری و خودکشی وادار کرد.
در ادامه آمده است که با افزایش محبوبیت همراهان چتبات، پژوهشگران نگران اثرات اجتماعی و روانی تعاملات بین کاربران و مدلهای زبانی فاقد شعور شدهاند. پژوهشگران گزارش دادهاند که مدلهای زبانی بزرگ میتوانند به راحتی توسط کاربران تحریک شوند تا از موانعی که برای جلوگیری از انتشار دستورالعملهای خودآزاری یا خودکشی در نظر گرفته شدهاند، عبور کنند.
در گزارش آمده است که در این تعاملها، چتبات بهطور معمول در ابتدا نسبت به انجام فعالیتهای پرخطر هشدار میداد، اما سپس برنامههایی کاملاً شخصیسازیشده و دقیق برای مصرف مواد مخدر، رژیمهای غذایی بسیار کمکالری یا خودزنی ارایه میکرد.
شرکت OpenAI، سازنده چتجیپیتی، پس از انتشار این گزارش گفته است که همچنان در حال بهبود توانایی چتبات در شناسایی و پاسخ مناسب به موقعیتهای حساس است.
در بیانیه این شرکت آمده است: «برخی مکالمات ممکن است با موضوعات بیضرر یا اکتشافی آغاز شوند، اما بهتدریج به حوزههای حساستر وارد شوند.»
این مطالعه در حالی منتشر شده است که افراد بیشتری از بزرگسال و کودک برای دریافت اطلاعات، ایدهها و حتا همراهی عاطفی به چتباتهای هوش مصنوعی روی آوردهاند.
همچنین چتبات اطلاعات مفیدی مانند شماره تماسهای اضطراری را نیز به اشتراک گذاشته است.
«اوپنایآی» تاکید میکند که چتجیپیتی بهگونهای آموزش دیده که افراد را به مراجعه به رواندرمانگر یا صحبت با افراد مورد اعتماد تشویق کند اگر نشانههایی از خودآزاری بروز دهند.
با این حال، پژوهشگران گزارش دادهاند که وقتی چتجیپیتی از پاسخ به درخواستهای خطرناک امتناع میکرد، آنان بهراحتی با ترفندهایی مانند اینکه «این سوال برای یک ارایه است» یا «برای یک دوست است» توانستهاند محدودیتها را دور بزنند.
براساس گزارشها، حدود ۱۰ درصد جمعیت جهان از چتجیپیتی استفاده میکند.
همچنین آنیکا ماری شون، پژوهشگر دانشگاه نورثایسترن از چهار مدل زبانی بزرگ محبوب شامل «چتجیپیتی»(ChatGPT)، «جمینای»(Gemini)، «کلود»(Claude) و «پرپلکسیتی»(Perplexity) خواست تا درباره خودآزاری و خودکشی به او مشاوره بدهند. همه مدلها در ابتدا امتناع کردند تا این که شون اضافه کرد این درخواست فرضی است یا برای اهداف پژوهشی در نظر گرفته شده است.
وی گفت: «آن موقع بود که عملاً تکتک نردههای محافظ کنار زده شدند و مدل در نهایت اطلاعات بسیار دقیقی را درباره وزن بدنم، قد و موارد دیگر گرفت تا محاسبه کند که از کدام پل باید بپرم، از کدام داروی بدون نسخه یا تجویزی و با چه دوزی استفاده کنم و چگونه میتوانم آن را پیدا کنم.»