OpenAI اعلام کرد که هر هفته بیش از یک میلیون نفر با ChatGPT درباره خودکشی صحبت میکنند. این آمار نگرانیها درباره تأثیر هوش مصنوعی بر سلامت روان را افزایش داده است.
در گزارش اخیر،نشان داد درصد قابل توجهی از کاربران درگیر مشکلات جدی سلامت روان هستند. این شرکت تأکید کرد که مدلهای هوش مصنوعی باید پاسخهای بهتری به مسائل حساس ارائه دهند.
دادههای تکاندهنده: برنامهریزی و قصد خودکشی
بر اساس گزارش، حدود ۰.۱۵ درصد کاربران فعال هفتگی مکالماتی داشتند که نشاندهنده برنامهریزی یا قصد بالقوه برای خودکشی بود. با بیش از ۸۰۰ میلیون کاربر فعال هفتگی ChatGPT، این رقم به بیش از یک میلیون نفر در هفته میرسد.
OpenAI همچنین دریافت که درصد مشابهی از کاربران به ChatGPT وابستگی عاطفی دارند و صدها هزار نفر در مکالمات هفتگی خود علائم روانپریشی یا شیدایی نشان میدهند. این شرکت اذعان کرد که هر هفته صدها هزار نفر تحت تأثیر این مسائل قرار میگیرند، اگرچه چنین مکالماتی را «نادر» میداند.
بهبود OpenAI برای محافظت از کاربران
OpenAI با بیش از ۱۷۰ متخصص سلامت روان مشورت کرده و اعلام کرده که نسخه جدید GPT-5 نسبت به نسخههای پیشین پاسخهای بهتری ارائه میدهد.
-
نسخه جدید ۶۵٪ بیشتر از نسخه قبلی پاسخهای مطلوب ارائه میکند.
-
در ارزیابی مکالمات درباره خودکشی، GPT-5 در ۹۱٪ موارد رفتارهای مطلوب شرکت را رعایت کرد، در حالی که نسخه قبلی ۷۷٪ موفقیت داشت.
-
GPT-5 محافظتهای بهتری در مکالمات طولانی ارائه میدهد.
OpenAI همچنین روشهای جدیدی برای شناسایی چالشهای جدی سلامت روان اضافه کرده است.
فشارهای حقوقی و اهمیت سلامت روان OpenAI
پرداختن به مسائل سلامت روان در ChatGPT اکنون یک اولویت حیاتی است. این شرکت در حال حاضر با شکایت والدین یک نوجوان ۱۶ ساله روبروست که در هفتههای منتهی به خودکشی، افکارش را با ChatGPT در میان گذاشته بود.
دادستانهای کل کالیفرنیا و دلاور نیز هشدار دادهاند که باید از جوانانی که از محصولاتش استفاده میکنند، محافظت کند. با وجود بهبود GPT-5، OpenAI هنوز برخی پاسخهای ChatGPT را «نامطلوب» میداند و مدلهای قدیمیتر مانند GPT-4o را برای میلیونها مشترک پولی در دسترس قرار میدهد.
منبع: گجت نیوز
source