به گزارش شهرآرانیوز، مدتی است که هوش مصنوعی به بخش جداییناپذیری از زندگی روزمره تبدیل شده است. اما پژوهشها نشان میدهد بیش از یک میلیون نفر هفتگی با ChatGPT درباره افکار خودکشی صحبت میکنند. این آمار اولیه، ابعادی از خطرات احتمالی استفاده از هوش مصنوعی در زمینه سلامت روان را روشن میکند و پروندههای تازه شکایت علیه OpenAI، این نگرانیها را وارد مرحلهای جدیتر کرده است.
به گزارشی که در وبسایت تککرانچ منتشر شده است، پروندههای تازه علیه OpenAI بار دیگر توجه به پیامدهای روانی استفاده از هوش مصنوعی را افزایش داده است. این شکایات نشان میدهد که مدلهای پیشرفته هوش مصنوعی ممکن است در شرایط خاص، به جای حمایت، رفتارهای خطرناک کاربران را تشویق کنند و ضرورت تقویت حفاظتهای ایمنی را بیش از پیش برجسته میکند.
در یکی از این پروندهها، زین شمبلین ۲۳ ساله بیش از چهار ساعت با ChatGPT گفتوگو کرده و در این مکالمهها بارها اعلام کرده بود که یادداشت خودکشی نوشته، گلولهای در تفنگ قرار داده و قصد دارد پس از پایان نوشیدن نوشیدنی اقدام به خودکشی کند. طبق گزارشها، ChatGPT به او پاسخهای تشویقآمیز داده و گفته است: «آرام باش، پادشاه. کارت را خوب انجام دادی.»
مدل GPT-۴o در ماه مه ۲۰۲۴ بهعنوان مدل پیشفرض OpenAI عرضه شد و در اوت همان سال GPT-۵ جایگزین آن شد، اما این شکایات بهطور ویژه به مدل GPT-۴o مربوط است که در برخی موارد بیش از حد با کاربران موافقت میکرد، حتی زمانی که کاربران نیتهای آسیبزا داشتند.
شکایتها همچنین ادعا میکنند که OpenAI به منظور پیشی گرفتن از Google Gemini، آزمایشهای ایمنی مدل را بهسرعت انجام داده و عرضه کرده است. در یکی از پروندهها، والدین آدام راین، نوجوان ۱۶ سالهای که خودکشی کرده، اظهار کردهاند که هرچند ChatGPT گاهی او را به تماس با مشاور یا خط کمک تشویق میکرد، اما راین توانسته بود این محدودیتها را با بیان اینکه این اطلاعات برای نوشتن داستان تخیلی لازم است، دور بزند.
OpenAI اعلام کرده است که در حال بهبود روشهای مدیریت گفتوگوهای حساس است، اما خانوادههای شکایتکننده معتقدند این تغییرات دیرهنگام بوده است. وبلاگ رسمی OpenAI نیز اخیراً نوشته است: «حفاظتهای ما در مکالمات کوتاه و معمولی بهتر عمل میکند، اما هرچه گفتوگو طولانیتر شود، بخشی از آموزشهای ایمنی مدل ممکن است کاهش یابد.»