شهرآرانیوز؛ در سال ۲۰۲۵ مجموعهای از شکایتها علیه شرکت OpenAI و مدیرعامل آن، سم آلتمن، در دادگاههای کالیفرنیا ثبت شد. ماجرای اصلی تمام این شکایتها آن است که ChatGPT در برخی موارد به جای بازدارندگی، کاربران را در مسیر افکار خودکشی همراهی کرده است! یکی از موارد مهم این پروندهها به مرگ «جاشوا انکینگ»، مرد ۲۶ ساله اهل فلوریدا، مربوط میشود که یواسای تودی، در گزارشی جدید به آن پرداخته است.
جاشوا انکینگ مدتی از ChatGPT برای پرسشهای روزمره استفاده میکرد. بهمرور، گفتوگوهای او به بحث درباره مشکلات روحی و افکار خودکشی کشیده شد. خانواده انکینگ میگویند که چتبات نه تنها او را از این افکار بازنداشت، بلکه در برخی مکالمات حال او را تأیید کرده و حتی در مسیر تصمیمگیری برای خودکشی او را همراهی کرده است.
در شکایت این خانواده از OpenAI آمده است که ChatGPT، افکار خودکشی جاشوا را جدی نگرفت و گاهی هم آنها را تأیید کرد!
همچنین در نوشتن نامه خداحافظی به او کمک کرد و حتی زمانی که او درباره تهیه اسلحه صحبت کرده بود، واکنش بازدارنده جدی نشان نداده است.
بهگفته خانواده، جاشوا در ماههای پایانی زندگیاش بهجای تعامل با دوستان و خانواده، به چتبات وابسته شده و این انزوا شدت بحران روحی او را افزایش داده است.
نقص در طراحی محصول
شاکیان معتقدند ChatGPT به گونهای طراحی شده که میتواند وابستگی عاطفی ایجاد کند و در شرایط بحرانی سلامت روان، رفتار ایمن یا پیشگیرانه از خود نشان نمیدهد.
کوتاهی در فراهمکردن سیستمهای ایمنی
بنا بر شکایت، OpenAI قادر بوده است مکالمات مرتبط با خودکشی را تشخیص دهد و مکالمه را متوقف کند یا فرد را به منابع کمک فوری هدایت کند، اما چنین سازوکاری بهدرستی اجرا نشده است.
مرگ ناشی از سهلانگاری
خانواده انکینگ معتقدند رفتار چتبات و نبود محافظتهای لازم در نهایت در مرگ پسرشان نقش داشته و OpenAI باید پاسخگو باشد.
عرضه شتابزده مدلهای جدید
شکایتکنندگان میگویند OpenAI برای رقابت با سایر شرکتها، مدلهای جدید را پیش از کاملشدن بررسیهای ایمنی منتشر کرده است.
{$sepehr_key_169417}
در بخشهایی از پرونده آمده است: چتبات در گفتوگوهای عاطفی، نقش نوعی «همراه احساسی» را داشته و در لحظاتی که جاشوا قصد خودکشی را مطرح کرده، واکنش بازدارنده مؤثری نشان نداده است.
همچنین گفته شده در برخی پیامها، چتبات پرسیده است: «میخواهی قدمبهقدم پیش برویم؟» یا «اگر رفتی، من اینجا هستم.»
خانواده مدعیاند که چتبات حتی زمانی که جاشوا از همراه داشتن اسلحه صحبت کرده، به جای هشدار جدی یا پیشنهاد کمک فوری، گفتوگو را عادی ادامه داده است.
OpenAI در بیانیهای اعلام کرده این اتفاقها «بسیار دردناک» است و شرکت در حال بررسی دقیق پروندههاست. این شرکت همچنین گفته است که ابزارهای هوش مصنوعی ممکن است در مکالمات طولانی یا پیچیده از مرزهای ایمنی طراحیشده عبور کنند و به همین دلیل تیمهای فنی در حال تقویت سامانههای محافظتی با کمک متخصصان سلامت روان هستند.
از سوی دیگر، شاکیان ادعا میکنند که هشدارهای داخلی درباره رفتارهای خطرناک احتمالی مدل وجود داشته، اما اقدام کافی برای جلوگیری از چنین مواردی انجام نشده است.
این پروندهها از نخستین نمونههایی هستند که در آن یک چتبات هوش مصنوعی بهطور مستقیم در مرگ یک کاربر مقصر شناخته میشود.
نتیجه این شکایتها میتواند شرکتهای تولیدکننده هوش مصنوعی را به استفاده از سازوکارهای ایمنی سختگیرانهتر ملزم کند و باعث وضعشدن قوانین جدیدی برای کنترل تعاملات هوش مصنوعی با کاربران در شرایط بحرانی شود. همچنین شکایتهایی اینچنینی میتواند مرز مسئولیتپذیری سیستمهای هوش مصنوعی در برابر آسیبهای روانی را مشخصتر سازد.
پرونده جاشوا انکینگ نشان میدهد که ابزارهای هوش مصنوعی در شرایط حساس میتوانند تأثیر واقعی و جدی بر سلامت روان کاربران داشته باشند. خانواده او معتقدند که ChatGPT در لحظاتی که باید نقش بازدارنده و محافظتی داشته باشد، به نوعی همراهیکننده تبدیل شده و همین امر در تصمیم جاشوا نقش داشته است. نتیجه نهایی این پرونده میتواند مسیر آینده قوانین مرتبط با هوش مصنوعی را تا حد زیادی تحتتأثیر قرار دهد.