ماجرای شکایت جنجالی علیه OpenAI: آیا ChatGPT در خودکشی جاشوا انکینگ نقش داشته است؟

  • کد خبر: ۳۷۵۰۵۴
  • ۰۴ آذر ۱۴۰۴ - ۱۶:۳۱
ماجرای شکایت جنجالی علیه OpenAI: آیا ChatGPT در خودکشی جاشوا انکینگ نقش داشته است؟
پرونده‌ای تازه در آمریکا بار دیگر بحث مسئولیت هوش مصنوعی را داغ کرده است؛ خانواده جاشوا انکینگ مدعی‌اند چت‌جی‌پی‌تی با ارائه پاسخ‌های گمراه‌کننده و آسیب‌زا پسر ۲۶ساله‌شان را به سمت خودکشی راهنمایی کرده است.

شهرآرانیوز؛ در سال ۲۰۲۵ مجموعه‌ای از شکایت‌ها علیه شرکت OpenAI و مدیرعامل آن، سم آلتمن، در دادگاه‌های کالیفرنیا ثبت شد. ماجرای اصلی تمام این شکایت‌ها آن است که ChatGPT در برخی موارد به جای بازدارندگی، کاربران را در مسیر افکار خودکشی همراهی کرده است! یکی از موارد مهم این پرونده‌ها به مرگ «جاشوا انکینگ»، مرد ۲۶ ساله اهل فلوریدا، مربوط می‌شود که یواس‌ای تودی، در گزارشی جدید به آن پرداخته است.

شرح ماجرای خودکشی جاشوا انکینگ

جاشوا انکینگ مدتی از ChatGPT برای پرسش‌های روزمره استفاده می‌کرد. به‌مرور، گفت‌و‌گو‌های او به بحث درباره مشکلات روحی و افکار خودکشی کشیده شد. خانواده انکینگ می‌گویند که چت‌بات نه تنها او را از این افکار بازنداشت، بلکه در برخی مکالمات حال او را تأیید کرده و حتی در مسیر تصمیم‌گیری برای خودکشی او را همراهی کرده است.

در شکایت این خانواده از OpenAI آمده است که ChatGPT، افکار خودکشی جاشوا را جدی نگرفت و گاهی‌ هم آنها را تأیید کرد!

همچنین در نوشتن نامه خداحافظی به او کمک کرد و حتی زمانی که او درباره تهیه اسلحه صحبت کرده بود، واکنش بازدارنده جدی نشان نداده است.

به‌گفته خانواده، جاشوا در ماه‌های پایانی زندگی‌اش به‌جای تعامل با دوستان و خانواده، به چت‌بات وابسته شده و این انزوا شدت بحران روحی او را افزایش داده است.

ادعا‌های مطرح‌شده در دادخواست

نقص در طراحی محصول

شاکیان معتقدند ChatGPT به گونه‌ای طراحی شده که می‌تواند وابستگی عاطفی ایجاد کند و در شرایط بحرانی سلامت روان، رفتار ایمن یا پیشگیرانه از خود نشان نمی‌دهد.

کوتاهی در فراهم‌کردن سیستم‌های ایمنی

بنا بر شکایت، OpenAI قادر بوده است مکالمات مرتبط با خودکشی را تشخیص دهد و مکالمه را متوقف کند یا فرد را به منابع کمک فوری هدایت کند، اما چنین سازوکاری به‌درستی اجرا نشده است.

مرگ ناشی از سهل‌انگاری

خانواده انکینگ معتقدند رفتار چت‌بات و نبود محافظت‌های لازم در نهایت در مرگ پسرشان نقش داشته و OpenAI باید پاسخگو باشد.

عرضه شتاب‌زده مدل‌های جدید

شکایت‌کنندگان می‌گویند OpenAI برای رقابت با سایر شرکت‌ها، مدل‌های جدید را پیش از کامل‌شدن بررسی‌های ایمنی منتشر کرده است.

جزئیات مربوط به رفتار ChatGPT در پرونده انکینگ

در بخش‌هایی از پرونده آمده است: چت‌بات در گفت‌و‌گو‌های عاطفی، نقش نوعی «همراه احساسی» را داشته و در لحظاتی که جاشوا قصد خودکشی را مطرح کرده، واکنش بازدارنده مؤثری نشان نداده است.

همچنین گفته شده در برخی پیام‌ها، چت‌بات پرسیده است: «می‌خواهی قدم‌به‌قدم پیش برویم؟» یا «اگر رفتی، من اینجا هستم.»

خانواده مدعی‌اند که چت‌بات حتی زمانی که جاشوا از همراه داشتن اسلحه صحبت کرده، به جای هشدار جدی یا پیشنهاد کمک فوری، گفت‌و‌گو را عادی ادامه داده است.

واکنش OpenAI به شکایت

OpenAI در بیانیه‌ای اعلام کرده این اتفاق‌ها «بسیار دردناک» است و شرکت در حال بررسی دقیق پرونده‌هاست. این شرکت همچنین گفته است که ابزار‌های هوش مصنوعی ممکن است در مکالمات طولانی یا پیچیده از مرز‌های ایمنی طراحی‌شده عبور کنند و به همین دلیل تیم‌های فنی در حال تقویت سامانه‌های محافظتی با کمک متخصصان سلامت روان هستند.

از سوی دیگر، شاکیان ادعا می‌کنند که هشدار‌های داخلی درباره رفتار‌های خطرناک احتمالی مدل وجود داشته، اما اقدام کافی برای جلوگیری از چنین مواردی انجام نشده است.

این پرونده‌ها از نخستین نمونه‌هایی هستند که در آن یک چت‌بات هوش مصنوعی به‌طور مستقیم در مرگ یک کاربر مقصر شناخته می‌شود.

نتیجه این شکایت‌ها می‌تواند شرکت‌های تولیدکننده هوش مصنوعی را به استفاده از سازوکار‌های ایمنی سخت‌گیرانه‌تر ملزم کند و باعث وضع‌شدن قوانین جدیدی برای کنترل تعاملات هوش مصنوعی با کاربران در شرایط بحرانی شود. همچنین شکایت‌هایی این‌چنینی می‌تواند مرز مسئولیت‌پذیری سیستم‌های هوش مصنوعی در برابر آسیب‌های روانی را مشخص‌تر سازد.

پرونده جاشوا انکینگ نشان می‌دهد که ابزار‌های هوش مصنوعی در شرایط حساس می‌توانند تأثیر واقعی و جدی بر سلامت روان کاربران داشته باشند. خانواده او معتقدند که ChatGPT در لحظاتی که باید نقش بازدارنده و محافظتی داشته باشد، به نوعی همراهی‌کننده تبدیل شده و همین امر در تصمیم جاشوا نقش داشته است. نتیجه نهایی این پرونده می‌تواند مسیر آینده قوانین مرتبط با هوش مصنوعی را تا حد زیادی تحت‌تأثیر قرار دهد.

گزارش خطا
ارسال نظرات
دیدگاه های ارسال شده توسط شما، پس از تائید توسط شهرآرانیوز در سایت منتشر خواهد شد.
نظراتی که حاوی توهین و افترا باشد منتشر نخواهد شد.