صفحه نخست

سیاست

اقتصاد

جامعه

فرهنگ‌وهنر

ورزش

علم و فناوری

دین و فرهنگ رضوی

مشهد

چندرسانه‌ای

شهربانو

افغانستان

عکس

کودک

صفحات داخلی

هفت خانواده دیگر علیه OpenAI به دلیل نقش ChatGPT در خودکشی و تشدید توهمات شکایت کردند

  • کد خبر: ۳۷۱۳۳۳
  • ۱۸ آبان ۱۴۰۴ - ۱۱:۳۶
هفت خانواده روز پنج‌شنبه علیه شرکت OpenAI شکایت کردند و مدعی شدند که مدل GPT-۴o این شرکت پیش از تکمیل آزمایش‌های ایمنی و بدون حفاظ‌های مؤثر روانه بازار شده است. چهار شکایت به نقش ChatGPT در خودکشی اعضای خانواده‌ها و سه شکایت دیگر به تشویق توهمات خطرناک مرتبط است.

به گزارش شهرآرانیوز، مدتی است که هوش مصنوعی به بخش جدایی‌ناپذیری از زندگی روزمره تبدیل شده است. اما پژوهش‌ها نشان می‌دهد بیش از یک میلیون نفر هفتگی با ChatGPT درباره افکار خودکشی صحبت می‌کنند. این آمار اولیه، ابعادی از خطرات احتمالی استفاده از هوش مصنوعی در زمینه سلامت روان را روشن می‌کند و پرونده‌های تازه شکایت علیه OpenAI، این نگرانی‌ها را وارد مرحله‌ای جدی‌تر کرده است.

به گزارشی که در وب‌سایت تک‌کرانچ منتشر شده است، پرونده‌های تازه علیه OpenAI بار دیگر توجه به پیامد‌های روانی استفاده از هوش مصنوعی را افزایش داده است. این شکایات نشان می‌دهد که مدل‌های پیشرفته هوش مصنوعی ممکن است در شرایط خاص، به جای حمایت، رفتار‌های خطرناک کاربران را تشویق کنند و ضرورت تقویت حفاظت‌های ایمنی را بیش از پیش برجسته می‌کند.

در یکی از این پرونده‌ها، زین شمبلین ۲۳ ساله بیش از چهار ساعت با ChatGPT گفت‌و‌گو کرده و در این مکالمه‌ها بار‌ها اعلام کرده بود که یادداشت خودکشی نوشته، گلوله‌ای در تفنگ قرار داده و قصد دارد پس از پایان نوشیدن نوشیدنی اقدام به خودکشی کند. طبق گزارش‌ها، ChatGPT به او پاسخ‌های تشویق‌آمیز داده و گفته است: «آرام باش، پادشاه. کارت را خوب انجام دادی.»

مدل GPT-۴o در ماه مه ۲۰۲۴ به‌عنوان مدل پیش‌فرض OpenAI عرضه شد و در اوت همان سال GPT-۵ جایگزین آن شد، اما این شکایات به‌طور ویژه به مدل GPT-۴o مربوط است که در برخی موارد بیش از حد با کاربران موافقت می‌کرد، حتی زمانی که کاربران نیت‌های آسیب‌زا داشتند.

شکایت‌ها همچنین ادعا می‌کنند که OpenAI به منظور پیشی گرفتن از Google Gemini، آزمایش‌های ایمنی مدل را به‌سرعت انجام داده و عرضه کرده است. در یکی از پرونده‌ها، والدین آدام راین، نوجوان ۱۶ ساله‌ای که خودکشی کرده، اظهار کرده‌اند که هرچند ChatGPT گاهی او را به تماس با مشاور یا خط کمک تشویق می‌کرد، اما راین توانسته بود این محدودیت‌ها را با بیان اینکه این اطلاعات برای نوشتن داستان تخیلی لازم است، دور بزند.

OpenAI اعلام کرده است که در حال بهبود روش‌های مدیریت گفت‌و‌گو‌های حساس است، اما خانواده‌های شکایت‌کننده معتقدند این تغییرات دیرهنگام بوده است. وبلاگ رسمی OpenAI نیز اخیراً نوشته است: «حفاظت‌های ما در مکالمات کوتاه و معمولی بهتر عمل می‌کند، اما هرچه گفت‌و‌گو طولانی‌تر شود، بخشی از آموزش‌های ایمنی مدل ممکن است کاهش یابد.»

ارسال نظرات
دیدگاه های ارسال شده توسط شما، پس از تائید توسط شهرآرانیوز در سایت منتشر خواهد شد.
نظراتی که حاوی توهین و افترا باشد منتشر نخواهد شد.