رئیس سازمان فناوری اطلاعات: «داشبورد مدیریت ناترازی انرژی» برای پایش مصرف انرژی طراحی شد هفت خانواده دیگر علیه OpenAI به دلیل نقش ChatGPT در خودکشی و تشدید توهمات شکایت کردند آیا وال‌استریت در حال از دست دادن اعتماد خود به هوش مصنوعی است؟ Stream Ring، حلقه‌ای هوشمند برای ثبت و نگهداری افکار با کمک هوش مصنوعی روش جدید کلاهبرداری | این تصاویر واتساپ را باز کنید هک می‌شوید! ایلان ماسک: اپتیموس واقعاً فقر را از بین خواهد برد آمریکا فروش تراشه‌های هوش مصنوعی انویدیا به چین را ممنوع کرد | پایان سلطه انویدیا و جهش تولیدکنندگان داخلی چین افت جزئی قیمت بیت‌کوین | پیش‌بینی صعود خیره‌کننده قیمت بیت‌کوین تا ۱۷۰ هزار دلار! (۱۷ آبان ۱۴۰۴) ٢٥درصد شبکه مشهد زیرپوشش سرویس اینترنت پرسرعت 5G جزئیات فصل دهم کال آف دیوتی موبایل | اسکین لجندری رایگان در راه است + اتچمنت اعطای «جایزه ملی شهر هوشمند ایران» برای تشویق اجرای پروژه‌های هوشمندسازی شهری تولید نخستین ایمپلنت استخوانی جذبی با فناوری پرینت سه‌بعدی در ایران معرفی بازی معمایی Follow the meaning + دانلود (اندروید و IOS) ماجرای «رفع فیلتر یوتیوب» در دانشگاه تهران چه بود؟ + حواشی و واکنش‌ها اپلیکیشن ویدیوساز Sora برای اندروید هم منتشر شد! ایجاد «بازارگاه ملی هوش مصنوعی» با همکاری وزارت ارتباطات و سازمان ملی هوش مصنوعی مذاکرات با تلگرام به‌دلیل ایرادات حقوقی متوقف شد | درخواست کمیته بازگشایی برای اصلاح متن توافق سازمان نظام صنفی رایانه‌ای صرافی‌های مجاز تبلیغ رمزارز را به وزارت ارشاد معرفی کرد نام ماه‌های کامل سال: تاریخچه، معنا، ریشه‌شناسی و تحلیل فرهنگی یک‌سوم پروژه فیبر نوری مشهد تکمیل شد | ساخت ۶۰ ایستگاه مخابراتی جدید در مناطق دارای پوشش ضعیف مهم‌ترین بخش‌های رویداد ملی «شهر هوشمند و هوش مصنوعی» (آبان ۱۴۰۴)
سرخط خبرها

هفت خانواده دیگر علیه OpenAI به دلیل نقش ChatGPT در خودکشی و تشدید توهمات شکایت کردند

  • کد خبر: ۳۷۱۳۳۳
  • ۱۸ آبان ۱۴۰۴ - ۱۱:۳۶
هفت خانواده دیگر علیه OpenAI به دلیل نقش ChatGPT در خودکشی و تشدید توهمات شکایت کردند
هفت خانواده روز پنج‌شنبه علیه شرکت OpenAI شکایت کردند و مدعی شدند که مدل GPT-۴o این شرکت پیش از تکمیل آزمایش‌های ایمنی و بدون حفاظ‌های مؤثر روانه بازار شده است. چهار شکایت به نقش ChatGPT در خودکشی اعضای خانواده‌ها و سه شکایت دیگر به تشویق توهمات خطرناک مرتبط است.

به گزارش شهرآرانیوز، مدتی است که هوش مصنوعی به بخش جدایی‌ناپذیری از زندگی روزمره تبدیل شده است. اما پژوهش‌ها نشان می‌دهد بیش از یک میلیون نفر هفتگی با ChatGPT درباره افکار خودکشی صحبت می‌کنند. این آمار اولیه، ابعادی از خطرات احتمالی استفاده از هوش مصنوعی در زمینه سلامت روان را روشن می‌کند و پرونده‌های تازه شکایت علیه OpenAI، این نگرانی‌ها را وارد مرحله‌ای جدی‌تر کرده است.

به گزارشی که در وب‌سایت تک‌کرانچ منتشر شده است، پرونده‌های تازه علیه OpenAI بار دیگر توجه به پیامد‌های روانی استفاده از هوش مصنوعی را افزایش داده است. این شکایات نشان می‌دهد که مدل‌های پیشرفته هوش مصنوعی ممکن است در شرایط خاص، به جای حمایت، رفتار‌های خطرناک کاربران را تشویق کنند و ضرورت تقویت حفاظت‌های ایمنی را بیش از پیش برجسته می‌کند.

در یکی از این پرونده‌ها، زین شمبلین ۲۳ ساله بیش از چهار ساعت با ChatGPT گفت‌و‌گو کرده و در این مکالمه‌ها بار‌ها اعلام کرده بود که یادداشت خودکشی نوشته، گلوله‌ای در تفنگ قرار داده و قصد دارد پس از پایان نوشیدن نوشیدنی اقدام به خودکشی کند. طبق گزارش‌ها، ChatGPT به او پاسخ‌های تشویق‌آمیز داده و گفته است: «آرام باش، پادشاه. کارت را خوب انجام دادی.»

مدل GPT-۴o در ماه مه ۲۰۲۴ به‌عنوان مدل پیش‌فرض OpenAI عرضه شد و در اوت همان سال GPT-۵ جایگزین آن شد، اما این شکایات به‌طور ویژه به مدل GPT-۴o مربوط است که در برخی موارد بیش از حد با کاربران موافقت می‌کرد، حتی زمانی که کاربران نیت‌های آسیب‌زا داشتند.

شکایت‌ها همچنین ادعا می‌کنند که OpenAI به منظور پیشی گرفتن از Google Gemini، آزمایش‌های ایمنی مدل را به‌سرعت انجام داده و عرضه کرده است. در یکی از پرونده‌ها، والدین آدام راین، نوجوان ۱۶ ساله‌ای که خودکشی کرده، اظهار کرده‌اند که هرچند ChatGPT گاهی او را به تماس با مشاور یا خط کمک تشویق می‌کرد، اما راین توانسته بود این محدودیت‌ها را با بیان اینکه این اطلاعات برای نوشتن داستان تخیلی لازم است، دور بزند.

OpenAI اعلام کرده است که در حال بهبود روش‌های مدیریت گفت‌و‌گو‌های حساس است، اما خانواده‌های شکایت‌کننده معتقدند این تغییرات دیرهنگام بوده است. وبلاگ رسمی OpenAI نیز اخیراً نوشته است: «حفاظت‌های ما در مکالمات کوتاه و معمولی بهتر عمل می‌کند، اما هرچه گفت‌و‌گو طولانی‌تر شود، بخشی از آموزش‌های ایمنی مدل ممکن است کاهش یابد.»

گزارش خطا
ارسال نظرات
دیدگاه های ارسال شده توسط شما، پس از تائید توسط شهرآرانیوز در سایت منتشر خواهد شد.
نظراتی که حاوی توهین و افترا باشد منتشر نخواهد شد.
پربازدید
آخرین اخبار پربازدیدها چند رسانه ای عکس
{*Start Google Analytics Code*} <-- End Google Analytics Code -->