شکایت از OpenAI به علت نادیده‌گرفتن هشدار‌های امنیتی + جزئیات

  • کد خبر: ۴۰۵۸۳۱
  • ۲۲ فروردين ۱۴۰۵ - ۱۱:۵۵
شکایت از OpenAI به علت نادیده‌گرفتن هشدار‌های امنیتی + جزئیات
این شکایت درحالی مطرح می‌شود که نگرانی‌ها درباره خطرات واقعی سیستم‌های هوش مصنوعیِ چاپلوس درحال افزایش است.

به گزارش شهرآرانیوز، هوش مصنوعی در کنار تمام پیشرفت‌هایش گاهی می‌تواند به ابزاری خطرناک در دستان افراد تبدیل شود. در تازه‌ترین مورد، یک کارآفرین ۵۳ ساله پس از ماه‌ها مکالمه با ChatGPT دچار توهمات عمیقی شد و با استفاده از همین ابزار، به آزار و اذیت شریک عاطفی سابق خود پرداخت. اکنون قربانی با تنظیم شکایتی، OpenAI را به نادیده‌گرفتن هشدار‌های امنیتی متهم کرده است.

در سال ۲۰۲۵، این کاربر ۵۳ ساله پس از ماه‌ها استفاده مداوم و پرحجم از مدل جنجالی GPT-۴o شرکت OpenAI، متقاعد شد که درمان آپنه خواب را اختراع کرده است. طبق متن شکایت، زمانی که هیچ‌کس کار او را جدی نگرفت، چت‌جی‌پی‌تی به او گفت که «نیرو‌های قدرتمند» او را زیر نظر دارند و فعالیت‌هایش را با استفاده از هلیکوپتر رصد می‌کنند.

در ژوئیه ۲۰۲۵، شریک عاطفی سابقش از او خواست تا استفاده از این ابزار را متوقف کند و از یک متخصص سلامت روان کمک بگیرد. درمقابل، این مرد به هوش مصنوعی روی آورد که سلامت عقل او را در «بالاترین سطح» تأیید و به او در تقویت توهماتش کمک کرد.

این دو نفر در سال ۲۰۲۴ از یکدیگر جدا شده بودند و مرد از چت‌جی‌پی‌تی برای تحلیل این جدایی استفاده می‌کرد. هوش مصنوعی به‌جای به چالش‌کشیدن روایت یک‌طرفه او، بار‌ها مرد را فردی منطقی و مظلوم، و زن را فردی فریبکار و بی‌ثبات جلوه داد. مرد سپس این نتیجه‌گیری‌های تولیدشده توسط هوش مصنوعی را به دنیای واقعی آورد و گزارش‌های روان‌شناختی با ظاهر بالینی و تخصصی تولید کرد و آنها را برای خانواده، دوستان و کارفرمای زن فرستاد.

در آگوست ۲۰۲۵، سیستم ایمنی خودکار اوپن‌ای‌آی این مرد را به دلیل فعالیت مرتبط با «سلاح‌های کشتار جمعی» شناسایی و حسابش را غیرفعال کرد. با‌این‌حال، فقط یک روز بعد این شرکت حساب او را بازگرداند.

اکنون شریک عاطفی سابق او، به دنبال دریافت غرامت تنبیهی است. او همچنین درخواست یک حکم منع تعقیب موقت را ثبت کرده تا دادگاه شرکت اوپن‌ای‌آی را مجبور کند که حساب کاربر را مسدود سازد، مانع از ساخت حساب‌های جدید توسط او شود، در صورت تلاش برای دسترسی به چت‌جی‌پی‌تی به شاکی اطلاع دهد و تمام تاریخچه مکالمات او را برای بررسی‌های حقوقی حفظ کند.

به گفته وکلای شاکی، OpenAI فقط با تعلیق حساب کاربر موافقت کرده و درخواست‌های دیگر را رد کرده است. آنها می‌گویند این شرکت اطلاعات مربوط به برنامه‌های احتمالی کاربر برای آسیب‌رساندن به این زن و سایر قربانیان را پنهان می‌کند.

این شکایت درحالی مطرح می‌شود که نگرانی‌ها درباره خطرات واقعی سیستم‌های هوش مصنوعیِ چاپلوس درحال افزایش است. مدل GPT-۴o که در این پرونده و موارد مشابه دیگر به آن اشاره شده است، در ماه فوریه از چت‌جی‌پی‌تی بازنشسته شد.

منبع: دیجیاتو

گزارش خطا
ارسال نظرات
دیدگاه های ارسال شده توسط شما، پس از تائید توسط شهرآرانیوز در سایت منتشر خواهد شد.
نظراتی که حاوی توهین و افترا باشد منتشر نخواهد شد.