عربستان مالک جدید بازی FIFA معرفی قابلیت Agent Mode توسط مایکروسافت هر روز یک میلیارد تومان هدیه برای دعوت از دوستان به بلو یا بلوجونیور مدل Claude Sonnet 4.5، هوش مصنوعی پیشرفته‌ای برای کدنویسی رونمایی موتورولا از گوشی باریک Moto X70 Air تا اوایل آبان ۱۴۰۴ آموزش رایگان لینوکس با Linux Journey شیائومی پد مینی با نمایشگر ۸.۸ اینچی و تراشه دایمنسیتی ۹۴۰۰ پلاس عرضه شد + عکس تریلر جدید Battlefield ۶ طعنه‌ای جدی به Call of Duty زد + جزئیات کمپینگ و تاریخ عرضه ویدئو | رونمایی از بزرگ‌ترین توربین بادی هوایی جهان توسط چین معرفی آیفون ۱۷e؛ گزینه اقتصادی اپل برای خریداران هوشمند معرفی اسنپدراگون ۸ الیت نسل ۵ | قدرتمندترین تراشه موبایل معرفی تلویزیون‌های سری TV S Pro Mini LED ۲۰۲۶ شیائومی سم آلتمن: هوش مصنوعی تا ۲۰۳۰ از هوش انسانی پیشی می‌گیرد بانک مرکزی سقف خرید سالانه تتر را تعیین کرد اینترنت آزاد محقق نشد، حالا وعده بهبود کیفیت تا شب عید الکامپ ۱۴۰۴؛ گردهمایی بزرگ فناوری ایران معرفی یخچال هوشمند ۲۰۲۵ شیائومی | تولید یک کیلوگرم یخ در یک ساعت! گوگل ۲۷ ساله شد | از روز‌های نخست تا تسلط بر دنیای اینترنت
سرخط خبرها

چرا نباید مشکلات عاطفی و مسائل خصوصی‌مان را با هوش مصنوعی در میان بگذاریم؟

  • کد خبر: ۳۴۷۵۰۷
  • ۰۴ مرداد ۱۴۰۴ - ۱۴:۵۹
چرا نباید مشکلات عاطفی و مسائل خصوصی‌مان را با هوش مصنوعی در میان بگذاریم؟
سم آلتمن به تازگی گفته هنگامی که از چت‌بات‌ها مانند ChatGPT برای درمان یا دریافت حمایت احساسی استفاده می‌کنید، چیزی به نام محرمانگی بین پزشک و بیمار وجود ندارد.

به گزارش شهرآرانیوز؛ سم آلتمن، مدیرعامل OpenAI، در مصاحبه جدیدی به کاربران هشدار داده که صنعت هوش مصنوعی هنوز راهی برای محافظت کامل از حریم خصوصی آنها در گفت‌و‌گو‌های حساس پیدا نکرده است. به گفته او، هنگامی که از چت‌بات‌ها مانند ChatGPT برای درمان یا دریافت حمایت احساسی استفاده می‌کنید، چیزی به نام محرمانگی بین پزشک و بیمار وجود ندارد.

مدیرعامل OpenAI اظهارات خود را در قسمت جدید پادکست «This Past Weekend» بیان کرده است. در پاسخ به پرسشی درباره تعامل هوش مصنوعی با سیستم‌های قانونی فعلی، آلتمن می‌گوید یکی از مشکلات اصلی نبود یک چارچوب حقوقی یا سیاست‌گذاری مشخص برای هوش مصنوعی، این است که برای گفت‌و‌گو‌های کاربران با این فناوری، محرمانگی قانونی وجود ندارد.

او در این رابطه می‌گوید:

«مردم خصوصی‌ترین مسائل زندگی خود را با ChatGPT در میان می‌گذارند. مردم و به‌ویژه افراد جوان‌تر از آن به‌عنوان یک درمانگر و مربی زندگی استفاده می‌کنند و مشکلات عاطفی خود را مطرح می‌کنند. اما اگر با یک درمانگر، وکیل یا پزشکی [واقعی]در این رابطه صحبت کنیم، مکالمه شما تحت محافظت قانونی قرار دارد. ولی ما هنوز چنین چارچوبی برای ChatGPT نداریم.»

به گفته آلتمن، در صورت ثبت یک شکایت حقوقی، این موضوع می‌تواند به یک نگرانی جدی در زمینه حریم خصوصی کاربران تبدیل شود، چرا که درحال‌حاضر OpenAI از نظر قانونی موظف است محتوای این گفت‌و‌گو‌ها را در صورت نیاز ارائه کند.

او در این بخش از سخنان خود گفته است:

«اگر کاربری درباره موضوعی بسیار حساس با ChatGPT صحبت کند و سپس درگیر یک پرونده حقوقی شود، ممکن است ما از لحاظ قانونی موظف به ارائه آن اطلاعات شویم. به‌نظر من این شرایط نگران‌کننده است. مکالمات کاربران با چت‌بات‌ها باید از همان سطح حریم خصوصی برخوردار باشد که در تعامل با پزشک یا درمانگر انتظار می‌رود.»

به‌عنوان مثال، OpenAI هم‌اکنون در پرونده نیویورک‌تایمز، درحال مبارزه با حکمی است که این شرکت را مجبور می‌کند مکالمات صد‌ها میلیون کاربر ChatGPT در سراسر جهان (به‌جز کاربران نسخه Enterprise) را ذخیره کند. OpenAI در بیانیه‌ای در وب‌سایت خود اعلام کرده که به این حکم اعتراض کرده و آن را «زیاده‌خواهی» خوانده است.

منبع: دیجیاتو

گزارش خطا
ارسال نظرات
دیدگاه های ارسال شده توسط شما، پس از تائید توسط شهرآرانیوز در سایت منتشر خواهد شد.
نظراتی که حاوی توهین و افترا باشد منتشر نخواهد شد.
پربازدید
آخرین اخبار پربازدیدها چند رسانه ای عکس
{*Start Google Analytics Code*} <-- End Google Analytics Code -->