اقدامات سازمان تنظیم مقررات و ارتباطات رادیویی برای اربعین ۱۴۰۴ هوش مصنوعی چطور باعث مارپیچ توهم می‌شود؟ ایرپادهای اپل به قابلیت ترجمه زنده مجهز می‌شوند علت اختلال در اینترنت برخی کاربران چیست؟ یوبیسافت اقتباسی سینمایی از بازی «فارکرای» را برای شبکه FX تولید می‌کند شناسایی سوژه‌ها در دوربین جدید شیائومی با هوش مصنوعی انجام می‌شود هوش مصنوعی گراک ایلان ماسک رایگان شد برنامه اسکنر مایکروسافت (Microsoft Lens) با کوپایلوت ادغام می‌شود انتشار نسخه جدید GPT-۵؛ جهشی در هوش مصنوعی با تمرکز بر دقت، استدلال و کاربرد‌های روزمره آیا سونی سرمایه‌گذاری صرف روی پلی‌استیشن و بخش‌های سخت‌افزاری را کنار می‌گذارد؟ خرید آیفون قسطی در مشهد از دیجی پویا + مزایا و مراحل آن هزینه‌ای فراتر از پول شبکه مسی مخابرات تا ۵ سال آینده به صورت کامل با فیبر نوری جایگزین می‌شود اپل اینتلیجنس به مدل GPT-5 مجهز می‌شود بسته اینترنت ۱۴۰۴ خبرنگاران چه زمانی فعال می‌شود؟ + فیلم ریتم مخفی مغز در کنترل استرس کشف شد استودیو تیم‌ نینجا: نسخه اصلی بازی Nioh ۳ بهبودها و تغییرات زیادی خواهد داشت گلکسی S25 FE چه زمانی رونمایی می‌شود؟ طرح «نظام‌بخشی فضای مجازی» در مجلس اعلام وصول شد | صیانت ۳ در راه است؟ ضعف آنتن‌دهی و دسترسی دشوار به اینترنت در مشهد در زمان قطعی برق | چرا با قطع شدن برق آنتن موبایل هم می‌رود؟
سرخط خبرها

چرا نباید مشکلات عاطفی و مسائل خصوصی‌مان را با هوش مصنوعی در میان بگذاریم؟

  • کد خبر: ۳۴۷۵۰۷
  • ۰۴ مرداد ۱۴۰۴ - ۱۴:۵۹
چرا نباید مشکلات عاطفی و مسائل خصوصی‌مان را با هوش مصنوعی در میان بگذاریم؟
سم آلتمن به تازگی گفته هنگامی که از چت‌بات‌ها مانند ChatGPT برای درمان یا دریافت حمایت احساسی استفاده می‌کنید، چیزی به نام محرمانگی بین پزشک و بیمار وجود ندارد.

به گزارش شهرآرانیوز؛ سم آلتمن، مدیرعامل OpenAI، در مصاحبه جدیدی به کاربران هشدار داده که صنعت هوش مصنوعی هنوز راهی برای محافظت کامل از حریم خصوصی آنها در گفت‌و‌گو‌های حساس پیدا نکرده است. به گفته او، هنگامی که از چت‌بات‌ها مانند ChatGPT برای درمان یا دریافت حمایت احساسی استفاده می‌کنید، چیزی به نام محرمانگی بین پزشک و بیمار وجود ندارد.

مدیرعامل OpenAI اظهارات خود را در قسمت جدید پادکست «This Past Weekend» بیان کرده است. در پاسخ به پرسشی درباره تعامل هوش مصنوعی با سیستم‌های قانونی فعلی، آلتمن می‌گوید یکی از مشکلات اصلی نبود یک چارچوب حقوقی یا سیاست‌گذاری مشخص برای هوش مصنوعی، این است که برای گفت‌و‌گو‌های کاربران با این فناوری، محرمانگی قانونی وجود ندارد.

او در این رابطه می‌گوید:

«مردم خصوصی‌ترین مسائل زندگی خود را با ChatGPT در میان می‌گذارند. مردم و به‌ویژه افراد جوان‌تر از آن به‌عنوان یک درمانگر و مربی زندگی استفاده می‌کنند و مشکلات عاطفی خود را مطرح می‌کنند. اما اگر با یک درمانگر، وکیل یا پزشکی [واقعی]در این رابطه صحبت کنیم، مکالمه شما تحت محافظت قانونی قرار دارد. ولی ما هنوز چنین چارچوبی برای ChatGPT نداریم.»

به گفته آلتمن، در صورت ثبت یک شکایت حقوقی، این موضوع می‌تواند به یک نگرانی جدی در زمینه حریم خصوصی کاربران تبدیل شود، چرا که درحال‌حاضر OpenAI از نظر قانونی موظف است محتوای این گفت‌و‌گو‌ها را در صورت نیاز ارائه کند.

او در این بخش از سخنان خود گفته است:

«اگر کاربری درباره موضوعی بسیار حساس با ChatGPT صحبت کند و سپس درگیر یک پرونده حقوقی شود، ممکن است ما از لحاظ قانونی موظف به ارائه آن اطلاعات شویم. به‌نظر من این شرایط نگران‌کننده است. مکالمات کاربران با چت‌بات‌ها باید از همان سطح حریم خصوصی برخوردار باشد که در تعامل با پزشک یا درمانگر انتظار می‌رود.»

به‌عنوان مثال، OpenAI هم‌اکنون در پرونده نیویورک‌تایمز، درحال مبارزه با حکمی است که این شرکت را مجبور می‌کند مکالمات صد‌ها میلیون کاربر ChatGPT در سراسر جهان (به‌جز کاربران نسخه Enterprise) را ذخیره کند. OpenAI در بیانیه‌ای در وب‌سایت خود اعلام کرده که به این حکم اعتراض کرده و آن را «زیاده‌خواهی» خوانده است.

منبع: دیجیاتو

گزارش خطا
ارسال نظرات
دیدگاه های ارسال شده توسط شما، پس از تائید توسط شهرآرانیوز در سایت منتشر خواهد شد.
نظراتی که حاوی توهین و افترا باشد منتشر نخواهد شد.
پربازدید
آخرین اخبار پربازدیدها چند رسانه ای عکس
{*Start Google Analytics Code*} <-- End Google Analytics Code -->