رونمایی مایکروسافت از هویت بصری جدید هوش مصنوعی کوپایلت طرح ژاپن برای تولید جنین انسانی از سلول‌های بنیادی چرا نباید مشکلات عاطفی و مسائل خصوصی‌مان را با هوش مصنوعی در میان بگذاریم؟ مشاهده تولد یک سیاه‌چاله بزرگ برای اولین بار (۴ مرداد ۱۴۰۴) ماهواره مخابراتی ناهید ۲ با موفقیت به فضا پرتاب شد+ فیلم سامسونگ برای گلکسی A17 از همان پردازنده گلکسی A16 استفاده می‌کند اضافه‌شدن چند قابلیت هوش مصنوعی به آپدیت جدید ویندوز ۱۱ (۱ مرداد ۱۴۰۴) سه نگرانی سم آلتمن درباره آینده هوش مصنوعی برای هیدراته ماندن بدن چه بنوشیم و از چه چیزی اجتناب کنیم؟ همکاری وزارت ارتباطات و معاونت علمی ریاست جمهوری برای مقابله با تهدیدات سایبری ۵۱ درصد دستگاه‌های اجرایی به ارتقای امنیت شبکه نیاز دارند رئیس سازمان فناوری اطلاعات از مذاکره برای صادرات پیام‌رسان‌های بومی خبر داد ویدئو | ربات انسان‌نمایی که می‌تواند خودش باتری‌هایش را تعویض کند با شکایت صدا و سیما، دادگاه بدوی به توقف فعالیت آپارات‌اسپرت رأی داده است (۳۱ تیر ۱۴۰۴) تأثیرات تغییر شکر نوشابه کوکاکولا با نظر ترامپ چه خواهد بود؟ نسخه ویندوز واتساپ حذف می‌شود | جایگزین: نسخه تحت وب مایکروسافت مشکل کُندی ویندوز ۱۱ را برطرف می‌کند ایران موفق به تست زیرمداری با ماهواره‌بر قاصد شد (۳۰ تیر ۱۴۰۴) ایلان ماسک اپلیکیشن هوش مصنوعی Baby Grok را برای کودکان عرضه می‌کند فرآیند تأسیس «خانه کوانتوم ایران» در پژوهشگاه ارتباطات آغاز شد خیانت جنجالی مدیرعامل Astronomer در کنسرت کلدپلی | اندی بایرون مجبور به استعفا شد
سرخط خبرها

چرا نباید مشکلات عاطفی و مسائل خصوصی‌مان را با هوش مصنوعی در میان بگذاریم؟

  • کد خبر: ۳۴۷۵۰۷
  • ۰۴ مرداد ۱۴۰۴ - ۱۴:۵۹
چرا نباید مشکلات عاطفی و مسائل خصوصی‌مان را با هوش مصنوعی در میان بگذاریم؟
سم آلتمن به تازگی گفته هنگامی که از چت‌بات‌ها مانند ChatGPT برای درمان یا دریافت حمایت احساسی استفاده می‌کنید، چیزی به نام محرمانگی بین پزشک و بیمار وجود ندارد.

به گزارش شهرآرانیوز؛ سم آلتمن، مدیرعامل OpenAI، در مصاحبه جدیدی به کاربران هشدار داده که صنعت هوش مصنوعی هنوز راهی برای محافظت کامل از حریم خصوصی آنها در گفت‌و‌گو‌های حساس پیدا نکرده است. به گفته او، هنگامی که از چت‌بات‌ها مانند ChatGPT برای درمان یا دریافت حمایت احساسی استفاده می‌کنید، چیزی به نام محرمانگی بین پزشک و بیمار وجود ندارد.

مدیرعامل OpenAI اظهارات خود را در قسمت جدید پادکست «This Past Weekend» بیان کرده است. در پاسخ به پرسشی درباره تعامل هوش مصنوعی با سیستم‌های قانونی فعلی، آلتمن می‌گوید یکی از مشکلات اصلی نبود یک چارچوب حقوقی یا سیاست‌گذاری مشخص برای هوش مصنوعی، این است که برای گفت‌و‌گو‌های کاربران با این فناوری، محرمانگی قانونی وجود ندارد.

او در این رابطه می‌گوید:

«مردم خصوصی‌ترین مسائل زندگی خود را با ChatGPT در میان می‌گذارند. مردم و به‌ویژه افراد جوان‌تر از آن به‌عنوان یک درمانگر و مربی زندگی استفاده می‌کنند و مشکلات عاطفی خود را مطرح می‌کنند. اما اگر با یک درمانگر، وکیل یا پزشکی [واقعی]در این رابطه صحبت کنیم، مکالمه شما تحت محافظت قانونی قرار دارد. ولی ما هنوز چنین چارچوبی برای ChatGPT نداریم.»

به گفته آلتمن، در صورت ثبت یک شکایت حقوقی، این موضوع می‌تواند به یک نگرانی جدی در زمینه حریم خصوصی کاربران تبدیل شود، چرا که درحال‌حاضر OpenAI از نظر قانونی موظف است محتوای این گفت‌و‌گو‌ها را در صورت نیاز ارائه کند.

او در این بخش از سخنان خود گفته است:

«اگر کاربری درباره موضوعی بسیار حساس با ChatGPT صحبت کند و سپس درگیر یک پرونده حقوقی شود، ممکن است ما از لحاظ قانونی موظف به ارائه آن اطلاعات شویم. به‌نظر من این شرایط نگران‌کننده است. مکالمات کاربران با چت‌بات‌ها باید از همان سطح حریم خصوصی برخوردار باشد که در تعامل با پزشک یا درمانگر انتظار می‌رود.»

به‌عنوان مثال، OpenAI هم‌اکنون در پرونده نیویورک‌تایمز، درحال مبارزه با حکمی است که این شرکت را مجبور می‌کند مکالمات صد‌ها میلیون کاربر ChatGPT در سراسر جهان (به‌جز کاربران نسخه Enterprise) را ذخیره کند. OpenAI در بیانیه‌ای در وب‌سایت خود اعلام کرده که به این حکم اعتراض کرده و آن را «زیاده‌خواهی» خوانده است.

منبع: دیجیاتو

گزارش خطا
ارسال نظرات
دیدگاه های ارسال شده توسط شما، پس از تائید توسط شهرآرانیوز در سایت منتشر خواهد شد.
نظراتی که حاوی توهین و افترا باشد منتشر نخواهد شد.
پربازدید
{*Start Google Analytics Code*} <-- End Google Analytics Code -->