چرا نباید مشکلات عاطفی و مسائل خصوصی‌مان را با هوش مصنوعی در میان بگذاریم؟

به گزارش شهرآرانیوز؛ سم آلتمن، مدیرعامل OpenAI، در مصاحبه جدیدی به کاربران هشدار داده که صنعت هوش مصنوعی هنوز راهی برای محافظت کامل از حریم خصوصی آنها در گفت‌و‌گو‌های حساس پیدا نکرده است. به گفته او، هنگامی که از چت‌بات‌ها مانند ChatGPT برای درمان یا دریافت حمایت احساسی استفاده می‌کنید، چیزی به نام محرمانگی بین پزشک و بیمار وجود ندارد.

مدیرعامل OpenAI اظهارات خود را در قسمت جدید پادکست «This Past Weekend» بیان کرده است. در پاسخ به پرسشی درباره تعامل هوش مصنوعی با سیستم‌های قانونی فعلی، آلتمن می‌گوید یکی از مشکلات اصلی نبود یک چارچوب حقوقی یا سیاست‌گذاری مشخص برای هوش مصنوعی، این است که برای گفت‌و‌گو‌های کاربران با این فناوری، محرمانگی قانونی وجود ندارد.

او در این رابطه می‌گوید:

«مردم خصوصی‌ترین مسائل زندگی خود را با ChatGPT در میان می‌گذارند. مردم و به‌ویژه افراد جوان‌تر از آن به‌عنوان یک درمانگر و مربی زندگی استفاده می‌کنند و مشکلات عاطفی خود را مطرح می‌کنند. اما اگر با یک درمانگر، وکیل یا پزشکی [واقعی]در این رابطه صحبت کنیم، مکالمه شما تحت محافظت قانونی قرار دارد. ولی ما هنوز چنین چارچوبی برای ChatGPT نداریم.»

به گفته آلتمن، در صورت ثبت یک شکایت حقوقی، این موضوع می‌تواند به یک نگرانی جدی در زمینه حریم خصوصی کاربران تبدیل شود، چرا که درحال‌حاضر OpenAI از نظر قانونی موظف است محتوای این گفت‌و‌گو‌ها را در صورت نیاز ارائه کند.

او در این بخش از سخنان خود گفته است:

«اگر کاربری درباره موضوعی بسیار حساس با ChatGPT صحبت کند و سپس درگیر یک پرونده حقوقی شود، ممکن است ما از لحاظ قانونی موظف به ارائه آن اطلاعات شویم. به‌نظر من این شرایط نگران‌کننده است. مکالمات کاربران با چت‌بات‌ها باید از همان سطح حریم خصوصی برخوردار باشد که در تعامل با پزشک یا درمانگر انتظار می‌رود.»

به‌عنوان مثال، OpenAI هم‌اکنون در پرونده نیویورک‌تایمز، درحال مبارزه با حکمی است که این شرکت را مجبور می‌کند مکالمات صد‌ها میلیون کاربر ChatGPT در سراسر جهان (به‌جز کاربران نسخه Enterprise) را ذخیره کند. OpenAI در بیانیه‌ای در وب‌سایت خود اعلام کرده که به این حکم اعتراض کرده و آن را «زیاده‌خواهی» خوانده است.

منبع: دیجیاتو

{$sepehr_key_139621}