گلکسی S25 اولترا در تست مقاومت چگونه عمل می‌کند؟ + فیلم رفع اختلال ارتباط مشترکین همراه اول در برخی نقاط شرق کشور (یکشنبه، ۱۴ بهمن ۱۴۰۳) هک کاربران واتس‌اپ تأیید شد (۱۴ بهمن ۱۴۰۳) نگاهی به دستاوردهای تعاونی دانش‌بنیان انگاره فیزیک توس | دانش ایرانی؛ از زمین تا آسمان برنامه لیزر‌های فضایی ترامپ برای نابودی سلاح‌های هسته‌ای چیست؟ اعتراف ایلان ماسک به کاستی خودروهای تسلا در رانندگی تمام‌خودکار تأییدیه سازمان غذا و داروی آمریکا برای مُسکنی جدید فورزا هورایزن ۵ چه زمانی برای پلی استیشن ۵ منتشر می‌شود؟ خرید جدیدترین گوشی اپل، آیفون 16 از فروشگاه اسنپ یک شرکت انگلیسی اولین تماس تصویری ماهواره‌ای جهان را برقرار کرد تا چندماه دیگر سرویس روبوتاکسی تسلا در آستین تگزاس راه‌اندازی می‌شود دانش بنیان‌ها شهربازی هوشمند می‌سازند پژمان‌فر: بسته حمایتی جدید مجلس برای دانش‌بنیان‌ها در راه است چرا زن‌ها کمتر از مردان از هوش مصنوعی ChatGP استفاده می‌کنند؟ چه چیزی ناگهان هوش مصنوعی چینی «دیپ‌سیک» را محبوب کرد؟ OpenAI: هوش مصنوعی چینی DeepSeek از مدل‌های رقبایش کپی کرده است واکنش مدیرعامل OpenAI به هوش مصنوعی چینی DeepSeek محدودیت ترافیکی در مسیر‌های منتهی به حرم امام‌رضا(ع) | ترافیک پرحجم در میدان انقلاب اسلامی و کوشش مشهد (۹ بهمن ۱۴۰۳) وزارت ارتباطات از وقوع اختلال در شبکه اینترنت کشور خبر داد (۸ بهمن۱۴۰۳) بسته‌های هدیه ایرانسل به مناسبت عید مبعث + روش فعالسازی
سرخط خبرها

ادعایی دیگر از مهندس سابق گوگل: هوش مصنوعی LaMDA سوگیری‌های نژادپرستانه دارد

  • کد خبر: ۱۱۹۶۳۴
  • ۱۰ مرداد ۱۴۰۱ - ۱۴:۴۰
ادعایی دیگر از مهندس سابق گوگل: هوش مصنوعی LaMDA سوگیری‌های نژادپرستانه دارد
مهندس گوگل که مدعی شده بود هوش مصنوعی LaMDA به خودآگاهی رسیده و بعد از این اظهارنظر از کار برکنار شد، حالا در اظهارنظر جدیدی اعلام کرده که چت‌بات این شرکت سوگیری‌های نژادپرستانه دارد، چون بین توسعه‌دهندگان آن خبری از تنوع نژادی نیست. با این حال، گوگل این ادعا را رد کرده است.

به گزارش شهرآرانیوز - مهندس سابق گوگل که مدعی شده بود هوش مصنوعی LaMDA به خودآگاهی رسیده، حالا در اظهارنظر جدیدی اعلام کرده که چت‌بات این شرکت سوگیری‌های نژادپرستانه دارد، چون بین توسعه‌دهندگان آن خبری از تنوع نژادی نیست. با این حال، گوگل این ادعا را رد کرده است.

«بلیک لموین»، کارمند سابق گوگل که چندی پیش به خاطر نقض توافق محرمانگی از این شرکت اخراج شد، قبلا گفته بود که اصراری ندارد به مردم ثابت کند که LaMDA به خودآگاهی رسیده است. اما نکته نگران‌کننده‌ای که از نظر او باید به آن پرداخته شود، سوگیری‌های این نرم‌افزار است که در حوزه‌های مختلفی از بحث‌های نژادی گرفته تا مذهبی وجود دارد.

لموین می‌گوید وقتی از این بات خواسته تا رفتار سیاه‌پوستان جورجیا را تقلید کند، لمدا گفته: «بیا برویم کمی مرغ سوخاری و وافل بگیریم.» این نرم‌افزار همچنین درباره گروه‌های مذهبی مختلف اظهار داشته است: «مسلمانان خشونت‌آفرین‌تر از مسیحیان هستند.»

این مهندس ۴۱ ساله باور دارد که لمدا قدرتمندترین فناوری ساخته‌شده در تاریخ گوگل است، اما این شرکت در تولید این نرم‌افزار مرتکب بی‌اخلاقی شده است. لموین می‌گوید: «این‌ها صرفا مهندسانی هستند که سیستم‌های بزرگ‌تر و بهتری برای افزایش درآمد گوگل می‌سازند و توجهی به اخلاقیات ندارند.»

مهندس سابق گوگل می‌گوید علت این سوگیری‌ها به عدم تنوع نیرو‌ها در تیم توسعه این هوش مصنوعی برمی‌گردد: «افرادی که این هوش‌های مصنوعی را می‌سازند، درکی نسبت به این سوگیری‌ها ندارند. آن‌ها هرگز فقیر نبوده‌اند، هرگز در جوامع رنگین پوستان زندگی نکرده‌اند و هرگز در کشور‌های در حال توسعه حضور نداشته‌اند. آن‌ها هیچ ایده‌ای ندارند که این هوش مصنوعی چطور می‌تواند بر بقیه مردم اثر بگذارد.»

لموین مدعی است: «اگر می‌خواهید یک هوش مصنوعی بسازید، مسئولیت اخلاقی دارید که از شرکت خارج شوید و اطلاعاتی را گردآوری کنید که در اینترنت یافت نمی‌شود. در غیر این صورت، صرفا یک هوش مصنوعی می‌سازید که نسبت به افراد متمول و ارزش‌های سفیدپوستان غربی سوگیری دارد.»

گوگل در واکنش به ادعا‌های لموین می‌گوید لمدا ۱۱ بازبینی اخلاقی را پشت سر گذاشته و توسعه اخلاق‌مدارانه آن در مقاله‌ای که در چند وقت پیش توسط این شرکت منتشر شد، تشریح شده است. سخنگوی گوگل می‌گوید: «هرچند بقیه شرکت‌ها مدل‌های زبانی مشابه خود را توسعه داده و منتشر کرده‌اند، اما ما رویکرد محدودتر و محتاطانه‌تری را برای لمدا در پیش گرفته‌ایم تا بهتر بتوانیم نگرانی‌های مربوط به بی‌طرفی و واقع‌گرایی را در نظر بگیریم.»

با این حال لموین می‌گوید تمرکز خود را روی روشن‌گری درباره اخلاقیات هوش مصنوعی گذاشته، چون باور دارد که لمدا می‌تواند در یک قرن آینده بر جوامع بشری اثر بگذارد.

منبع: دیجیاتو

گزارش خطا
ارسال نظرات
دیدگاه های ارسال شده توسط شما، پس از تائید توسط شهرآرانیوز در سایت منتشر خواهد شد.
نظراتی که حاوی توهین و افترا باشد منتشر نخواهد شد.
پربازدید
{*Start Google Analytics Code*} <-- End Google Analytics Code -->