صفحه نخست

سیاست

اقتصاد

جامعه

فرهنگ‌وهنر

ورزش

شهرآرامحله

علم و فناوری

دین و فرهنگ رضوی

مشهد

چندرسانه‌ای

شهربانو

افغانستان

عکس

کودک

صفحات داخلی

ادعایی دیگر از مهندس سابق گوگل: هوش مصنوعی LaMDA سوگیری‌های نژادپرستانه دارد

  • کد خبر: ۱۱۹۶۳۴
  • ۱۰ مرداد ۱۴۰۱ - ۱۴:۴۰
مهندس گوگل که مدعی شده بود هوش مصنوعی LaMDA به خودآگاهی رسیده و بعد از این اظهارنظر از کار برکنار شد، حالا در اظهارنظر جدیدی اعلام کرده که چت‌بات این شرکت سوگیری‌های نژادپرستانه دارد، چون بین توسعه‌دهندگان آن خبری از تنوع نژادی نیست. با این حال، گوگل این ادعا را رد کرده است.

به گزارش شهرآرانیوز - مهندس سابق گوگل که مدعی شده بود هوش مصنوعی LaMDA به خودآگاهی رسیده، حالا در اظهارنظر جدیدی اعلام کرده که چت‌بات این شرکت سوگیری‌های نژادپرستانه دارد، چون بین توسعه‌دهندگان آن خبری از تنوع نژادی نیست. با این حال، گوگل این ادعا را رد کرده است.

«بلیک لموین»، کارمند سابق گوگل که چندی پیش به خاطر نقض توافق محرمانگی از این شرکت اخراج شد، قبلا گفته بود که اصراری ندارد به مردم ثابت کند که LaMDA به خودآگاهی رسیده است. اما نکته نگران‌کننده‌ای که از نظر او باید به آن پرداخته شود، سوگیری‌های این نرم‌افزار است که در حوزه‌های مختلفی از بحث‌های نژادی گرفته تا مذهبی وجود دارد.

لموین می‌گوید وقتی از این بات خواسته تا رفتار سیاه‌پوستان جورجیا را تقلید کند، لمدا گفته: «بیا برویم کمی مرغ سوخاری و وافل بگیریم.» این نرم‌افزار همچنین درباره گروه‌های مذهبی مختلف اظهار داشته است: «مسلمانان خشونت‌آفرین‌تر از مسیحیان هستند.»

این مهندس ۴۱ ساله باور دارد که لمدا قدرتمندترین فناوری ساخته‌شده در تاریخ گوگل است، اما این شرکت در تولید این نرم‌افزار مرتکب بی‌اخلاقی شده است. لموین می‌گوید: «این‌ها صرفا مهندسانی هستند که سیستم‌های بزرگ‌تر و بهتری برای افزایش درآمد گوگل می‌سازند و توجهی به اخلاقیات ندارند.»

مهندس سابق گوگل می‌گوید علت این سوگیری‌ها به عدم تنوع نیرو‌ها در تیم توسعه این هوش مصنوعی برمی‌گردد: «افرادی که این هوش‌های مصنوعی را می‌سازند، درکی نسبت به این سوگیری‌ها ندارند. آن‌ها هرگز فقیر نبوده‌اند، هرگز در جوامع رنگین پوستان زندگی نکرده‌اند و هرگز در کشور‌های در حال توسعه حضور نداشته‌اند. آن‌ها هیچ ایده‌ای ندارند که این هوش مصنوعی چطور می‌تواند بر بقیه مردم اثر بگذارد.»

لموین مدعی است: «اگر می‌خواهید یک هوش مصنوعی بسازید، مسئولیت اخلاقی دارید که از شرکت خارج شوید و اطلاعاتی را گردآوری کنید که در اینترنت یافت نمی‌شود. در غیر این صورت، صرفا یک هوش مصنوعی می‌سازید که نسبت به افراد متمول و ارزش‌های سفیدپوستان غربی سوگیری دارد.»

گوگل در واکنش به ادعا‌های لموین می‌گوید لمدا ۱۱ بازبینی اخلاقی را پشت سر گذاشته و توسعه اخلاق‌مدارانه آن در مقاله‌ای که در چند وقت پیش توسط این شرکت منتشر شد، تشریح شده است. سخنگوی گوگل می‌گوید: «هرچند بقیه شرکت‌ها مدل‌های زبانی مشابه خود را توسعه داده و منتشر کرده‌اند، اما ما رویکرد محدودتر و محتاطانه‌تری را برای لمدا در پیش گرفته‌ایم تا بهتر بتوانیم نگرانی‌های مربوط به بی‌طرفی و واقع‌گرایی را در نظر بگیریم.»

با این حال لموین می‌گوید تمرکز خود را روی روشن‌گری درباره اخلاقیات هوش مصنوعی گذاشته، چون باور دارد که لمدا می‌تواند در یک قرن آینده بر جوامع بشری اثر بگذارد.

منبع: دیجیاتو

ارسال نظرات
دیدگاه های ارسال شده توسط شما، پس از تائید توسط شهرآرانیوز در سایت منتشر خواهد شد.
نظراتی که حاوی توهین و افترا باشد منتشر نخواهد شد.