شهرآرانیوز - شرکت مادر گوگل، آلفابت، سالهاست که در زمینه هوش مصنوعی فعالیت دارد؛ از خرید (و سپس فروش) «بوستون داینامیکس» (Boston Dynamics) گرفته تا دستیابی به دستاوردهای علمی با «دیپمایند» (DeepMind) و اخیراً تبدیل این موضوع به رویداد اصلی Google I/O امسال. این شرکت پس از راهاندازی ربات چت هوش مصنوعی خود، گوگل بارد، اکنون، به کارمندان خود توصیه میکند که مراقب آنچه به این رباتهای هوش مصنوعی میگویند (حتی رباتهای خود گوگل) باشند.
این توصیه صرف نظر از اینکه چه کسی آن را مطرح کرده است، چندان هم بد نیست. به طور کلی بهتر است اطلاعات خصوصی یا محرمانه را در هرجایی از فضای مجازی به اشتراک نگذاریم.
هر چیزی که به یک ربات چت هوش مصنوعی مانند «گوگل بارد»، «چت جی پی تی» و «بینگ چت» بگویید میتواند برای آموزش آن استفاده شود، زیرا این رباتها براساس مدلهای زبانی (LLM) کار میکنند و در حال آموزش مداوم هستند. شرکتهای پشت این چتباتهای هوش مصنوعی نیز دادههایی را ذخیره میکنند که میتواند برای کارمندان آنها قابل مشاهده باشد.
گوگل درباره بارد، چت بات هوش مصنوعیاش، در قسمت سوالات متداول گفته است:
«وقتی با بارد تعامل دارید، گوگل مکالمات، موقعیت مکانی، بازخورد و اطلاعات شما را جمعآوری میکند. این دادهها به ما کمک میکنند تا محصولات، سرویسها و فناوریهای یادگیری ماشینی را توسعه دهیم، همانطور که در خطمشی رازداری Google توضیح داده شده است.»
گوگل همچنین میگوید که زیرمجموعهای از مکالمات را به عنوان نمونه انتخاب میکند تا توسط بازبینهای آموزشدیده بازبینی شود و تا سه سال نگهداری شود. البته این شرکت گفته است در مکالمات بارد اطلاعاتی را که میتوان برای شناسایی شما یا دیگران استفاده شود، لحاظ نمیکند.
OpenAI در سایت خود میگوید که ترینرهای هوش مصنوعی مکالمات ChatGPT را برای کمک به بهبود سیستمهای خود بررسی میکنند: «ما مکالمات را بررسی میکنیم تا سیستمهای خود را بهبود بخشیم و اطمینان حاصل کنیم که محتوا با خطمشیها و الزامات ایمنی ما مطابقت دارد.»