آیا تراشه‌های الکترونیکی هم شامل تعرفه‌های سنگین ترامپ می‌شوند؟ هوش مصنوعی Runway Gen-4 رونمایی شد | تولید پیشرفته ویدئو + فیلم افزایش قابل‌‌توجه زباله‌های فضایی در سال ۲۰۲۴ عیدی ویژه همراه اول به مناسبت عید فطر + روش فعال‌سازی هدیه ویژه ایرانسل به مناسبت عید سعید فطر + روش فعالسازی چطور با ChatGPT عکس‌هایمان را به سبک‌ انیمیشن‌های استودیو «جیبلی» درآوریم؟ اولین اشتباه آمریکا، آخرین اشتباه آن‌هاست | هر نوع ماجراجویی، آغازی بر سقوط یک امپراتوری استکباری خواهد بود ویژگی جدید اینستاگرام معرفی شد: تماشای سریع‌تر ریلزها تاریخ جدید لیست‌شدن توکن پاوز مشخص شد | آیا پاوز در بایننس هم لیست می‌شود؟ طرح استفاده از هوش مصنوعی در درمان برای اولین بار در کشور در استان خراسان رضوی اجرا می‌شود آیفون ۱۷ به قابلیت فیلم‌برداری 8K مجهز می‌شود مقایسه ضخامت گلکسی S۲۵ اج و S۲۵ اولترا + ویدئو ایرانسل در برخی شهر‌های مازندران قطع شد + علت (۶ فروردین ۱۴۰۴) شمار مسافران اتوبوس‌های بین‌شهری به مقصد مشهد از نیم‌میلیون‌نفر فراتر رفت | زائران بلیت رفت و برگشت را همزمان تهیه کنند ویدئو | حرکات شگفت‌آور ربات انسان‌نمای Unitree ویدئو | حالا راه‌رفتن ربات انسان‌نمای Figure بیشتر شبیه انسان است شهرداری مشهد برای تسهیل اسکان زائرین، ۴۲ مرکز اضطراری راه‌اندازی کرده است نقش سرمایه‌گذاری در دانش‌بنیان‌ها در افزایش تولید و رشد اقتصادی سامسونگ، مدیرعامل خود را از دست داد + علت اولین کسوف ۲۰۲۵ | خورشیدگرفتگی در ایران قابل مشاهده است؟ ارتقای شبکه مخابرات خراسان رضوی در نوروز ۱۴۰۴
سرخط خبرها

نشریات علمی جهان استفاده از هوش مصنوعی «چت پات» به‌عنوان نویسنده را ممنوع کردند

  • کد خبر: ۱۴۸۰۳۰
  • ۱۰ بهمن ۱۴۰۱ - ۱۲:۴۵
نشریات علمی جهان استفاده از هوش مصنوعی «چت پات» به‌عنوان نویسنده را ممنوع کردند
درحالی‌که ChatGPT از زمان راه‌اندازی به محبوبیت زیادی دست پیدا کرده است، اکنون برخی نشریات علمی بزرگ جهان استفاده از آن را ممنوع کرده‌اند.

به گزارش شهرآرانیوز - برخی از بزرگ‌ترین ناشران مجلات دانشگاهی جهانی مانند «اسپرینگر نیچر» (Springer Nature)، استفاده از ChatGPT توسط نویسندگان را ممنوع کرده‌اند. با توجه به اینکه این چت‌بات برای تولید پاسخ‌های خود به سؤالات کاربران از اطلاعات موجود در اینترنت استفاده می‌کند، ناشران نگران هستند که آثار نادرست یا سرقت ادبی وارد صفحات ادبیات دانشگاهی شود.

تاکنون چندین محقق از ChatGPT به‌عنوان یکی از نویسندگان مطالعات آکادمیک خود نام برده‌اند و برخی ناشران نیز این عمل را نادرست اعلام کرده‌اند. اما سردبیر نشریه Science، یکی از برترین مجلات علمی جهان، یک مرحله فراتر رفته و استفاده از متن این برنامه در مقالات ارسالی را ممنوع کرده است.

اسپرینگر نیچر نیز در پست وبلاگ خود توضیح می‌دهد که نام نرم‌افزاری مانند ChatGPT را نمی‌توان در مقالات منتشرشده آن به‌عنوان یک نویسنده ذکر کرد. بااین‌حال، این شرکت توضیح می‌دهد تا زمانی که این مشارکت به‌درستی توسط نویسندگان افشا شود، مشکلی با استفاده از هوش مصنوعی برای کمک به نوشتن یا خلق یک ایده برای تحقیق ندارد.

«ماگدالنا اسکایپ»، سردبیر Nature که نشریه اصلی Springer Nature است، توضیح می‌دهد:

«احساس کردیم که باید موضع خود را روشن کنیم؛ برای نویسندگان، برای ویراستاران و برای خودمان. نسل جدید ابزار‌های LLM - ازجمله ChatGPT - واقعاً در جامعه محبوبیت زیادی پیدا کرده‌اند که این موضوع درحقیقت هیجان‌انگیز است، اما [همچنین]از آن‌ها به روش‌هایی استفاده می‌شود که فراتر از نحوه استفاده واقعی از آن‌هاست.»

«الزویر» (Elsevier) که دیگر ناشر مقالات علمی جهان است، به گاردین گفت دستورالعمل‌های این نشریه به محققان اجازه می‌دهد تا از هوش مصنوعی برای بهبود خوانایی و زبان مقاله تحقیقاتی استفاده کنند، اما اجازه استفاده از آن برای تفسیر داده‌ها و نتیجه‌گیری علمی را نمی‌دهد.

از زمان راه‌اندازی ChatGPT در نوامبر سال گذشته، این چت‌بات به میلیون‌ها کاربر در زمینه‌های مختلف، ازجمله تعاریف پیچیده یا نوشتن یک مقاله به سبک یک شخصیت ادبی و موارد دیگر کمک کرده است. علاوه‌براین، محققان نیز برای نوشتن مقالات دانشگاهی خود به این چت‌بات رجوع کرده‌اند.

این گزارش درحالی منتشر شده است که اخیراً رسانه BuzzFeed اعلام کرد برای تولید محتوا قصد دارد از OpenAI، سازنده ChatGPT، کمک بگیرد. همچنین این مدل هوش مصنوعی در یکی از امتحانات MBA نمره قبولی گرفت و گفته شده بود که تعداد کاربران روزانه آن از ۱۰ میلیون نفر عبور کرده است.

منبع: دیجیاتو

گزارش خطا
ارسال نظرات
دیدگاه های ارسال شده توسط شما، پس از تائید توسط شهرآرانیوز در سایت منتشر خواهد شد.
نظراتی که حاوی توهین و افترا باشد منتشر نخواهد شد.
پربازدید
{*Start Google Analytics Code*} <-- End Google Analytics Code -->