به گزارش خبرگزاری ایمنا و به نقل از نیچر، هوش مصنوعی پردازش زبان طبیعی و بهویژه مدلهای بزرگ زبانی همچون ChatGPT، به سرعت در حال تغییر نحوه ارائه دانش علمی هستند. با وجود اینکه این ابزارها میتوانند شبیه به متون انسانی بنویسند و ویرایش کنند، دارای معایبی همچون تولید اطلاعات نادرست، تقویت تعصبهای موجود و احتمال سوءاستفاده هستند، با این حال بسیاری از دانشمندان از آنها برای نوشتن مقالات علمی استفاده میکنند.
در یک مطالعه اخیر که در arXiv منتشر شد، مشخص شد استفاده از AI در مقالات علمی بهطور قابل توجهی افزایش پیدا کرده است. با تحلیل ۱۴ میلیون خلاصه مقاله از PubMed در سالهای ۲۰۱۰ تا ۲۰۲۴، محققان متوجه شدند که ظهور LLMها منجر به رشد ناگهانی در کاربرد واژگان خاصی در متون شده است. این الگو نشان میدهد که لااقل ۱۰ درصد از مقالات ۲۰۲۴ با کمک هوش مصنوعی نوشته شدهاند، این رقم در برخی حوزهها و مجلات حتی به ۳۰ درصد هم رسیده است، برای درک بهتر نگرش محققان نسبت به این موضوع، نظرسنجی گستردهای از حدود ۵ هزار دانشمند از سراسر جهان انجام داد، این نظرسنجی نشان داد که دانشمندان درباره مجاز بودن استفاده از هوش مصنوعی در نوشتن مقالات علمی به شدت متفاوت فکر میکنند.
در مجموع اکثر محققان استفاده از هوش مصنوعی برای ویرایش متن یا ترجمه مقاله را قابل قبول میدانند، اما درباره اینکه آیا باید این استفاده اعلام شود یا خیر اختلاف نظر وجود دارد. برخی معتقدند کافی است تنها ذکر شود که از هوش مصنوعی استفاده شده است، در حالی که دیگران میخواهند جزئیات بیشتری درباره نوع استفاده و دستورات داده شده به AI گزارش شود. در عین حال استفاده از هوش مصنوعی برای نوشتن گزارش اولیه داوری علمی بیشتر مورد انتقاد قرار گرفت. بیش از ۶۰ درصد از پاسخدهندگان این کار را غیراخلاقی دانستند. با این حال ۵۷ درصد از شرکتکنندگان استفاده از هوش مصنوعی برای کمک به داوری یک مقاله را قابل پذیرش دانستند.
این نتایج نشان میدهد که اگرچه ناشران بیشتر خواهان اعلام واضح استفاده از هوش مصنوعی در نگارش علمی هستند، دیدگاههای محققان در این زمینه متنوع و گاهی متضاد است. این سوال هنوز بدون پاسخ باقی مانده است و بحثهای اخلاقی درباره هوش مصنوعی در علم به شدت در حال توسعه است.


نظر شما