خطرات استفاده از هوش مصنوعی در تحقیقات علمی

با وجود رشد چشمگیر استفاده از هوش مصنوعی (AI) در علوم مختلف، پژوهشگران هشدار می‌دهند که بکارگیری نادرست این فناوری می‌تواند به جای پیشرفت، پیشرفت واقعی را متوقف کند.

به گزارش خبرگزاری ایمنا و به نقل از نیچر، در دهه‌های اخیر استفاده از هوش مصنوعی در حوزه‌های مختلف علمی به طور چشمگیری افزایش پیدا کرده است. بررسی‌ها نشان می‌دهد که میانگین تعداد مقالات علمی که از هوش مصنوعی استفاده می‌کنند، بین سال‌های ۲۰۱۲ تا ۲۰۲۲ در ۲۰ رشته علمی چهار برابر شده است، این روند شامل حوزه‌هایی همچون اقتصاد، زمین‌شناسی، علوم سیاسی و روان‌شناسی نیز می‌شود. انتظارات از هوش مصنوعی بالاست و امید می‌رود که این فناوری بتواند آهنگ کشفیات علمی را تسریع کند. با این حال، رشد این فناوری همراه با مشکلاتی است که نیازمند توجه دقیق است.

یکی از دغدغه‌های اصلی، خطاهایی است که در استفاده از ابزارهای هوش مصنوعی رخ می‌دهد، این خطاها به دلیل پیچیدگی و ماهیت «جعبه سیاه» هوش مصنوعی بیشتر دیده می‌شوند و می‌توانند منجر به نتایج غلط و حتی متوقف شدن پیشرفت واقعی شوند. به عنوان نمونه، پژوهشگرانی که تخصص کافی در علوم کامپیوتر ندارند، ممکن است قابلیت‌های پیش‌بینی مدل‌های هوش مصنوعی را بیش از حد ارزیابی کنند و بدین ترتیب توهمی از پیشرفت ایجاد کنند.

یکی از رایج‌ترین مشکلات در استفاده از هوش مصنوعی، «نشت داده» است. این مشکل زمانی رخ می‌دهد که اطلاعات از داده‌های ارزیابی به فرآیند آموزش مدل نفوذ کنند. در این صورت، مدل ممکن است به جای یادگیری الگوهای معنادار، تنها الگوهای موجود در داده‌های ارزیابی را حفظ کند. این موضوع کاربرد عملی مدل را محدود کرده و دانش علمی چندانی به ارمغان نمی‌آورد.

بررسی‌ها نشان می‌دهد که مقالات در حداقل ۳۰ حوزه علمی (از روان‌پزشکی و زیست‌شناسی مولکولی تا امنیت کامپیوتری) از مشکل نشت داده رنج می‌برند. به عنوان نمونه، در طول همه‌گیری کووید -۱۹، صدها مطالعه ادعا کردند که هوش مصنوعی می‌تواند این بیماری را تنها با استفاده از تصاویر رادیولوژی قفسه سینه یا سی‌تی‌اسکن تشخیص دهد. با این حال، بررسی سیستماتیک ۴۱۵ مطالعه نشان داد که تنها ۶۲ مورد از استانداردهای کیفیت پایه برخوردار بودند. حتی در این موارد، اشکالاتی همچون روش‌های ارزیابی ضعیف، تکرار داده‌ها و نبود وضوح در تشخیص موارد مثبت دیده شد.

در بیش از دوجین مطالعه، داده‌های آموزشی شامل تمام موارد مثبت کووید در بزرگسالان و موارد منفی در کودکان بین یک تا پنج سال بود. در نتیجه، مدل هوش مصنوعی تنها یاد گرفته بود که بزرگسالان و کودکان را از هم تشخیص دهد، اما پژوهشگران به اشتباه ادعا کردند که دستگاه تشخیص کووید -۱۹ ساخته‌اند.

تشخیص سیستماتیک این نوع خطاها دشوار است، زیرا ارزیابی دقت پیش‌بینی به طور سنتی پیچیده است و هنوز استانداردسازی نشده است. کد بندهای کامپیوتری می‌توانند شامل هزاران خط کد باشند که ردیابی اشکالات در آن‌ها دشوار است.

برای مقابله با این مشکلات، ضروری است که دستورالعمل‌های علمی واضحی برای استفاده از ابزارهای هوش مصنوعی تدوین شود، این دستورالعمل‌ها باید شامل استانداردهای ارزیابی دقیق، آموزش پژوهشگران در مورد نحوه صحیح استفاده از این فناوری و بررسی دقیق نتایج باشند، بدون این اقدامات، خطر اینکه هوش مصنوعی به جای تسهیل پیشرفت علمی، مانع آن شود، به طور قابل توجهی افزایش پیدا می‌کند.

کد خبر 855873

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.