به گزارش خبرگزاری ایمنا و به نقل از نیچر، در دهههای اخیر استفاده از هوش مصنوعی در حوزههای مختلف علمی به طور چشمگیری افزایش پیدا کرده است. بررسیها نشان میدهد که میانگین تعداد مقالات علمی که از هوش مصنوعی استفاده میکنند، بین سالهای ۲۰۱۲ تا ۲۰۲۲ در ۲۰ رشته علمی چهار برابر شده است، این روند شامل حوزههایی همچون اقتصاد، زمینشناسی، علوم سیاسی و روانشناسی نیز میشود. انتظارات از هوش مصنوعی بالاست و امید میرود که این فناوری بتواند آهنگ کشفیات علمی را تسریع کند. با این حال، رشد این فناوری همراه با مشکلاتی است که نیازمند توجه دقیق است.
یکی از دغدغههای اصلی، خطاهایی است که در استفاده از ابزارهای هوش مصنوعی رخ میدهد، این خطاها به دلیل پیچیدگی و ماهیت «جعبه سیاه» هوش مصنوعی بیشتر دیده میشوند و میتوانند منجر به نتایج غلط و حتی متوقف شدن پیشرفت واقعی شوند. به عنوان نمونه، پژوهشگرانی که تخصص کافی در علوم کامپیوتر ندارند، ممکن است قابلیتهای پیشبینی مدلهای هوش مصنوعی را بیش از حد ارزیابی کنند و بدین ترتیب توهمی از پیشرفت ایجاد کنند.
یکی از رایجترین مشکلات در استفاده از هوش مصنوعی، «نشت داده» است. این مشکل زمانی رخ میدهد که اطلاعات از دادههای ارزیابی به فرآیند آموزش مدل نفوذ کنند. در این صورت، مدل ممکن است به جای یادگیری الگوهای معنادار، تنها الگوهای موجود در دادههای ارزیابی را حفظ کند. این موضوع کاربرد عملی مدل را محدود کرده و دانش علمی چندانی به ارمغان نمیآورد.
بررسیها نشان میدهد که مقالات در حداقل ۳۰ حوزه علمی (از روانپزشکی و زیستشناسی مولکولی تا امنیت کامپیوتری) از مشکل نشت داده رنج میبرند. به عنوان نمونه، در طول همهگیری کووید -۱۹، صدها مطالعه ادعا کردند که هوش مصنوعی میتواند این بیماری را تنها با استفاده از تصاویر رادیولوژی قفسه سینه یا سیتیاسکن تشخیص دهد. با این حال، بررسی سیستماتیک ۴۱۵ مطالعه نشان داد که تنها ۶۲ مورد از استانداردهای کیفیت پایه برخوردار بودند. حتی در این موارد، اشکالاتی همچون روشهای ارزیابی ضعیف، تکرار دادهها و نبود وضوح در تشخیص موارد مثبت دیده شد.
در بیش از دوجین مطالعه، دادههای آموزشی شامل تمام موارد مثبت کووید در بزرگسالان و موارد منفی در کودکان بین یک تا پنج سال بود. در نتیجه، مدل هوش مصنوعی تنها یاد گرفته بود که بزرگسالان و کودکان را از هم تشخیص دهد، اما پژوهشگران به اشتباه ادعا کردند که دستگاه تشخیص کووید -۱۹ ساختهاند.
تشخیص سیستماتیک این نوع خطاها دشوار است، زیرا ارزیابی دقت پیشبینی به طور سنتی پیچیده است و هنوز استانداردسازی نشده است. کد بندهای کامپیوتری میتوانند شامل هزاران خط کد باشند که ردیابی اشکالات در آنها دشوار است.
برای مقابله با این مشکلات، ضروری است که دستورالعملهای علمی واضحی برای استفاده از ابزارهای هوش مصنوعی تدوین شود، این دستورالعملها باید شامل استانداردهای ارزیابی دقیق، آموزش پژوهشگران در مورد نحوه صحیح استفاده از این فناوری و بررسی دقیق نتایج باشند، بدون این اقدامات، خطر اینکه هوش مصنوعی به جای تسهیل پیشرفت علمی، مانع آن شود، به طور قابل توجهی افزایش پیدا میکند.


نظر شما