به گزارش خبرگزاری مهر به نقل از تک کرانچ، این پایگاه ArXiv نام دارد. هرچند تحقیقاتی که روی وب سایت پست می شود توسط همکاران بررسی شده اند اما مخزن ArXiv به یکی از روش های اصلی گردش تحقیقات در حوزه هایی مانند علوم رایانشی و ریاضی و خود وب سایت نیز مخزنی از داده ها درباره ترندهای پژوهش های علمی تبدیل شده است.
این وب سایت هم اکنون گام هایی برای مقابله با تعداد روز افزون تحقیقات بی کیفیتی که با هوش مصنوعی انجام شده اند، برداشته و به عنوان مثال کاربرانی که برای نخستین بار مطلبی در آن منتشر می کنند، باید از سوی یک مولف تثبیت شده، تایید شوند. دانشگاه کرنل بیش از ۲۰ سال میزبان این سازمان بود که اکنون به یک موسسه ناسودآور مستقل تبدیل شده تا برای پرداختن به مسائلی مانند چالش هوش مصنوعی سرمایه بیشتری جمع آوری کند.
«توماس دیتریش» مدیر بخش علوم رایانشی ArXiv در پستی نوشت اگر یک مقاله ارائه شده حاوی شواهد غیرقابل انکاری باشد که مولفان نتایج تولید شده توسط مدل های بزرگ زبانی را بررسی نکردهاند، این بدان معناست که ما نمیتوانیم به هیچ چیز در مقاله اعتماد کنیم. اگر چنین شواهدی یافت شود، مولفان تحقیق با ممنوعیتی یک ساله از سوی پلتفرم روبرو می شوند و پس از آن مقالاتی که به این مخزن ارائه می کنند باید توسط یک مرجع معتبر دارای داوری همتا تایید شده باشد.
در اینجا وجود شواهد غیرقابل انکار به معنای ممنوعیت مستقیم استفاده از هوش مصنوعی در تحقیقات نیست بلکه نکته اصلی آن است که مولفان مسئولیت کامل محتوا را بدون در نظر گرفتن آنکه چگونه تولید شده باشد، تقبل کنند. بنابراین اگر محققان لحنی نامناسب، محتوای کپیشده، محتوای جانبدارانه، خطاها، اشتباهات، ارجاعات نادرست یا محتوای گمراهکننده را به طور مستقیم از یک سیستم هوش مصنوعی کپی پیست کنند، همچنان باید مسئولیت آن را برعهده بگیرند.
به گفته دیتریش این قانون هیچ فرصت دومی به فرد خاطی نمی دهد اما بازبین ها باید چالش را مشخص و مدیران بخش ها نیز باید شواهد را قبل از وضع جریمه تایید کنند. مولفان می توانند خواستار تجدید نظر درباره این تصمیم شوند.