چت جی‌پی‌تی؛ عامل آشفتگی در انتشارات علمی یا یک تغییر تحول‌آفرین؟

دنیای نوشتن و داوری به کمک هوش مصنوعی، ممکن است ماهیت مقاله‌های علمی را تغییر دهد.

چت جی‌پی‌تی؛ عامل آشفتگی در انتشارات علمی یا یک تغییر تحول‌آفرین؟

به گزارش چابک آنلاین، «دومینکو ماسترودیکاسا» (Domenico Mastrodicasa) رادیولوژیست دانشکده پزشکی دانشگاه واشنگتن سیاتل در آمریکا است. او زمانی که در نوشتن مقاله پژوهشی خود دچار مشکل شده بود، به چت جی‌پی‌تی روی آورد؛ چت باتی که در عرض چند ثانیه تقریباً به هر سؤالی پاسخ‌های روان می‌دهد. ماسترودیکاسا می‌گوید: من از آن به عنوان ابزاری برای بررسی اعتبار ایده‌های خودم استفاده می‌کنم و با استفاده از آن می‌توانم نوشته‌های آماده انتشار مقاله‌ام را خیلی سریع‌تر تولید کنم.

ماسترودیکاسا یکی از پژوهشگران بسیاری است که از ابزارهای هوش مصنوعی مولد برای نوشتن متن یا کدنویسی استفاده می‌کند. او برای استفاده از چت جی‌پی‌تی پلاس که نسخه اشتراکی ربات مبتنی بر مدل زبانی بزرگ (LLM) جی‌پی‌تی-۴ است، پول پرداخت می‌کند و چندبار در هفته از آن استفاده می‌کند. او این ابزار را به‌ویژه برای پیشنهاد راه‌های واضح‌تر برای انتقال ایده‌هایش مفید می‌داند.

اگرچه نظرسنجی Nature نشان می‌دهد که دانشمندانی که به طور منظم از مدل‌های زبانی بزرگ یا LLMها استفاده می‌کنند، هنوز در اقلیت هستند، بسیاری انتظار دارند که ابزارهای مولد هوش مصنوعی به دستیاران عادی نوشتن نوشته‌ها، گزارش‌های داوری و برنامه‌های گرنت یا کمک‌های مالی تبدیل شوند.

این‌ها تنها برخی از راه‌هایی هستند که هوش مصنوعی می‌تواند از طریق آن ارتباطات علمی و انتشارات را متحول کند. در حال حاضر ناشران علمی با استفاده از هوش مصنوعی مولد ابزارهای جستجوی علمی و ویرایش و خلاصه‌سازی سریع مقالات را آزمایش می‌کنند. بسیاری از پژوهشگران فکر می‌کنند که غیر انگلیسی‌زبان‌ها می‌توانند بیشترین بهره را از این ابزارها ببرند. برخی هوش مصنوعی را راهی برای دانشمندان می‌دانند تا به طورکلی درباره نحوه گردآوری داده‌ها و خلاصه کردن نتایج تجربی تجدیدنظر کنند. آن‌ها می‌توانند از مدل‌های زبانی بزرگ برای انجام بیشتر این کارها استفاده کنند و زمان کمتری را برای نوشتن مقالات صرف کنند و زمان بیشتری را برای انجام آزمایشات اختصاص دهند.

«مایکل آیزن» (Michael Eisen)، زیست‌شناس محاسباتی در دانشگاه کالیفرنیا برکلی که سردبیری مجله eLife را نیز برعهده دارد، می‌گوید: هدف هیچ‌کس واقعاً نوشتن مقاله نیست؛ بلکه هدف انجام کار علمی است. او پیش‌بینی می‌کند که ابزارهای مولد هوش مصنوعی حتی بتوانند ماهیت مقاله علمی را نیز به طور اساسی تغییر دهند.

اما شبح خطا و بی‌دقتی، درستی و نادرست بودن این دیدگاه را تهدید می‌کند. مدل‌های زبانی بزرگ یا LLMها، موتورهایی برای تولید اطلاعات دقیق نیستند، بلکه تنها خروجی را تولید می‌کنند که با الگوهای ورودی آن‌ها متناسب باشد. ناشران نگران این هستند که افزایش استفاده از آن‌ها منجر به تعداد بیشتری از نوشته‌های بی‌کیفیت یا پرخطا شود و احتمالاً سیلابی از نوشته‌های تقلبی با کمک هوش مصنوعی ایجاد شود.

«لورا فیتهام» (Laura Feetham)، ناظر داوری و بررسی همتایان انتشارات IOP در بریستول انگلستان که مجلات در زمینه علوم فیزیک را منتشر می‌کند، می‌گوید: هر چیز مخربی مانند این، می‌تواند نگران‌کننده باشد.

سیل تقلب‌ها

ناشران علمی و دیگران، طیف وسیعی از نگرانی‌ها را در مورد تاثیرات بالقوه هوش مصنوعی مولد مطرح کرده‌اند. «دنیل هوک» (Daniel Hook) مدیر اجرایی Digital Science که یک شرکت تحقیقاتی-تحلیلی در لندن است، می‌گوید: دسترسی به ابزارهای مولد هوش مصنوعی می‌تواند تهیه مقالات بی‌کیفیت را آسان‌تر کند و در بدترین حالت، یک‍پارچگی و درستی تحقیقات را به خطر بیندازد. او می‌گوید: ناشران کاملاً حق دارند که بترسند.

در برخی موارد، پژوهشگران اعتراف کرده‌اند که از چت جی‌پی‌تی برای کمک به نوشتن مقالات استفاده کرده‌اند، بدون این‌که این واقعیت را افشا کنند. این عمل پژوهشگران زمانی فاش شده بود که فراموش کرده بودند نشانه‌های استفاده از چت جی‌پی‌تی مانند ارجاع جعلی یا پاسخ از پیش برنامه‌ریزی‌شده را که نشان‌دهنده آن است که از نرم‌افزار مبتنی بر مدل زبانی هوش مصنوعی استفاده شده است، حذف کنند.

ناشران تنها در حالت ایده‌آل می‌توانند متن تولیدشده توسط مدل‌های زبانی بزرگ را تشخیص دهند. در عمل، ابزارهای تشخیص هوش مصنوعی تاکنون نتوانسته‌اند چنین متنی را به طور قابل اطمینان شناسایی کنند؛ در عین حال گاهی متن نوشته‌شده توسط انسان را نیز به عنوان محصول هوش مصنوعی علامت‌گذاری می‌کنند.

اگرچه توسعه‌دهندگان مدل‌های زبانی بزرگ تجاری، در حال کار بر روی واترمارک کردن خروجی‌های تولید شده توسط مدل‌های زبانی بزرگ هستند تا آن‌ها را قابل شناسایی کنند؛ ولی هنوز هیچ شرکتی این واترمارک را برای متن ارائه نکرده است. «ساندرا واکتر» (Sandra Wachter)، پژوهشگر حقوقی دانشگاه آکسفورد انگلستان که بر روی مفاهیم اخلاقی و قانونی فناوری‌های نوظهور تمرکز دارد، می‌گوید: هرگونه واترمارکی قابل حذف است. او امیدوار است که قانون‌گذاران در سراسر جهان بر افشا یا واترمارک کردن مدل‌های زبانی بزرگ اصرار کنند و حذف واترمارک را غیرقانونی کنند.

ناشران با ممنوع کردن استفاده از مدل‌های زبانی بزرگ (همان‌کاری که «انجمن آمریکایی پیشرفت علم» و ناشر مجله ساینس (Science) انجام داده است) یا در بیشتر موارد با اصرار بر شفافیت (همان سیاستی که مجله نیچر "Nature" و بسیاری از مجلات دیگر در پیش گرفته‌اند)، به این موضوع نزدیک می‌شوند.

مطالعه‌ای که ۱۰۰ ناشر و مجله مورد بررسی قرار دادند، نشان می‌دهد که تا ماه می (اردیبهشت ماه سال جاری)، ۱۷ درصد از ناشران و ۷۰ درصد از مجلات، شیوه‌نامه‌هایی را برای نحوه استفاده از هوش مصنوعی مولد منتشر کرده‌اند. «جیوانی کاچیامانی» (Giovanni Cacciamani)؛ متخصص اورولوژی دانشگاه کالیفرنیای جنوبی در لس‌آنجلس آمریکا که این مقاله را تالیف کرده است (البته این مقاله هنوز مورد بازبینی همتایان قرار نگرفته است)، می‌گوید: این شیوه‌نامه‌ها در مورد نحوه استفاده از این ابزارها متفاوت هستند. او و همکارانش در حال کار با دانشمندان و سردبیران مجلات هستند تا مجموعه‌ای از شیوه‌نامه‌ها را توسعه دهند و به پژوهشگران در مورد نحوه گزارش‌دهی استفاده از مدل‌های زبانی بزرگ کمک کنند.

بسیاری از ویراستاران نگران‌ هستند که از هوش مصنوعی مولد برای تولید آسان‌تر مقالات جعلی اما باورپذیر، استفاده شود. شرکت‌هایی به کارخانه‌های مقاله‌سازی معروفند و نوشته‌ها یا جایگاه‌های نویسندگی را به پژوهشگرانی که می‌خواهند برونداد انتشارات خود را افزایش دهند، می‌فروشند. این کارخانه‌های مقاله‌سازی می‌توانند از ابزارهای هوش مصنوعی سود ببرند. سخنگوی نشریه «ساینس» به «نیچر» گفته است که مدل‌های زبانی بزرگ مانند چت جی‌پی‌تی می‌تواند مشکل کارخانه‌های مقاله‌سازی را تشدید کند.

یکی از پاسخ‌ها به این نگرانی‌ها می‌تواند این باشد که برخی از مجلات رویکردهای خود را تقویت کنند تا بتوانند واقعی بودن نویسندگان و این‌که آیا خود آن‌ها تحقیقی که ارائه کرده‌اند را انجام داده‌اند، تایید کنند. «واکتر» می‌گوید: برای مجلات مهم است که بفهمند آیا نویسنده مقاله واقعاً کاری که ادعا می‌کند را انجام داده است یا خیر.

«بِرند پولوِرر» (Bernd Pulverer) رئیس انتشارات علمی «EMBO Press» در هایدلبرگ آلمان می‌گوید که در این انتشارات، نویسندگان باید تنها از طریق پست‌های الکترونیک سازمانی قابل تایید برای ارسال مقاله اقدام کنند و کارکنان تحریریه، نویسندگان و داوران را در تماس‌های ویدئویی ملاقات می‌کنند تا از هویت آن‌ها اطمینان حاصل کنند. او اضافه می‌کند که مؤسسات پژوهشی و سرمایه‌گذاران نیز باید بر برون‌داد کارکنان خود و بر دریافت‌کنندگان گرنت‌ها یا کمک‌های مالی، نظارت داشته باشند. این چیزی نیست که بتوان آن را به طور کامل به مجلات واگذار کرد.

برابری و نابرابری

هنگامی که «نیچر» از پژوهشگران خود در مورد این‌که «فکر می‌کنند بزرگ‌ترین مزایای هوش مصنوعی مولد برای علم چه باشد؟» نظرسنجی کرد، بیشترین پاسخ این بود که این ابزار به پژوهشگرانی که انگلیسی زبان اولشان نیست، کمک می‌کند. «تاتسویا آمانو» (Tatsuya Amano) دانشمند محیط زیست دانشگاه کوئینزلند استرالیا می‌گوید: استفاده از ابزارهای هوش مصنوعی می‌تواند برابری را در علم بهبود بخشد. آمانو و همکارانش بیش از ۹۰۰ دانشمند محیط‌زیست را که حداقل یک مقاله به زبان انگلیسی نوشته بودند را مورد بررسی قرار دادند. در میان پژوهشگران تازه‌کار، غیر انگلیسی‌زبانان گفته‌اند که مقالات آن‌ها دو برابر بیشتر از کسانی که انگلیسی زبان بومی آن‌ها است، به دلیل مسائل نوشتاری رد شده است. همچنین کسانی که زبان بومی انگلیسی دارند، زمان کم‌تری را برای نوشتن مطالب ارسالی خود صرف می‌کنند. چت جی‌پی‌تی و ابزارهای مشابه می‌تواند برای این پژوهشگران کمک بزرگی باشد.

تاثیرات هوش مصنوعی مولد

هنگامی که در یک نظرسنجی در «نیچر» در مورد هوش مصنوعی مولد مانند مدل‌های زبانی بزرگ سؤال پرسیده شد، پاسخ‌دهندگان تاکید کردند که ترجمه، کدنویسی و خلاصه‌های تحقیقاتی بیشترین استفاده را دارند.

«آمانو» که زبان اول او ژاپنی است، چت جی‌پی‌تی را آزمایش کرده است و می‌گوید که استفاده از این ابزار شبیه به کار با یک همکار انگلیسی‌زبان بومی است؛ اگرچه که گاهی اوقات پیشنهادات این ابزار، انتظارات را برآورده نمی‌کند. او در ماه مارس پس از ممنوع شدن استفاده از ابزارهای مولد هوش مصنوعی در نشریات، سرمقاله‌ای در مجله «ساینس» نوشت. با این استدلال که تا زمانی که نویسندگان استفاده از این ابزارها را افشا کنند، این استفاده می‌تواند انتشارات علمی را عادلانه‌تر کند. این افشا می‌تواند به صورت قرار دادن نسخه اصلی مقاله درکنار نسخه ویرایش‌شده آن توسط هوش مصنوعی باشد.

مدل‌های زبانی بزرگ با اولین نرم‌افزاری که بتواند با کمک هوش مصنوعی نوشته‌ها را بهتر کند، فاصله زیادی دارند. اما «ایرنه لی» (Irene Li) ، پژوهشگر هوش مصنوعی در دانشگاه توکیو می‌گوید که هوش مصنوعی به سادگی بسیار انعطاف‌پذیر است. او قبلاً از نرم‌افزار Grammarly که یک برنامه اصلاح گرامر و املای مبتنی بر هوش مصنوعی است، برای بهتر شدن نوشته‌های انگلیسی استفاده می‌کرد، ولی در حال حاضر به چت جی‌پی‌تی نقل مکان کرده چون این ابزار همه‌کاره است و در دراز مدت ارزش بیشتری را ارائه می‌دهد. همچنین او به جای پرداخت هزینه برای چندین ابزار، می‌تواند فقط در یک ابزار که همه این کارها را انجام می‌دهد، مشترک شود.

«چاوی چاوهان» (Chhavi Chauhan)؛ متخصص اخلاق هوش مصنوعی که مدیریت توسعه علمی را در انجمن آمریکایی آسیب‌شناسی پژوهش در مریلند آمریکا نیز بر عهده دارد، می‌گوید: با این حال روشی که در آن مدل‌های زبانی بزرگ توسعه می‌یابند، ممکن است نابرابری‌ها را تشدید کند. «چاوهان» نگران است که برخی از مدل‌های زبانی بزرگ رایگان، برای این‌که بتوانند از عهده هزینه‌های توسعه و اجرای آن‌ها برآیند، در آینده گران شوند. همچنین این‌که اگر ناشران از ابزارهای تشخیص مبتنی بر هوش مصنوعی استفاده کنند، به احتمال زیاد متن نوشته‌شده توسط افراد انگلیسی‌زبان غیربومی را به عنوان متن نوشته‌شده توسط هوش مصنوعی علامت‌گذاری کند. مطالعه‌ای که در ماه جولای (تیرماه) منتشر شد، نشان داد که این اتفاق در نسل فعلی ردیاب‌های جی‌پی‌تی رخ می‌دهد. او می‌گوید: ما متوجه نابرابری‌هایی که این مدل‌های هوش مصنوعی مولد ایجاد می‌کنند، نمی‌شویم.

چالش‌های بازبینی توسط همتایان

مدل‌های زبانی بزرگ یا LLMها می‌توانند برای داوران مقالات نیز یک موهبت باشند. «ماسترودیکاسا» می‌گوید: از زمانی که از چت‌ جی‌پی‌تی پلاس به عنوان دستیار استفاده می‌کند، او توانسته درخواست‌های داوری بیشتری را بپذیرد و از آن برای بهتر کردن متن نظرات خود استفاده کند؛ البته او متن مقالات و اطلاعات آن‌ها را در این ابزار آنلاین، آپلود نمی‌کند. او می‌گوید: «وقتی یک مقاله پیش‌نویس برای داوری دارم، می‌توانم آن را به جای چند روز در چند ساعت اصلاح کنم. من فکر می‌کنم این‌که استفاده از این ابزار به بخشی از جعبه ابزار ما تبدیل شود، غیر قابل اجتناب است.

«کریستوف اشتاین‌بک» (Christoph Steinbeck) پژوهشگر شیمی انفورماتیک دانشگاه فردریش شیلر در آلمان، چت جی‌پی‌تی پلاس را برای تولید خلاصه‌های سریع از نسخه‌های پیش‌چاپی که او بررسی می‌کند، مفید یافته است. او خاطر نشان می‌کند که نسخه‌های پیش‌چاپ از قبل آنلاین هستند، به همین دلیل موضوع محرمانه بودن آن‌ها در میان نیست.

یکی از نگرانی‌های کلیدی این است که پژوهشگران می‌توانند به چت جی‌پی‌تی تکیه کنند تا با فکر کردن کمی داوری و بازبینی کنند. البته عمل ساده‌لوحانه درخواست مستقیم از یک مدل زبانی بزرگ برای بازبینی و داوری یک نوشته ارزش زیادی ندارد. این را محمد حسینی که در کتابخانه و مرکز آموزشی علوم سلامت گالتر در دانشگاه نورث‌وسترن شیکاگو آمریکا اخلاق و صداقت پژوهشی می‌خواند، می‌گوید.

بیشتر نگرانی‌های اولیه در مورد استفاده از مدل‌های زبانی بزرگ در داوری همتایان، در مورد محرمانگی بوده است. چندین ناشر از جمله «الزویر»، «تیلور اند فرانسیس» و انتشارات «آی‌اوپی»، پژوهشگران را از آپلود کردن نوشته‌ها و بخش‌هایی از متن در پلتفرم‌های هوش مصنوعی مولد برای تولید گزارش‌های داوری منع کرده‌اند. ترس آن‌ها از این است که آپلود کردن این متن‌ها بتواند به مجموعه داده‌های آموزشی یک مدل زبانی بزرگ، بازخورد یا فیدبک بدهد (ممکن است که آپلودکردن این متن‌ها هوش مصنوعی را آموزش دهد و داده‌های مقالاتی که تا کنون منتشر نشده، وارد اطلاعات هوش مصنوعی شود) این کار شرایط قرارداد در مورد محرمانه نگه‌داشتن کار را نقض می‌کند.

در ماه ژوئن (خردادماه)، مؤسسه ملی بهداشت ایالات متحده به دلیل نگرانی بابت محرمانگی، استفاده از چت جی‌پی‌تی و سایر ابزارهای هوش مصنوعی مولد را برای داوری گرنت‌ها و کمک‌های مالی ممنوع کرد. دو هفته بعد نیز شورای پژوهش استرالیا به همین دلیل استفاده از هوش مصنوعی مولد را در طول بازبینی گرنت و کمک‌های مالی ممنوع کرد. این اتفاق پس از آن افتاد که تعدادی از داوری‌ها که به نظر می‌رسیده توسط چت جی‌پی‌تی نوشته شده باشند، به صورت آنلاین ظاهر شد.

یکی از راه‌های دور زدن مانع محرمانگی، استفاده از مدل‌های زبانی بزرگ با هاست یا میزبانی خصوصی است. از این طریق می‌توان مطمئن بود که داده‌ها به شرکت‌هایی که میزبان مدل‌های زبانی بزرگ در فضای ابری هستند، بازخورد داده نمی‌شوند. دانشگاه ایالتی آریزونا در حال آزمایش هاست‌های خصوصی بر اساس مدل‌های اپن سورس یا منبع باز مانند Llama ۲ و Falcon هستند. نیل وودبری (Neal Woodbury)، مدیر ارشد علم و فناوری در شرکت university’s Knowledge، که به رهبران دانشگاه در مورد ابتکارات تحقیقاتی مشاوره می‌دهد، می‌گوید: «این یک مشکل قابل حل است».

«فیتهام» می‌گوید که اگر واضح‌تر بود که مدل‌های زبانی بزرگ چگونه داده‌هایی که در آن‌ها قرار می‌گیرند را ذخیره، محافظت و استفاده می‌کنند، می‌توانستیم این ابزارها را در سیستم‌های داوری ناشران ادغام کنیم. اگر از این ابزارها به درستی استفاده شود، فرصت‌های خوبی وجود دارد. بیش از نیم دهه است که ناشران از ابزارهای هوش مصنوعی یادگیری ماشینی و پردازش زبان طبیعی برای کمک به بررسی همتایان و داوری استفاده می کنند. سخنگوی انتشارات وایلی می‌گوید که این شرکت در حال آزمایش هوش مصنوعی مولد برای کمک به انتخاب نوشته‌ها، انتخاب داوران و تایید هویت نویسندگان است.

نگرانی‌های اخلاقی

با این حال برخی از پژوهشگران استدلال می‌کنند که مدل‌های زبانی بزرگ برای این‌که در فرآیند انتشار علمی گنجانده شوند، از نظر اخلاقی مبهم‌ هستند. «آیریس ون رویج» (Iris van Rooij)، دانشمند علوم شناختی در دانشگاه رادبود هلند می‌گوید: نگرانی اصلی در نحوه کار مدل‌های زبانی بزرگ نهفته است: با جستجوی محتوای اینترنتی بدون نگرانی از سوگیری، رضایت یا حق چاپ. او می‌افزاید که هوش مصنوعی مولد «از نظر طراحی، یک سرقت ادبی خودکار» است؛ زیرا کاربران هیچ ایده‌ای ندازند که چنین ابزارهایی اطلاعات خود را از کجا تامین می‌کنند. او استدلال می‌کند که اگر پژوهشگران از این مشکل بیشتر آگاه بودند، خودشان نمی‌خواستند که از ابزارهای هوش مصنوعی مولد استفاده کنند.

برخی از سازمان‌های خبری جستجوی ربات‌های چت جی‌پی‌تی در سایت‌هایشان را مسدود کرده‌اند و گزارش‌های رسانه‌ها حاکی از آن است که برخی از شرکت‌ها در فکر شکایت‌های قضایی هستند. اگرچه ناشران علمی در سطح عمومی تا این حد پیش نرفتند، ولی انتشارات وایلی به نیچر گفته است که به دقت گزارش‌های صنعتی و ادعای دعوی قضایی را زیر نظر دارند؛ چرا که مدل‌های هوش مصنوعی مولد مواد محافظت‌شده را برای اهداف آموزشی جمع‌آوری می‌کنند و در عین حال هرگونه محدودیت موجود در آن اطلاعات را نادیده می‌گیرند». این ناشر همچنین خاطر نشان می‌کند که خواستار نظارت بیشتر از جمله شفافیت و رسیدگی به تعهدات ارائه‌دهندگان مدل‌های زبانی بزرگ است.

حسینی که دستیار ویراستار مجله Accountability in Research انتشارات «تایلر اند فرانسیس» نیز است، پیشنهاد می‌کند که آموزش دادن مدل‌های زبانی بزرگ در پیشینه علمی رشته‌های خاص، می‌تواند یکی از راه‌های بهبود دقت و ارتباط خروجی آن‌ها با دانشمندان باشد؛ اگر چه هیچ ناشری به «نیچر» نگفته است که این کار را انجام می‌دهد.

«جما دریک» (Gemma Derrick) که در دانشگاه بریستول انگلیس سیاست و فرهنگ پژوهشی می‌خواند، می‌گوید که نگرانی دیگر این است که اگر پژوهشگران شروع به تکیه به مدل‌های زبانی بزرگ کنند، ممکن است مهارت‌های بیانی آن‌ها ضعیف شود. پژوهشگران تازه‌کار ممکن است مهارت‌های لازم را برای انجام رفتار منصفانه و بازبینی یا داوری‌های متعادل را از دست بدهند.

تغییر تحول‌آفرین

«پاتریک ماینو» (Patrick Mineault)، دانشمند ارشد یادگیری ماشین در مؤسسه هوش مصنوعی میلا - کبک کانادا می‌گوید: ابزارهای هوش مصنوعی مولد به طور گسترده‌تر این پتانسیل را دارند که نحوه چاپ و انتشار پژوهش‌ها را تغییر دهند. این می‌تواند به این معنی باشد که در آینده پژوهش‌ها به‌گونه‌ای منتشر می‌شوند که به راحتی توسط ماشین‌ها قابل خواندن باشد، تا انسان‌ها. همه این اشکال جدید انتشار وجود خواهد داشت.

در عصر مدل‌های زبانی بزرگ، «آیزن» آینده‌ای را به تصویر می‌کشد که در آن یافته‌ها به صورت تعاملی مثلاً به جای یک محصول ثابت و یک اندازه در فرمت «paper on demand» منتشر می‌شوند. در این مدل، کاربران می‌توانند از یک ابزار هوش مصنوعی برای پرسیدن سؤالات مربوط به آزمایش‌ها، داده‌ها و تجزیه و تحلیل‌ها استفاده کنند، این فرمت به آن‌ها اجازه می‌دهد تا جنبه‌های یک مطالعه را که بیشتر مرتبط با آن‌ها است، بررسی کنند. همچنین به کاربران این امکان را می‌دهد که به شرحی از نتایج که مطابق با نیازهای آن‌ها است، دسترسی داشته باشند. «آیزن» می‌گوید: من فکر می‌کنم استفاده از روایت‌های منفرد به‌عنوان رابط بین افراد و نتایج مطالعات علمی، فقط نیاز به زمان دارد.

شرکت‌هایی مانند scite و Elicit قبلاً ابزارهای جستجویی را راه‌اندازی کرده‌اند که از مدل‌های زبانی بزرگ برای ارائه پاسخ‌های به زبان طبیعی به پرسش‌های پژوهشگران استفاده می‌کنند. در ماه آگوست (مردادماه)، انتشارات الزویر نسخه آزمایشی ابزار خود با نام Scopus AI را برای ارائه خلاصه‌ای سریع از موضوعات پژوهشی راه‌اندازی کرد.

«پاتریک ماینو » اضافه می‌کند که ابزارهای هوش مصنوعی مولد می‌توانند نحوه انجام متاآنالیزها و مطالعات مروری پژوهشگران را تغییر دهند؛ البته تنها در صورتی که این ابزار به ایجاد اطلاعات و رفرنس‌ها تمایل داشته‌باشد، این موضوع می‌تواند به اندازه کافی مورد توجه قرار گیرد.

بزرگترین مطالعه مروری تولیدشده توسط انسان که «پاتریک ماینو» دیده، شامل حدود ۱۶۰۰ مقاله است؛ اما با استفاده از هوش مصنوعی مولد، این مطالعه مروری می‌تواند بزرگ‌تر شود. او می گوید: «این تعداد مقاله به نسبت کل پیشینه علمی موجود، بسیار ناچیز است. سؤال این است که در حال حاضر چه مقدار از این قبیل اطلاعات در ادبیات و پیشینه علمی وجود دارد که می‌توان از آن‌ها بهره‌برداری کرد؟

 

 

copied
نظر بگذارید