هوش مصنوعی دانشمندان را فریب داد ، پیشرفت ترسناک فناوری

به گزارش تاورنا، یک بات تبادل نظر (chatbot) هوش مصنوعی می تواند چکیده مقالات علمی را با چنان قانع کردن کنندگی بنویسد که دانشمندان اغلب قادر به تشخیص آن ها نیستند. محققان نظرات متفاوتی درباره تاثیر این مساله برای آینده علم دارند.

هوش مصنوعی دانشمندان را فریب داد ، پیشرفت ترسناک فناوری

به گزارش ایرنا، بات گفتگوی موسوم به چت جی پی تی (ChatGPT) در پاسخ به فرمان های کاربران، متن های واقعی نما و هوشمندانه ای فراوری می نماید. این یک مدل زبانی بزرگ است که سیستمی مبتنی بر شبکه های عصبی است که با وارد کردن و تجزیه و تحلیل حجم عظیمی از متون فراوری شده به وسیله انسان، روش انجام یک وظیفه را یاد می گیرد. شرکت نرم افزاری (OpenAI) که مقر آن در سانفرانسیسکو کالیفرنیا است این ابزار را روز 30 نوامبر در دسترس قرار داد و استفاده از این ابزار رایگان است.

از زمان در دسترس قرار گرفتن این ابزار، محققان درگیر مسائل اخلاقی مرتبط با استفاده از آن بوده اند، زیرا بخش زیادی از خروجی این ابزار قابل تشخیص از متون فراوریی انسان نیست. اکنون گروهی به رهبری کاترین گائو از دانشگاه شمال غربی در شیکاگو از چت جی پی تی برای فراوری چکیده های مقالات تحقیقاتی استفاده نموده اند تا ببینند آیا دانشمندان قادر به تشخیص آن ها هستند.

این ابزار 50 مقاله تحقیقاتی پزشکی فراوری کرد و این مقالات از آزمایش آنالیز سرقت ادبی هم با رتبه اصالت 100 درصدی سربلند بیرون آمدند به این معنی که هیچ نوعی از سرقت ادبی معین نشد.

گائو و همکاران در گزارشی گفتند: چت جی بی تی چکیده های علمی قابل باوری را می نویسد و این در حالی است که هنوز مرز های بین کاربرد اخلاقی و قابل قبول مدل های زبانی بزرگ برای یاری به نوشته های علمی معین نشده است.

از سوی دیگر، ساندرا واچر محقق حوزه فناوری و مقررات حرفه ای حوزه فناوری در دانشگاه آکسفورد می گوید: من بسیار نگران هستم؛ اگر ما الان در شرایطی هستیم که کارشناسان قادر به تشخیص این مساله نیستند که چه (مقاله ای) حقیقی یا غیرحقیقی است، افراد واسط برای هدایت از میان موضوعات پیچیده را از دست خواهیم داد.

واچر گفت: اگر دانشمندان قادر به مشخص این نباشند که آیا یک تحقیق حقیقت دارد یا خیر، پیامد هایی برای جامعه وجود خواهد داشت، زیرا تحقیقات علمی نقش بزرگی در جامعه ایفا می نماید. مثلا ممکن است به این معنی باشد که تصمیمات سیاستی (policy decisions) ناشی از تحقیقات، ناصحیح هستند.

اما آرویند نارایانان دانشمند رایانه در دانشگاه پرینستون در نیوجرسی می گوید: نامحتمل است که دانشمندی از چت جی پی تی برای فراوری چکیده مقاله استفاده کند. وی اضافه نمود: این مساله که آیا چکیده های فراوریی قابل شناسایی هستند یا نه مساله بی ربطی است. مساله این است که آیا این ابزار می تواند چکیده ای فراوری کند که صحیح و متقاعدکننده باشد. در واقع نمی تواند و بنابراین جنبه مثبت استفاده از چت جی پی تی بسیار کم و جنبه منفی آن قابل ملاحظه است.

منبع: فرارو
انتشار: 26 دی 1401 بروزرسانی: 26 دی 1401 گردآورنده: taverna.ir شناسه مطلب: 2191

به "هوش مصنوعی دانشمندان را فریب داد ، پیشرفت ترسناک فناوری" امتیاز دهید

امتیاز دهید:

دیدگاه های مرتبط با "هوش مصنوعی دانشمندان را فریب داد ، پیشرفت ترسناک فناوری"

* نظرتان را در مورد این مقاله با ما درمیان بگذارید