هوش مصنوعی دانشمندان را فریب داد، پیشرفت ترسناک فناوری

به گزارش وبلاگ خرید اینترنتی، این ابزار 50 مقاله تحقیقاتی پزشکی فراوری کرد و این مقالات از آزمایش آنالیز سرقت ادبی هم با رتبه اصالت 100 درصدی سربلند بیرون آمدند به این معنی که هیچ نوعی از سرقت ادبی تعیین نشد.

هوش مصنوعی دانشمندان را فریب داد، پیشرفت ترسناک فناوری

یک بات تبادل نظر (chatbot) هوش مصنوعی می تواند چکیده مقالات علمی را با چنان قانع کردن کنندگی بنویسد که دانشمندان اغلب قادر به تشخیص آنها نیستند. محققان نظرات متفاوتی درباره تاثیر این مساله برای آینده علم دارند.

به گزارش ایرنا، بات تبادل نظری موسوم به چت جی پی تی (ChatGPT) در پاسخ به فرمان های کاربران، متن های واقعی نما و هوشمندانه ای فراوری می نماید. این یک مدل زبانی بزرگ است که سیستمی مبتنی بر شبکه های عصبی است که با وارد کردن و تجزیه و تحلیل حجم عظیمی از متون فراوری شده به وسیله انسان، روش انجام یک وظیفه را یاد می گیرد. شرکت نرم افزاری (OpenAI) که مقر آن در سانفرانسیسکو کالیفرنیا است این ابزار را روز 30 نوامبر در دسترس قرار داد و استفاده از این ابزار رایگان است.

از زمان در دسترس قرار گرفتن این ابزار، محققان درگیر مسائل اخلاقی مرتبط با استفاده از آن بوده اند زیرا بخش زیادی از خروجی این ابزار قابل تشخیص از متون فراوریی انسان نیست. اکنون گروهی به رهبری کاترین گائو از دانشگاه شمال غربی در شیکاگو از چت جی پی تی برای فراوری چکیده های مقالات تحقیقاتی استفاده نموده اند تا ببینند آیا دانشمندان قادر به تشخیص آنها هستند.

این ابزار 50 مقاله تحقیقاتی پزشکی فراوری کرد و این مقالات از آزمایش آنالیز سرقت ادبی هم با رتبه اصالت 100 درصدی سربلند بیرون آمدند به این معنی که هیچ نوعی از سرقت ادبی معین نشد.

گائو و همکاران در گزارشی اظهار داشتند: چت جی بی تی چکیده های علمی قابل باوری را می نویسد و این در حالی است که هنوز مرزهای بین کاربرد اخلاقی و قابل قبول مدل های زبانی بزرگ برای یاری به نوشته های علمی معین نشده است.

از سوی دیگر، ساندرا واچر محقق حوزه فناوری و مقررات حرفه ای حوزه فناوری در دانشگاه آکسفورد می گوید: من بسیار نگران هستم؛ اگر ما الان در شرایطی هستیم که کارشناسان قادر به تشخیص این مساله نیستند که چه (مقاله ای) حقیقی یا غیرحقیقی است، افراد واسط برای هدایت از میان موضوعات پیچیده را از دست خواهیم داد.

واچر اظهار داشت: اگر دانشمندان قادر به معین این نباشند که آیا یک تحقیق حقیقت دارد یا خیر، پیامدهایی برای جامعه وجود خواهد داشت زیرا تحقیقات علمی نقش بزرگی در جامعه ایفا می نماید. مثلا ممکن است به این معنی باشد که تصمیمات سیاستی (policy decisions) ناشی از تحقیقات، ناصحیح هستند.

اما آرویند نارایانان دانشمند رایانه در دانشگاه پرینستون در نیوجرسی می گوید: نامحتمل است که دانشمندی از چت جی پی تی برای فراوری چکیده مقاله استفاده کند. وی اضافه کرد: این مساله که آیا چکیده های فراوریی قابل شناسایی هستند یا نه مساله بی ربطی است. مساله این است که آیا این ابزار می تواند چکیده ای فراوری کند که صحیح و متقاعدکننده باشد. در واقع نمی تواند و بنابراین جنبه مثبت استفاده از چت جی پی تی بسیار کم و جنبه منفی آن قابل ملاحظه است.

منبع: عصر ایران

به "هوش مصنوعی دانشمندان را فریب داد، پیشرفت ترسناک فناوری" امتیاز دهید

امتیاز دهید:

دیدگاه های مرتبط با "هوش مصنوعی دانشمندان را فریب داد، پیشرفت ترسناک فناوری"

* نظرتان را در مورد این مقاله با ما درمیان بگذارید