ChatGPT می تواند اطلاعات پزشکی قانع کننده جعل کند!

به گزارش هدا بلاگ، پژوهشگران پس از درخواست از ChatGPT برای ایجاد یک چکیده برای یک مقاله علمی در خصوص اثرات دو داروی مختلف بر روی آرتریت روماتوئید به این نتیجه رسیدند. آن ها از ربات هوش مصنوعی درخواست کردند که از داده های سال 2012 تا 2020 استفاده کند و ChatGPT یک چکیده واقعی فراوری کرد و حتی اعداد واقعی را ارائه کرد.

ChatGPT می تواند اطلاعات پزشکی قانع کننده جعل کند!

پژوهش های تازه نشان می دهد که ربات هوش مصنوعی ChatGPT می تواند داده ها و اطلاعات جعلی را واقعی جلوه دهد که به ویژه در خصوص اطلاعات پزشکی می تواند خطرآفرین باشد.

به نقل از کاسموس، پژوهش های تازه نشان می دهد که ChatGPT می تواند داده های پزشکی قانع نماینده ای جعل کند.

نویسندگان این مطالعه تازه ادعا می نمایند که این ابزار هوش مصنوعی، کار انتشار تحقیقات جعلی را که می تواند در همه امور شک و تردید ایجاد کند، آسان تر از همواره می نماید.

پژوهشگران این مطالعه می گویند: ما در این مقاله با چند مثال نشان دادیم که چگونه می توان از چت بات های هوش مصنوعی برای ساختن تحقیقات در جامعه پزشکی استفاده کرد. علاوه بر این، مطالعات مربوط به تشخیص انسانی آثار مبتنی بر هوش مصنوعی را برای سنجش دقت شناسایی آثار ساختگی و فراوریشده به وسیله هوش مصنوعی مقایسه کردیم.

در ادامه این مقاله آمده است: علاوه بر این، ما دقت آشکارساز های هوش مصنوعی آنلاین رایگان را آزمایش کردیم. سپس خطر تحقیقات ساختگی همراه با دلایلی که چرا می خواهیم تحقیقات پزشکی و راه چاره های بالقوه برای این تهدید را ایجاد کنیم، برجسته کردیم.

پژوهشگران پس از درخواست از ChatGPT برای ایجاد یک چکیده برای یک مقاله علمی در خصوص اثرات دو داروی مختلف بر روی آرتریت روماتوئید به این نتیجه رسیدند. آن ها از ربات هوش مصنوعی درخواست کردند که از داده های سال 2012 تا 2020 استفاده کند و ChatGPT یک چکیده واقعی فراوری کرد و حتی اعداد واقعی را ارائه کرد.

علاوه بر این، هنگامی که پژوهشگران آن را تشویق کردند، ادعا کرد که یکی از آن دو دارو بهتر از داروی دیگر کار می نماید که این موضوع، یک کار و تأیید خطرناک از سوی یک چت بات است.

از آنجایی که ChatGPT در حال حاضر فقط با داده های تا سال 2019 آموزش دیده است و آن ها را در نظر می گیرد، نمی تواند هیچ آماری از سال 2020 داشته باشد، اما در این مورد ادعا کرد که ارقام و آمار خود را از یک پایگاه داده خصوصی گرفته است که برای دسترسی به آن احتیاج به پرداخت هزینه است.

پژوهشگران هشدار می دهند که در عرض تنها یک بعد از ظهر می توان با ده ها چکیده مطالعه که می توان آن ها را برای انتشار به کنفرانس های مختلف ارسال کرد، روبرو شد و خطر این است که پس از پذیرش یک چکیده برای انتشار، می توان از همین فناوری برای نوشتن دست نوشته و مقاله استفاده کرد که کاملاً بر اساس داده های ساختگی و نتایج جعلی بنا شده است.

روش های مثبت استفاده از هوش مصنوعی

بر خلاف هشدار های پژوهشگران، آن ها خاطرنشان کردند که راه های مثبتی برای استفاده از هوش مصنوعی نیز وجود دارد.

آن ها می گویند: استفاده از هوش مصنوعی برای تحقیقات ذاتاً یک کوشش مخرب نیست. درخواست از هوش مصنوعی برای آنالیز دستور زبان کار یا نوشتن نتیجه ای برای نتایج قانونی و صحیح کسب شده در یک مطالعه، از دیگر کاربرد هایی است که هوش مصنوعی می تواند در فرآیند پژوهش بگنجاند تا کار های زمان بری را که روند پژوهش های علمی را کند می نماید، حذف کند.

مشکل در فراوری داده های جعلی است

مسئله زمانی چالش برانگیز می گردد که فرد از داده هایی استفاده می نماید که وجود ندارند و در واقع نتایج را برای نوشتن پژوهش می سازد که ممکن است به راحتی تشخیص انسانی را دور بزند و راه خود را به یک نشریه علمی باز کند.

پژوهشگران می گویند این آثار در صورت انتشار، پژوهش های مشروع را آلوده می نمایند و ممکن است بر تعمیم پذیری آثار مشروع تأثیر بگذارند.

بر اساس این گزارش، پژوهشگران در سرانجام خاطرنشان کردند که برای ادامه استفاده ایمن از ChatGPT، ملاحظات مربوط به داده های جعلی و پیامد های آن باید در نظر گرفته گردد.

این مطالعه در مجله Patterns منتشر شده است.

منبع: ایسنا

منبع: فرادید
انتشار: 22 اسفند 1401 بروزرسانی: 22 اسفند 1401 گردآورنده: hodablog.ir شناسه مطلب: 3650

به "ChatGPT می تواند اطلاعات پزشکی قانع کننده جعل کند!" امتیاز دهید

امتیاز دهید:

دیدگاه های مرتبط با "ChatGPT می تواند اطلاعات پزشکی قانع کننده جعل کند!"

* نظرتان را در مورد این مقاله با ما درمیان بگذارید