بهگزارش ABC، پژوهشگران نسبت به استفاده از ابزارهای هوش مصنوعی برای ضبط و رونویسی وضعیت بیمار هشدار دادهاند. ابزار رونویسی Whisper ساخت OpenAI در بسیاری از بیمارستانهای آمریکا استفاده میشود و گاه اطلاعاتی را به متن اضافه میکند که در واقعیت بیان نشدهاند.
شرکت Nabla از ابزار هوش مصنوعی Whisper جهت رونویسی مکالمات پزشکی استفاده میکند. طبق گزارش ABC، این ابزار تاکنون حدود هفت میلیون مکالمهی پزشکی را رونویسی کرده و بیش از ۳۰ هزار پزشک و ۴۰ سیستم بهداشتی از آن بهرهمند شدهاند. Nabla به چالش تولید اطلاعات نادرست توسط Whisper واقف است و روی رفع مشکلات کار میکند.
گروهی از پژوهشگران دانشگاه کرنل، دانشگاه واشنگتن و سایر مؤسسات در مطالعهای دریافتند که مدل زبانی Whisper در حدود یک درصد از رونویسیها دچار توهم میشود و جملات کاملی را با احساسات گاه خشونتآمیز یا عبارات بیمعنی در خلال سکوتهای ضبطشده، ایجاد میکند.
پژوهشگران که نمونههای صوتی را از بانک اطلاعات AphasiaBank وبسایت TalkBank جمعآوری کردهاند، میگویند که سکوت بهویژه در هنگام صحبت افرادی که به اختلال زبانی آفازی مبتلا هستند، رایج است.
پژوهشگران دریافتند که Whisper، توهماتی از جمله اختراع بیماریهای پزشکی یا عباراتی که معمولاً در ویدیوهای پلتفرمهای اشتراکگذاری ویدیو مانند یوتیوب به کار میرود، تولید میکند. OpenAI برای آموزش مدل زبانی GPT-4 از بیش از یک میلیون ساعت ویدیو در یوتیوب بهره برده است.
-
هوش مصنوعی و پزشکی؛ گوگل با ابزاری جدید بهکمک کادر درمان میآید
-
هوش مصنوعی جدید گوگل، پزشکان را از کار بیکار میکند؟
سخنگوی OpenAI در واکنش به تحقیقات انجامشده، میگوید: «ما این مسئله را بسیار جدی میگیریم و بهطور مداوم در تلاش هستیم تا بهبودهای لازم را ایجاد کنیم و میزان توهمات را کاهش دهیم. سیاستهای ما بهصراحت استفاده از Whisper در تصمیمگیریهای مهم و پرخطر را منع کرده و توصیههای مشخصی در خصوص پرهیز از استفاده در حوزههای پرخطر ارائه شده است. از پژوهشگران محترم برای به اشتراکگذاشتن یافتههایشان کمال تشکر را داریم.»