یادگیری ماشین و هوش مصنوعی در پزشکی


17 آگوست 2021 - مطابق مقاله چشم انداز محققان دانشگاه استنفورد ، برای اطمینان از استفاده ایمن و موثر از هوش مصنوعی در پزشکی ، محققان و توسعه دهندگان باید برای از بین بردن سوگیری در این ابزارها تلاش کنند.


از آنجا که ابزارهای هوش مصنوعی در زمینه پزشکی شیوع بیشتری پیدا می کنند ، رهبران باید اطمینان حاصل کنند که این فناوری ها به نفع همه جمعیت ها و جمعیت شناختی است.


Londa Schiebinger ، جان ال. گفت: "بدن سفید و بدن مرد از مدت ها قبل در پزشکی راهنمای کشف دارو ، درمان و استانداردهای مراقبت بوده است ، بنابراین مهم است که اجازه ندهیم دستگاه های AI در آن الگوی تاریخی قرار بگیرند." استاد هندز در تاریخ علم در دانشکده علوم انسانی و استنفورد.


"ما امیدواریم که به جای حل مشکلات پس از واقعیت ، جامعه پزشکی پزشکی AI را در جلوگیری از تعصب و ایجاد عدالت در طراحی اولیه تحقیق مشغول کنیم."


برای توسعه دستگاه های AI عادلانه ، جمع آوری اطلاعات کافی اولین قدم اساسی است. این تیم خاطرنشان کرد که گرچه مجموعه های داده عمومی معمولاً نمایانگر جمعیت اقلیت نیستند ، مجموعه داده های خصوصی که ممکن است از تنوع بیشتری برخوردار باشند معمولاً به یک بیمارستان یا مرکز دانشگاهی محدود می شوند.


بیشتر بخوانید: آموزش ، کلید حفظ حریم خصوصی استفاده از هوش مصنوعی بعد از COVID


ارتقا relia قابلیت اطمینان سیستم های هوش مصنوعی به رهبران نیاز دارد تا این شکاف را برطرف کنند و چندین تلاش موجود برای این کار وجود دارد.


کمبود عکس حاشیه نویسی از افراد با پوست تیره مانع قابل توجهی برای الگوریتم های پوستی و سلامت است. پروژه رنگ پوست استنفورد یک تلاش علمی در حال انجام است که بزرگترین مجموعه داده تصاویر عمومی مربوط به پوست را از رنگ پوست تیره جمع آوری و درمان می کند. این داده ها می تواند به آموزش و ارزیابی مدل های یادگیری ماشین کمک کند. ”محققان گفتند.


"در ژنتیک ، تلاش های مشابهی برای اولویت بندی در جمع آوری و تجزیه و تحلیل داده های ژنتیک غیر اروپایی وجود دارد ، که برای درک ژنتیکی بیماری هایی مانند نمرات ریسک پلی ژنتیک برای بهره مندی از جمعیت های مختلف ضروری است. به عنوان مثال ، مطالعه اخیر PAGE چارچوبی قوی را برای شناسایی ارتباطات جدید ژنتیکی فنوتیپ ها با استفاده از بیش از 49000 فرد غیراروپایی نشان می دهد. "


علاوه بر جمع آوری داده های متنوع ، محققان بر اهمیت ارزیابی مداوم ابزارهای هوش مصنوعی ، حتی پس از استقرار سازمان ها ، تأکید کردند.


"نظارت بر استقرار الگوریتم های هوش مصنوعی یک زمینه در حال تحقیق است. محققان آزمون های آماری را برای شناسایی تفاوت داده های الگوریتم مورد استفاده با داده هایی که الگوریتم بر روی آنها آموزش دیده است ، ایجاد کرده اند. این آزمایشات باعث هشدارهای بی درنگ می شود که الگوریتم هوش مصنوعی مستقر شده به دلیل داده های آموزشی ممکن است دارای تعصب باشد این می تواند یک رویکرد عملی برای نظارت باشد "، تیم نوشت.


بیشتر بخوانید: هوش مصنوعی چه نقشی می تواند در بهداشت روان داشته باشد؟


"ما توصیه می کنیم بیمارستان ها و تنظیم کننده هایی مانند FDA چارچوب نظارت و الگوریتم AI را به عنوان یک بسته کلی ارزیابی کنند و در کنار هم مستقر شوند."


از نظر راه حل های طولانی مدت ، تیم نیاز سازمان های نظارتی را برای ارتقا عدالت در استفاده از هوش مصنوعی ذکر کردند.


"FDA پنج معیار تعالی را در برنامه اقدام نوآوری سلامت دیجیتال خود تعیین کرده است. با این حال ، در دستورالعمل های خاص برای تأیید سیستم های پزشکی رایانه ای پزشکی ، جنسیت ، جنسیت یا سایر محورهای اختلاف سلامت در جمع آوری داده ها ذکر نشده است. "


"ما توصیه می کنیم دستورالعملهای فعلی FDA را برای نرم افزار به عنوان یک وسیله پزشکی (SaMD) گسترش دهید تا شامل چهار قسمت بررسی قبل و بعد از بازار از ابزارهای بهداشتی ML باشد: تجزیه و تحلیل اختلافات بهداشتی در حوزه بالینی مورد علاقه. مروری بر داده های آموزشی برای تعصب ؛ شفافیت پیرامون تصمیمات گرفته شده در مورد عملکرد مدل ، به ویژه در رابطه با ناهماهنگی های بهداشتی ؛ و بررسی نتایج عدالت بهداشتی پس از بازار. "


دانشگاه ها همچنین می توانند با اصلاح برنامه ها و برنامه های درسی ، از هوش مصنوعی مسئول حمایت کنند.


بیشتر بخوانید: هوش مصنوعی خطاهای اداره دارو را تشخیص می دهد


این گروه گفت: "اخلاق اغلب در ماژول های مستقل (39 درصد) تدریس می شود و به برنامه های درسی اصلی مرتبط نیست (28 درصد - 33 درصد دیگر هر دو روش را ترکیب می کنند)".


"هوش مصنوعی برای جامعه پزشکی پزشکی همچنین می تواند از برنامه درسی که اخلاقیات را در آموزش محاسبات با استفاده از مطالب مربوطه در هر دو CS و اخلاق پزشکی شامل می شود ، بهره مند شود."


تیم اظهار داشت ، تیم ها همچنین باید متنوع باشند تا اطمینان حاصل شود که الگوریتم ها اختلافات را بیشتر نمی کنند.


"مشکلات اضافی ممکن است از عدم وجود تنوع جنسیتی و قومی در تیم های هوش مصنوعی ناشی شود ، وضعیتی که می تواند به تداوم تعصبات ناخودآگاه در طراحی تحقیق و نتایج کمک کند. تیم ها باید از نظر شرکت کنندگان و همچنین از نظر مجموعه مهارت ها و روش ها متنوع باشند. "


"محققان هوش مصنوعی خود باید اصول جنسیت ، جنسیت ، تنوع و تجزیه و تحلیل مقطعی را درک کنند زیرا این موارد مربوط به کارهای فنی آنها است."