چرا برداشتن درب جعبه سیاه هوش مصنوعی برای پذیرش مراقبت های بهداشتی ضروری است

زمان مطالعه: 5 دقیقه

دکتر آمیرا پاتل، مدیر عامل TidalSense، پیشگام فناوری تنفسی برای راه حل های COPD و آسم، توضیح می دهد که چرا خطر ایمنی بیمار ناشی از الگوریتم های غیرقابل درک هوش مصنوعی را نمی توان در جستجوی راه حل های مراقبت بهداشتی پایدار نادیده گرفت.

هوش مصنوعی (AI) و مدل‌های یادگیری عمیق دهه‌هاست که وجود داشته‌اند، اما اخیراً است که قدرت محاسباتی یک تغییر مرحله‌ای در مقرون‌به‌صرفه و دسترسی به این فناوری‌ها را امکان‌پذیر کرده است.

و این یک تغییر گام است. امروزه هوش مصنوعی در همه چیز از لوازم آشپزخانه گرفته تا خودروها تعبیه شده است. حتی مسواک Oral-B من هم ظاهراً دارای هوش مصنوعی است.

جدا از بهداشت دندان، این همه جا در بخش مراقبت های بهداشتی منعکس نمی شود، جایی که جذب هوش مصنوعی بسیار کندتر بوده است و دلایل خوبی دارد.

سکوت در میان پزشکان و تنظیم‌کننده‌ها تعجب‌آور نیست – اگر الگوریتم‌ها تصمیمات مرگ یا زندگی را می‌گیرند، مناسب است با احتیاط، سخت‌گیری و بدبینی سالم با آن‌ها رفتار کنیم. با توجه به اینکه چندین فناوری هوش مصنوعی که توسط سازمان غذا و دارو (FDA) در ایالات متحده تنظیم شده است، به روش‌های «جعبه سیاه» یادگیری عمیق تکیه می‌کنند، این بررسی دقیق‌تر شاید بهتر باشد.

با این حال، فشار برای پذیرش هوش مصنوعی در حال افزایش است زیرا سیستم های مراقبت های بهداشتی با کمبود کارکنان، اعتصابات و اختلافات حقوقی، رشد بیماری های مزمن و چالش پیری جمعیت دست و پنجه نرم می کنند.

به طور گسترده ای پذیرفته شده است که وضعیت فعلی ناپایدار است – به ویژه با توجه به نگرانی های فزاینده که سازمان ها اکنون به قدری کم کار هستند که زمان کمی برای ارائه مراقبت و دلسوزی انسانی مناسب ندارند.

هوش مصنوعی برای کاهش فشار روی پزشکان، پرستاران و سایر پزشکان سلامت مورد نیاز است. اما آیا می‌توان به هوش مصنوعی جعبه سیاه برای ایفای نقش معنادار در یکی از زمان‌برترین جنبه‌های ارائه مراقبت‌های بهداشتی: تشخیص اعتماد کرد؟

یادگیری ویژگی های مناسب

تشخیص، چه توسط انسان یا هوش مصنوعی انجام شود، همه چیز در مورد تشخیص الگو است – تخمین احتمال بر اساس الگوهای ارائه شده.

تشخیص الگوی این است که چگونه یک پزشک می‌داند که بیمار روبروی او با وجود نشان دادن 90 درصد علائم، تقریباً مطمئناً بیماری فوق‌العاده نادری ندارد، زیرا آنها هزاران بیماری شایع دیگر را نیز دیده‌اند که به روشی مشابه ظاهر می‌شوند.

الگوریتم‌های هوش مصنوعی فرآیند مشابهی را طی می‌کنند اما با سرعت بسیار بالاتر. آنها می توانند برای کمک به پزشکان در تصمیم گیری های تشخیصی، سرعت بخشیدن به تریاژ و اولویت بندی بیماران، یا بررسی تصویربرداری پزشکی برای تعیین اینکه کدام اسکن باید بیشتر مورد بررسی قرار گیرد، آموزش ببینند.

شاید این مقاله را هم دوست داشته باشید :  نحوه اتصال هدفون بلوتوث به اپل واچ

در هر نمونه، الگوریتم از تشخیص الگو برای رسیدن به یک تصمیم استفاده می کند. هر چه کیفیت داده های مورد استفاده برای آموزش بهتر باشد، تصمیم هوش مصنوعی دقیق تر است، البته مشروط بر اینکه الگوریتم «ویژگی های» صحیح هر الگو را یاد گرفته باشد. با این حال، هرگونه سوگیری در داده‌های مورد استفاده برای آموزش الگوریتم منجر به تصمیم‌گیری‌های نادرست می‌شود: «آشغال‌ها، زباله‌ها بیرون».

از این رو، هنگامی که در یک محیط مراقبت های بهداشتی استفاده می شود، هر هوش مصنوعی در حال استفاده باید پاسخ روشن و دقیقی بدهد و نشان دهد که چگونه به آن پاسخ رسیده است.

حقیقت در مورد گربه ها و سگ ها

متأسفانه، در مورد هوش مصنوعی جعبه سیاه، دید کمی در این فرآیند وجود دارد. اکثر مدل های یادگیری عمیق در این جعبه قرار می گیرند.

برای توضیح این موضوع، به عنوان انسان، ما می‌دانیم که گربه یک گربه است، زیرا ویژگی‌های خاصی را در ظاهر یک گربه تشخیص می‌دهیم که مشخصه گربه بودن آن است.

با این حال، ثابت شده است که می‌توان برخی از الگوریتم‌های هوش مصنوعی را برای تعبیر نادرست الگوها و شناسایی گربه‌ها به‌عنوان سگ با افزودن مقداری نویز نامحسوس به تصویر فریب داد – خطای وحشتناکی که بر اساس تشخیص الگوی انسانی قضاوت می‌شود، اما زمانی که توسط یک الگوریتم ساخته می‌شود، می‌تواند توضیحی کاملاً منطقی داشته باشد.

فرض کنید این الگوریتم به جای یادگیری ویژگی‌هایی که انسان‌ها با گربه‌ها مرتبط می‌کنند، تعیین کرده است که در تصاویر گربه‌هایی که دیده است، گربه کمی دورتر از تصاویر سگ‌ها به سمت چپ قرار دارد. در نتیجه، سپس شروع به طبقه‌بندی هر جسمی که در سمت چپ تصویر قرار دارد به عنوان یک گربه و هر تصویری که در سمت راست قرار دارد به عنوان یک سگ طبقه‌بندی می‌کند. گربه ها اکنون به اشتباه به عنوان سگ با فرکانس نگران کننده شناخته می شوند.

این یک مثال افراطی است، اما خطرات بالقوه استفاده از راه حل های هوش مصنوعی جعبه سیاه را برجسته می کند. حتی در مواردی که هوش مصنوعی همچنان تابع تصمیم گیری های انسانی است، پزشکان به راحتی می توانند با تشخیص اشتباه و به ظاهر غیرقابل توضیح هوش مصنوعی از بین بروند و مطمئن نباشند که آیا الگوریتم مقصر است یا واقعاً چیزی را از دست داده اند.

و در مورد هوش مصنوعی مستقل – یعنی تصمیم گیری بدون نظارت – اعتماد و قابلیت تفسیر کاملاً اساسی است. این فناوری را به درستی دریافت کنید، و می تواند در مراقبت های بهداشتی متحول کننده باشد، به عنوان مثال، تشخیص حجم عظیمی از بیماران با سرعت برای کاهش لیست های انتظار. اشتباه کنید و نه تنها ایمنی بیمار به خطر می افتد، بلکه پزشکان زمان بیشتری را برای بررسی بیش از حد و اصلاح اشتباهات تلف می کنند.

شاید این مقاله را هم دوست داشته باشید :  9 روش برتر برای رفع مشکل خارج شدن از Discord

در توسعه هوش مصنوعی به شفافیت و همکاری بیشتری نیاز است

خوشبختانه، NHS خطرات ناشی از هوش مصنوعی جعبه سیاه را تشخیص داده است و دستورالعمل های پذیرش فناوری آن به طور فزاینده ای الزام مدل های هوش مصنوعی را برای تفسیرپذیر بودن بیان می کند. بر این اساس، بعید به نظر می رسد که هوش مصنوعی مولد مانند ChatGPT که به شدت مورد بحث قرار گرفته است، به زودی در سیستم مراقبت های بهداشتی بریتانیا بکار گرفته شود. هر هوش مصنوعی مانند این که میلیاردها ورودی داشته باشد، طبق تعریف، به راحتی قابل تفسیر نیست.

به همین ترتیب، FDA نیز در مورد هوش مصنوعی جعبه سیاه سخت‌گیرانه‌تر می‌شود و قبل از اعطای تأیید، سؤالات بیشتری درباره فناوری‌های بسیار پیچیده می‌پرسد.

برخی ممکن است استدلال کنند که این دور شدن از فناوری‌های جعبه سیاه، پتانسیل هوش مصنوعی را خفه می‌کند. من آن را به‌عنوان یک معاوضه ضروری برای افزایش ایمنی بیمار می‌دانم، که مسئولیت ایجاد راه‌حل‌های قوی‌تر، شفاف‌تر و قابل اعتماد را بر عهده توسعه‌دهندگان هوش مصنوعی می‌گذارد.

محدود کردن استفاده از هوش مصنوعی جعبه سیاه، ارائه دهندگان راه حل را مجبور می کند تا در طول فرآیند توسعه هوش مصنوعی با صنعت تعامل بهتری داشته باشند. پزشکان باید به توسعه‌دهندگان کمک کنند تا درک کنند که «قابل توضیح» در عمل به چه معناست – به عبارت دیگر، چه جنبه‌هایی از فرآیند تصمیم‌گیری راه‌حل هوش مصنوعی را باید ببینند/درک کنند؟

الگوریتم‌های هوش مصنوعی نوید قابل‌توجهی را در تشخیص نشان می‌دهند، و اگرچه نباید آنها را جایگزینی برای تصمیم‌گیری انسانی در مراقبت‌های بهداشتی بدانیم، بسیاری از آنها در حال حاضر در سراسر NHS به صورت آزمایشی برای تشخیص خودکار الگوهای بیماری، بازگرداندن زمان بیشتر به پزشکان و بهبود کیفیت مراقبت از بیمار استفاده می‌شوند.

با این حال، شفافیت یک پیش نیاز برای پذیرش انبوه در چنین صنعت به شدت تنظیم شده است. و راه‌حل‌های هوش مصنوعی به متخصصان مراقبت‌های بهداشتی برای کمک به توسعه الگوریتم‌ها نیاز دارند – تا زمانی که این اتفاق نیفتد، پزشکان به سادگی به آنها اعتماد نخواهند کرد.

امتیاز بدهید

لینک کوتاه مقاله : https://5ia.ir/BkPQLv
کوتاه کننده لینک
کد QR :
اشتراک گذاری
سروناز مقدم پور

سروناز مقدم پور

سروناز مقدم پور هستم کارشناس مهندسی کامپیوتر و مدیر وبسایت نود و هشت زوم. چندین سال است که در حوزه وب فعالیت می کنم و تخصص های اصلیم طراحی سایت و سئو است بعد از یادگیری علاقه زیادی به آموزش دادن دارم

شاید این مطالب را هم دوست داشته باشید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *