آیا هوش مصنوعی می تواند دارو تجویز کند؟

آیا هوش مصنوعی می تواند دارو تجویز کند؟ به گزارش سئو سی، خطاهای هوش مصنوعی ممکنست غیر قابل جبران باشند، این مشکل جهت استفاده از هوش مصنوعی در عرصه پزشکی و مراقبت های بهداشتی شدیدتر خواهد بود و سلامتی انسان ها را به خطر خواهد انداخت.


به گزارش سئو سی به نقل از ایسنا، موفقیت هوش مصنوعی در دهه گذشته به ایجاد اشتیاق بی حدوحصر و ادعاهای جسورانه انجامیده است؛ بااینکه کاربران به صورت منظم اشتباهاتی را که هوش مصنوعی مرتکب می شود، تجربه می کنند. یک دستیار دیجیتال مجهز به هوش مصنوعی می تواند گفتار یک شخص را به شیوه های شرم آوری اشتباه بفهمد، یک چت بات می تواند درباره ی حقایق توهم داشته باشد یا یک سیستم مسیریابی مبتنی بر هوش مصنوعی ممکنست رانندگان را در یک مزرعه ذرت بصورت اشتباه راهنمایی کند. همه این موارد ممکنست بدون خطا هم انجام شوند.
به نقل از کانورسیشن، مردم این خطاها را تحمل می کنند برای اینکه هوش مصنوعی وظایف خاصی را کارآمدتر می کند. طرفداران به صورت درحال افزایشی از به کار بردن هوش مصنوعی -گاهی اوقات با نظارت محدود انسانی- در زمینه هایی مانند مراقبت های بهداشتی که خطاها هزینه بالایی دارند، حمایت می کنند. به عنوان مثال، لایحه ای که در اوایل سال ۲۰۲۵ در مجلس نمایندگان آمریکا ارایه شد، به سیستم های هوش مصنوعی اجازه می دهد تا داروها را بصورت خودکار تجویز کنند. از آن زمان، محققان حوزه بهداشت و همینطور قانون گذاران درباره ی اینکه آیا چنین تجویزی امکانپذیر یا سفارش می شود، بحث کرده اند.
هنوز معلوم نیست که اگر این قانون یا قانون مشابه تصویب شود، چنین تجویزی دقیقاً چه طور عمل خواهدنمود اما این قانون، میزان خطاهایی را که توسعه دهندگان هوش مصنوعی می توانند اجازه ارتکاب آنها را به فناوری های خود بدهند، می افزاید و اگر این فناوری ها به بروز نتایج منفی -حتی مرگ بیمار- منجر شوند، عواقبی خواهد داشت.
به صورت ویژه برای هوش مصنوعی، خطاها ممکنست نتیجه اجتناب ناپذیر نحوه عملکرد سیستم ها باشند. پژوهش های لابراتوار «کارلوس گرشنسون»(Carlos Gershenson) استاد نوآوری «دانشگاه بینگهمتون»(Binghamton University) نشان می دهند که خاصیت های خاص داده های مورد استفاده، در آموزش مدلهای هوش مصنوعی نقش دارند. صرف نظر از اینکه محققان چقدر زمان، تلاش و بودجه را صرف بهبود مدلهای هوش مصنوعی می کنند، بعید است که این وضعیت تغییر کند.

هیچ کس، هیچ چیز و حتی هوش مصنوعی بی نقص نیست

زمانی «آلن تورینگ»(Alan Turing) پدر علم کامپیوتر اظهار داشت: «اگر انتظار می رود یک ماشین معصوم باشد، نمی تواند هوشمند هم باشد.» دلیلش اینست که یادگیری، بخش اساسی هوش است و مردم به طور معمول از اشتباهات درس می گیرند.
گرشنسون اظهار داشت: من و همکارانم در پژوهشی که در ژوئیه ۲۰۲۵ انتشار یافت، نشان دادیم که سازمان دهی کامل مجموعه داده های خاص در گروههای واضح ممکنست نا ممکن باشد. به بیانی دیگر، ممکنست حداقل میزان خطایی وجود داشته باشد که یک مجموعه داده مشخص را ایجاد می کند؛ صرفا بدین سبب که عناصر خیلی از گروه ها با یکدیگر هم پوشانی دارند. برای بعضی از مجموعه داده ها که زیربنای اصلی خیلی از سیستم های هوش مصنوعی هستند، هوش مصنوعی بهتر از شانس عمل نخواهد کرد.
خاصیت های خاص داده های مورد استفاده، در آموزش مدلهای هوش مصنوعی نقش دارند. صرف نظر از اینکه محققان چقدر زمان، تلاش و بودجه را صرف بهبود مدلهای هوش مصنوعی می کنند، بعید است که این وضعیت تغییر کند. به عنوان نمونه، مدلی که بر طبق مجموعه داده های به دست آمده از میلیونها سگ آموزش دیده است و فقط سن، وزن و قد آنها را ثبت می کند، احتمالا می تواند نژاد «چی واوا» را از «گریت دین « با دقت کامل تشخیص دهد اما ممکنست در تشخیص یک «مالاموت آلاسکایی» و یک «دوبرمن» اشتباه کند برای اینکه نژادهای متفاوت ممکنست در محدوده یکسانی از سن، وزن و قد قرار بگیرند.
گرشنسون افزود: این دسته بندی، طبقه بندی پذیری نامیده می شود و من و دانشجویانم مطالعه آنرا از سال ۲۰۲۱ آغاز کردیم. ما با بهره گیری از داده های بیشتر از نیم میلیون دانشجو که مابین سالهای ۲۰۰۸ تا ۲۰۲۰ در «دانشگاه مستقل ملی مکزیک»(UNAM) تحصیل کرده بودند، می خواستیم یک مساله به ظاهر ساده را حل نماییم. ما می خواستیم بدانیم آیا می توانیم از یک الگوریتم هوش مصنوعی برای پیش بینی اینکه کدام دانشجویان مدرک دانشگاهی خویش را بموقع -یعنی ظرف سه، چهار یا پنج سال از آغاز تحصیل بسته به رشته ی تحصیلی- به انتها می رسانند، استفاده نماییم.
وی ادامه داد: ما چندین الگوریتم محبوب را که برای طبقه بندی در هوش مصنوعی استفاده می شوند، آزمایش کردیم و الگوریتم خودمان را هم توسعه دادیم. هیچ الگوریتمی کامل نبود. بهترین آنها -حتی الگوریتمی که ما به صورت ویژه برای این کار توسعه دادیم- به میزان دقت حدود ۸۰ درصد دست یافتند؛ به این مفهوم که حداقل از هر پنج دانش آموز یک نفر به اشتباه طبقه بندی شده بود. ما متوجه شدیم که خیلی از دانش آموزان از نظر نمره، سن، جنسیت، وضعیت اجتماعی-اقتصادی و سایر خاصیت ها یکسان هستند. تحت این شرایط، هیچ الگوریتمی قادر به ارایه پیش بینی های کامل نخواهد بود.
گرشنسون اظهار داشت: ممکنست فکر کنید که داده های بیشتر، پیش بینی پذیری را بهبود می بخشد اما این به طور معمول با بازدهی نزولی هم راه است. این بدان معناست که به عنوان مثال، برای هر یک درصد افزایش دقت ممکنست به ۱۰۰ برابر داده ها نیاز داشته باشید. بنابراین، ما هیچگاه دانش آموز کافی را برای بهبود قابل توجه عملکرد مدل خود نخواهیم داشت.
خطاهایی که توسط فناوری های هوش مصنوعی ایجاد می شوند، اساساً طبقه بندی های نادرستی هستند که ازطریق یک الگوریتم محاسباتی انجام می گیرند. درک چگونگی تبدیل این موارد به تاثیر بالینی بر بیماران اغلب ناقص است؛ به این مفهوم که گزارش واقعی درباره ی ایمنی فناوری هوش مصنوعی ناقص است. علاوه بر این، خیلی از تغییرات غیر قابل پیش بینی در زندگی دانشجویان و خانواده هایشان -بیکاری، مرگ، بارداری- ممکنست بعد از سال اول دانشگاه رخ دهند که احتمالا بر اتمام بموقع تحصیلات تاثیر می گذارد. ازاین رو حتی با وجود تعداد نامحدودی از دانشجویان، پیش بینی های ما همچنان خطا خواهند داشت.
به نقل از وب سایت رسمی موسسه ملی سلامت آمریکا، تعداد درحال افزایشی از فناوری های مبتی بر هوش مصنوعی درحال حرکت بسمت بخش بالینی در سراسر حوزه پزشکی هستند. معرفی چنین فناوری هایی، مزایای گوناگونی را برای تخصص های تشخیصی بهمراه خواهد داشت که همچون آنها میتوان به افزایش دقت و کارآیی تشخیص اشاره نمود. با این حال، از آنجائیکه هیچ فناوری هوش مصنوعی مصون از خطا نیست، استفاده از آنها به صورت ناگزیر خطاهای جدیدی را به وجود خواهد آورد.
خطاهایی که توسط فناوری های هوش مصنوعی ایجاد می شوند، اساساً طبقه بندی های نادرستی هستند که ازطریق یک الگوریتم محاسباتی انجام می گیرند. درک چگونگی تبدیل این موارد به تاثیر بالینی بر بیماران اغلب ناقص است؛ به این مفهوم که گزارش واقعی درباره ی ایمنی فناوری هوش مصنوعی ناقص است.
بهتر است که خطاهای ناشی از فناوری های هوش مصنوعی از دیدگاه پاتولوژیک و بالینی ارزیابی و گزارش شوند، نحوه انجام شدن کار در مطالعات در ارتباط با خطاهای پاتولوژیست انسانی نشان داده شود و در صورت امکان، نمونه هایی از پاتولوژی و رادیولوژی ارایه شود.

محدودیت های پیش بینی

بطور کلی تر، آن چه پیش بینی را محدود می کند، پیچیدگی است. اجزایی که یک سیستم پیچیده را می سازند، درهم تنیده هستند و این تعاملات بین آنهاست که تعیین می کند چه اتفاقی برای آنها رخ خواهد داد و چه طور رفتار خواهند کرد. بنابراین، مطالعه عناصر سیستم بصورت جداگانه احتمالا اطلاعات گمراه کننده ای را درباره ی آنها و همینطور درباره ی کل سیستم به دست می دهد.
به عنوان نمونه، خودرویی را درنظر بگیرید که در یک شهر درحال حرکت است. با دانستن سرعت رانندگی آن میتوان از نظر نظریه پیش بینی نمود که در یک زمان خاص به کجا خواهد رسید اما در ترافیک حقیقی، سرعت آن به تعامل با سایر وسایل نقلیه در جاده بستگی دارد. از آنجائیکه جزییات این تعامل در لحظه ظاهر می شوند و نمی توان از قبل آنها را دانست، پیش بینی دقیق آن چه برای خودرو رخ می دهد، تنها چند دقیقه بعد امکانپذیر است.
آن چه پیش بینی را محدود می کند، پیچیدگی است. اجزایی که یک سیستم پیچیده را می سازند، درهم تنیده هستند و این تعاملات بین آنهاست که تعیین می کند چه اتفاقی برای آنها رخ خواهد داد و چه طور رفتار خواهند کرد. همین اصول درباره ی تجویز داروها هم صدق می کند. شرایط و بیماری های مختلف می توانند علایم یکسانی داشته باشند و افراد دچار بیماری یکسان ممکنست علایم متفاوتی را نشان دهند. به عنوان مثال، تب می تواند ناشی از بیماری تنفسی یا گوارشی باشد و سرماخوردگی ممکنست سبب سرفه شود اما همیشه این طور نیست. این بدان معناست که مجموعه داده های مراقبت های بهداشتی همپوشانی های قابل توجهی دارند که مانع از آن می شود تا هوش مصنوعی بدون خطا باشد.
بطور قطع انسان ها هم اشتباه می کنند اما وقتی هوش مصنوعی بیماری یک بیمار را اشتباه تشخیص می دهد که مطمئناً این اتفاق خواهد افتاد، وضعیت در یک برزخ قانونی قرار می گیرد. معین نیست که در صورت صدمه دیدن بیمار، چه کسی یا چه چیزی مسئول خواهد بود. شرکتهای داروسازی؟ توسعه دهندگان نرم افزار؟ آژانس های بیمه؟ داروخانه ها؟
در خیلی از زمینه ها، نه انسان ها و نه ماشین ها بهترین گزینه برای یک کار مشخص نیستند. «هوش هیبریدی» یعنی تلفیقی از انسان ها و ماشین ها به طور معمول بهتر از هر کدام به تنهایی عمل می کنند. یک پزشک مطمئناً می تواند از هوش مصنوعی برای تصمیم گیری درباره ی داروهای احتمالی برای بیماران گوناگون، بسته به سابقه پزشکی، جزییات فیزیولوژیکی و ساختار ژنتیکی آنها استفاده نماید. محققان هم اکنون درحال بررسی این رویکرد در پزشکی دقیق هستند.
عقل سلیم و اصل احتیاط می گوید که هنوز برای تجویز دارو توسط هوش مصنوعی بدون نظارت انسان خیلی زود است و این حقیقت که ممکنست خطاهایی در این فناوری رخ دهد، می تواند به این مفهوم باشد که وقتی سلامت انسان در خطر است، نظارت انسانی همیشه ضروری خواهد بود.



1404/09/24
10:19:52
5.0 / 5
152
تگهای خبر: آموزش , تجربه , تخصص , توسعه
این مطلب سئوسی را می پسندید؟
(1)
(0)
تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب
نظر شما در مورد این مطلب
نام:
ایمیل:
نظر:
سوال:
= ۸ بعلاوه ۳
SEOc
seoc.ir - حقوق مادی و معنوی سایت سئو سی محفوظ است

سئو سی

فناوری اطلاعات و سئو - سئوسی: دروازه ای به دنیای فناوری اطلاعات و بهینه سازی سایت