کارشناسان هشدار دادهاند که استفاده از هوش مصنوعی در مراقبتهای بهداشتی میتواند هنگام تعیین مسئولیت و اثبات قصور پزشکی، یک بازی پیچیده قانونی را برای مقصریابی ایجاد کند.
به نقل از گاردین، توسعه هوش مصنوعی برای استفاده بالینی رونق گرفته است و فناوریهای بسیاری برای این هدف ارائه میشوند؛ از الگوریتمهایی برای کمک به تفسیر اسکنها گرفته تا سیستمهایی که میتوانند به تشخیص بیماری کمک کنند. همچنین، هوش مصنوعی برای کمک به مدیریت بیمارستانها از بررسی ظرفیت تختها گرفته تا مقابله با زنجیرههای تأمین، در حال توسعه است.
اگرچه کارشناسان میگویند هوش مصنوعی میتواند مزایای بیشماری را برای مراقبتهای بهداشتی به همراه داشته باشد اما نگرانیهایی نیز وجود دارد؛ از عدم آزمایش اثربخشی فناوریهای هوش مصنوعی گرفته تا ایجاد پرسشهایی درباره این که در صورت بروز نتیجه منفی برای بیمار، چه کسی مسئول خواهد بود. پروفسور «درک آنگوس»(Derek Angus) پژوهشگر «دانشگاه پیتسبرگ»(University of Pittsburgh) گفت: قطعاً مواردی وجود خواهد داشت که در آنها مشکلی پیش بیاید و مردم به دنبال مقصر بگردند.
«اجلاس جاما»(JAMA Summit) درباره هوش مصنوعی که سال گذشته توسط «مجله انجمن پزشکی آمریکا»(Journal of the American Medical Association) برگزار شد، مجموعهای را متشکل از متخصصان از جمله پزشکان، شرکتهای فناوری، نهادهای نظارتی، بیمهگران، اخلاقگرایان، وکلا و اقتصاددانان گرد هم آورد.
گزارش حاصل که آنگوس پژوهشگر ارشد آن است، نه تنها به ماهیت فناوریهای هوش مصنوعی و حوزه مراقبتهای بهداشتی مورد استفاده در آنها میپردازد، بلکه چالشهای ایجادشده توسط آنها از جمله نگرانیهای قانونی را نیز بررسی میکند.
پروفسور «گلن کوهن»(Glenn Cohen) پژوهشگر «دانشکده حقوق هاروارد»(Harvard law school) و از پژوهشگران این پروژه گفت: بیماران ممکن است در اثبات نقص در استفاده یا طراحی یک محصول هوش مصنوعی با مشکلاتی روبهرو شوند. ممکن است موانعی برای کسب اطلاعات درباره عملکرد داخلی آن پیش بیاید؛ در حالی که ارائه یک طرح جایگزین معقول برای محصول یا اثبات این که نتیجه ضعیف ناشی از سیستم هوش مصنوعی بوده است نیز میتواند چالشبرانگیز باشد.
کوهن ادامه داد: تعامل بین طرفین نیز ممکن است چالشهایی را برای طرح دعوی ایجاد کند. آنها ممکن است یکدیگر را به عنوان طرف مقصر معرفی کنند یا توافقی را درباره تخصیص مجدد مسئولیت به صورت قراردادی داشته باشند یا دعاوی جبران خسارت داشته باشند.
پروفسور «میشل ملو»(Michelle Mello) پژوهشگر «دانشکده حقوق استنفورد»(Stanford law school) و از پژوهشگران این پروژه گفت: دادگاهها برای حل مسائل حقوقی به خوبی مجهز هستند. مشکل این است که این کار زمان میبرد و در روزهای اولیه با ناهماهنگیهایی همراه خواهد بود و این عدم قطعیت، هزینهها را برای همه در اکوسیستم نوآوری و پذیرش هوش مصنوعی افزایش خواهد داد.
این گزارش نگرانیهایی را نیز درباره نحوه ارزیابی فناوریهای هوش مصنوعی مطرح کرده و خاطرنشان ساخته است که بسیاری از آنها خارج از نظارت نهادهای نظارتی مانند «سازمان غذا و داروی آمریکا»(FDA) هستند.
آنگوس گفت: اثربخشی برای پزشکان معمولاً به معنای بهبود نتایج سلامت است اما هیچ تضمینی وجود ندارد که مرجع نظارتی بتواند این موضوع را اثبات کند. فناوریهای هوش مصنوعی پس از عرضه ممکن است به روشهای غیر قابل پیشبینی بسیاری در محیطهای بالینی گوناگون با انواع متفاوتی از بیماران و توسط کاربرانی با سطوح متفاوت مهارت به کار گرفته شوند. تضمین بسیار کمی وجود دارد که آنچه در مرحله پیشتایید ایده خوبی به نظر میرسد، در واقع همان چیزی باشد که در عمل به دست میآورید.
این گزارش بیان میکند که در حال حاضر موانع بسیاری برای ارزیابی فناوریهای هوش مصنوعی وجود دارد؛ از جمله این که اغلب برای ارزیابی کامل باید در مراکز درمانی مورد استفاده قرار بگیرند. این در حالی است که روشهای کنونی ارزیابی، گران و دستوپاگیر هستند.
آنگوس گفت: مهم است که بودجهای برای ارزیابی درست عملکرد فناوریهای هوش مصنوعی در حوزه مراقبتهای بهداشتی در نظر گرفته شود و سرمایهگذاری در زیرساختهای دیجیتال، یک حوزه کلیدی باشد. یکی از مواردی که در طول اجلاس جما مطرح شد، این بود که فناوریهای ارزیابیشده به بهترین شکل، کمترین میزان پذیرش را داشتهاند. فناوریهایی که بیشترین پذیرش را دارند، کمترین میزان ارزیابی را داشتهاند.
هشدار!
در گفتوگوی فراز با دو نماینده مجلس بررسی شد:
روی پنهان قانون تشدید مجازات جاسوسی