الذكاء الاصطناعي التوليدي قادم من أجل الرعاية الصحية، ولكن ليس الجميع سعداء بذلك

الذكاء الاصطناعي التوليدي، والذي يمكن إنشاء وتحليل الصور والنصوص والصوت والفيديو وأكثر من ذلك، وهو يشق طريقه بشكل متزايد إلى الرعاية الصحية، مدفوعة بكل من شركات التكنولوجيا الكبرى والشركات الناشئة على حد سواء.

يتعاون Google Cloud، قسم الخدمات والمنتجات السحابية في Google، مع Highmark Health، وهي شركة رعاية صحية غير ربحية مقرها بيتسبرغ، على أدوات الذكاء الاصطناعي التوليدية المصممة لتخصيص تجربة تناول المرضى. يقول قسم AWS في أمازون إنه يعمل مع عملاء لم يذكر أسماءهم على طريقة لاستخدام الذكاء الاصطناعي التوليدي للتحليل قواعد البيانات الطبية لـ “المحددات الاجتماعية للصحة”. وتساعد Microsoft Azure في بناء نظام ذكاء اصطناعي مولد لـ Providence، شبكة الرعاية الصحية غير الهادفة للربح، لفرز الرسائل المرسلة من المرضى تلقائيًا إلى مقدمي الرعاية.

تشمل شركات الذكاء الاصطناعي الناشئة البارزة في مجال الرعاية الصحية شركة Ambience Healthcare، التي تعمل على تطوير تطبيق ذكاء اصطناعي توليدي للأطباء؛ نابلة، مساعد الذكاء الاصطناعي المحيطي للممارسين؛ وAbridge، التي تنشئ أدوات تحليلية للتوثيق الطبي.

ينعكس الحماس الواسع للذكاء الاصطناعي التوليدي في الاستثمارات في جهود الذكاء الاصطناعي التوليدي التي تستهدف الرعاية الصحية. بشكل جماعي، جمع الذكاء الاصطناعي التوليدي في الشركات الناشئة في مجال الرعاية الصحية عشرات الملايين من الدولارات من رأس المال الاستثماري حتى الآن، وتقول الغالبية العظمى من المستثمرين في مجال الصحة إن الذكاء الاصطناعي التوليدي أثر بشكل كبير على استراتيجياتهم الاستثمارية.

لكن كلا من المتخصصين والمرضى مختلطون بشأن ما إذا كان الذكاء الاصطناعي التوليدي الذي يركز على الرعاية الصحية جاهزًا لوقت الذروة.

قد لا يكون الذكاء الاصطناعي التوليدي هو ما يريده الناس

في استطلاع أجرته شركة ديلويت مؤخرًا، قال حوالي النصف (53٪) فقط من المستهلكين الأمريكيين إنهم يعتقدون أن الذكاء الاصطناعي التوليدي يمكن أن يحسن الرعاية الصحية – على سبيل المثال، من خلال جعلها أكثر سهولة أو تقليل أوقات انتظار المواعيد. وقال أقل من النصف إنهم يتوقعون أن يجعل الذكاء الاصطناعي الإنتاجي الرعاية الطبية ميسورة التكلفة.

ولا يعتقد أندرو بوركوسكي، كبير مسؤولي الذكاء الاصطناعي في شبكة فيرجينيا صن شاين للرعاية الصحية، وهي أكبر نظام صحي تابع لوزارة شؤون المحاربين القدامى في الولايات المتحدة، أن هذا التشاؤم غير مبرر. وحذر بوركوفسكي من أن نشر الذكاء الاصطناعي التوليدي قد يكون سابق لأوانه بسبب قيوده “الكبيرة” – والمخاوف بشأن فعاليته.

وقال لـ TechCrunch: “إحدى المشكلات الرئيسية المتعلقة بالذكاء الاصطناعي التوليدي هي عدم قدرته على التعامل مع الاستفسارات الطبية المعقدة أو حالات الطوارئ”. “إن قاعدتها المعرفية المحدودة – أي غياب المعلومات السريرية الحديثة – والافتقار إلى الخبرة البشرية تجعلها غير مناسبة لتقديم مشورة طبية شاملة أو توصيات علاجية.”

تشير العديد من الدراسات إلى وجود مصداقية لهذه النقاط.

في بحث نُشر في مجلة JAMA Pediatrics، تبين أن روبوت الدردشة المولد بالذكاء الاصطناعي التابع لشركة OpenAI، ChatGPT، والذي قامت بعض منظمات الرعاية الصحية بتجربته لحالات استخدام محدودة، يرتكب أخطاء في تشخيص أمراض الأطفال بنسبة 83٪ من الوقت. وفي اختبار GPT-4 الخاص بشركة OpenAI كمساعد تشخيصي، لاحظ الأطباء في مركز Beth Israel Deaconess الطبي في بوسطن أن النموذج صنف التشخيص الخاطئ كإجابة أولى مرتين تقريبًا من أصل ثلاثة.

يعاني الذكاء الاصطناعي التوليدي اليوم أيضًا من المهام الإدارية الطبية التي تعد جزءًا لا يتجزأ من سير العمل اليومي للأطباء. في معيار MedAlign لتقييم مدى قدرة الذكاء الاصطناعي على أداء أشياء مثل تلخيص السجلات الصحية للمرضى والبحث عبر الملاحظات، فشل GPT-4 في 35% من الحالات.

يحذر OpenAI والعديد من بائعي الذكاء الاصطناعي التوليدي الآخرين من الاعتماد على نماذجهم للحصول على المشورة الطبية. لكن بوركوفسكي وآخرين يقولون إن بإمكانهم فعل المزيد. وقال بوركوفسكي: “الاعتماد فقط على الذكاء الاصطناعي التوليدي في الرعاية الصحية يمكن أن يؤدي إلى تشخيصات خاطئة أو علاجات غير مناسبة أو حتى مواقف تهدد الحياة”.

ويشارك جان إيجر، الذي يقود العلاجات الموجهة بالذكاء الاصطناعي في معهد الذكاء الاصطناعي في الطب بجامعة دويسبورج إيسن، والذي يدرس تطبيقات التكنولوجيا الناشئة لرعاية المرضى، مخاوف بوركوفسكي. وهو يعتقد أن الطريقة الآمنة الوحيدة لاستخدام الذكاء الاصطناعي التوليدي في الرعاية الصحية حاليًا هي تحت المراقبة الدقيقة والمراقبة للطبيب.

وقال إيجر: “قد تكون النتائج خاطئة تمامًا، ويصبح الحفاظ على الوعي بهذا الأمر أكثر صعوبة”. “بالتأكيد، يمكن استخدام الذكاء الاصطناعي التوليدي، على سبيل المثال، في الكتابة المسبقة لخطابات التسريح. لكن الأطباء يتحملون مسؤولية التحقق من الأمر واتخاذ القرار النهائي.

يمكن للذكاء الاصطناعي التوليدي أن يديم الصور النمطية

إحدى الطرق الضارة بشكل خاص التي يمكن للذكاء الاصطناعي التوليدي في مجال الرعاية الصحية أن يخطئ بها هي إدامة الصور النمطية.

في دراسة أجريت عام 2023 في جامعة ستانفورد للطب، اختبر فريق من الباحثين ChatGPT وغيره من روبوتات الدردشة المولدة بالذكاء الاصطناعي حول أسئلة حول وظائف الكلى وسعة الرئة وسمك الجلد. وجد المؤلفون المشاركون أن إجابات ChatGPT لم تكن خاطئة في كثير من الأحيان فحسب، بل تضمنت الإجابات أيضًا العديد من المعتقدات غير الصحيحة الراسخة منذ فترة طويلة بأن هناك اختلافات بيولوجية بين الأشخاص السود والبيض – وهي أكاذيب من المعروف أنها دفعت مقدمي الخدمات الطبية إلى التشخيص الخاطئ للمشكلات الصحية.

المفارقة هي أن المرضى الذين من المرجح أن يتعرضوا للتمييز من قبل الذكاء الاصطناعي التوليدي في مجال الرعاية الصحية هم أيضًا أولئك الذين من المرجح أن يستخدموه.

أظهر استطلاع ديلويت أن الأشخاص الذين يفتقرون إلى تغطية الرعاية الصحية – الأشخاص الملونون، بشكل عام، وفقًا لدراسة أجرتها مؤسسة KFF – أكثر استعدادًا لتجربة الذكاء الاصطناعي التوليدي لأشياء مثل العثور على طبيب أو دعم للصحة العقلية. إذا شابت توصيات الذكاء الاصطناعي التحيز، فقد يؤدي ذلك إلى تفاقم عدم المساواة في العلاج.

ومع ذلك، يرى بعض الخبراء أن الذكاء الاصطناعي التوليدي يتحسن في هذا الصدد.

وفي دراسة أجرتها مايكروسوفت ونشرت في أواخر عام 2023، قال الباحثون إنهم حققوا دقة بنسبة 90.2% في أربعة معايير طبية صعبة باستخدام GPT-4. لم تتمكن Vanilla GPT-4 من الوصول إلى هذه النتيجة. لكن، كما يقول الباحثون، من خلال الهندسة السريعة – تصميم موجهات لـ GPT-4 لإنتاج مخرجات معينة – تمكنوا من تعزيز نتيجة النموذج بما يصل إلى 16.2 نقطة مئوية. (من الجدير بالذكر أن مايكروسوفت هي مستثمر رئيسي في OpenAI.)

ما وراء روبوتات الدردشة

لكن طرح سؤال على برنامج الدردشة الآلي ليس هو الشيء الوحيد الذي يفيد فيه الذكاء الاصطناعي التوليدي. يقول بعض الباحثين أن التصوير الطبي يمكن أن يستفيد بشكل كبير من قوة الذكاء الاصطناعي التوليدي.

وفي يوليو/تموز، كشفت مجموعة من العلماء عن نظام يسمى cالتأجيل القائم على التكاملية لسير العمل السريري (CoDoC)، في دراسة نشرت في مجلة Nature. تم تصميم النظام لمعرفة متى يجب على متخصصي التصوير الطبي الاعتماد على الذكاء الاصطناعي في التشخيص مقابل التقنيات التقليدية. كان أداء CoDoC أفضل من المتخصصين مع تقليل سير العمل السريري بنسبة 66%، وفقًا للمؤلفين المشاركين.

وفي نوفمبر أ فريق البحث الصيني التجريبي الباندا، نموذج الذكاء الاصطناعي المستخدم للكشف عن آفات البنكرياس المحتملة في الأشعة السينية. وأظهرت إحدى الدراسات أن الباندا دقيق للغاية في تصنيف هذه الآفات، والتي غالبًا ما يتم اكتشافها بعد فوات الأوان للتدخل الجراحي.

في الواقع، قال آرون ثيرونافوكاراسو، زميل الأبحاث السريرية في جامعة أكسفورد، إنه “لا يوجد شيء فريد” في الذكاء الاصطناعي التوليدي الذي يحول دون نشره في أماكن الرعاية الصحية.

“إن المزيد من التطبيقات الدنيوية لتكنولوجيا الذكاء الاصطناعي التوليدي ممكنة في على المدى القصير والمتوسط، وتشمل تصحيح النص والتوثيق التلقائي للملاحظات والخطابات وتحسين ميزات البحث لتحسين سجلات المرضى الإلكترونية. “لا يوجد سبب يمنع نشر تكنولوجيا الذكاء الاصطناعي التوليدي – إذا كانت فعالة – في هذه الأنواع من الأدوار على الفور.

“علم صارم”

ولكن في حين أن الذكاء الاصطناعي التوليدي يُظهر نتائج واعدة في مجالات محددة وضيقة من الطب، يشير الخبراء مثل بوركوفسكي إلى العوائق التقنية والامتثالية التي يجب التغلب عليها قبل أن يصبح الذكاء الاصطناعي التوليدي مفيدًا – وموثوقًا به – كأداة رعاية صحية مساعدة شاملة.

وقال بوركوفسكي: “تحيط مخاوف كبيرة تتعلق بالخصوصية والأمن باستخدام الذكاء الاصطناعي التوليدي في الرعاية الصحية”. “إن الطبيعة الحساسة للبيانات الطبية واحتمال إساءة استخدامها أو الوصول إليها بشكل غير مصرح به تشكل مخاطر شديدة على سرية المريض وثقته في نظام الرعاية الصحية. علاوة على ذلك، لا يزال المشهد التنظيمي والقانوني المحيط باستخدام الذكاء الاصطناعي التوليدي في الرعاية الصحية يتطور، ولا تزال الأسئلة المتعلقة بالمسؤولية وحماية البيانات وممارسة الطب من قبل كيانات غير بشرية بحاجة إلى حل.

حتى ثيرونافوكاراسو، المتفائل فيما يتعلق بالذكاء الاصطناعي التوليدي في الرعاية الصحية، يقول إنه يجب أن يكون هناك “علم صارم” وراء الأدوات التي تواجه المريض.

وقال: “لا سيما بدون إشراف طبي مباشر، يجب أن تكون هناك تجارب مراقبة عشوائية عملية تظهر فائدة سريرية لتبرير نشر الذكاء الاصطناعي التوليدي الذي يواجه المريض”. “إن المضي قدمًا بالحوكمة السليمة أمر ضروري للتغلب على أي أضرار غير متوقعة بعد النشر على نطاق واسع.”

أصدرت منظمة الصحة العالمية مؤخرًا مبادئ توجيهية تدعو إلى هذا النوع من العلوم والرقابة البشرية على الذكاء الاصطناعي التوليدي في الرعاية الصحية بالإضافة إلى إدخال التدقيق والشفافية وتقييمات التأثير على هذا الذكاء الاصطناعي من قبل أطراف ثالثة مستقلة. الهدف، الذي تحدده منظمة الصحة العالمية في مبادئها التوجيهية، هو تشجيع المشاركة من مجموعة متنوعة من الناس في تطوير الذكاء الاصطناعي التوليدي للرعاية الصحية وفرصة للتعبير عن المخاوف وتقديم المدخلات طوال العملية.

وقال بوركوفسكي: “إلى أن يتم معالجة المخاوف بشكل مناسب ووضع الضمانات المناسبة، فإن التنفيذ الواسع النطاق للذكاء الاصطناعي الطبي قد يكون … ضارًا للمرضى وصناعة الرعاية الصحية ككل”.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *