دمج أخلاقيات الطب في تطبيقات الذكاء الاصطناعي في مجال الصحة

زيمثل دمج oogle مؤخرًا لـ Gemini، نموذج اللغة الكبير المتطور الخاص بها، في محرك البحث الخاص بها خطوة مهمة في الاستجابات المعتمدة على الذكاء الاصطناعي للاستفسارات الصحية الرقمية. في جميع أنحاء العالم، يبحث المستخدمون في Google باستخدام الاستعلامات الصحية 70000 مرة في الدقيقة، لذلك فهو يتمتع بسنوات من الخبرة في توصيل المعلومات الصحية وإطار عمل قوي لإنتاج استجابات عالية الجودة ومن مصادر موثوقة للمستخدمين.

إلا عندما لا يحدث ذلك.

باعتبارنا طبيبًا (RSH) ومتواصلًا في مجال الصحة العامة (AB-G.) يعملان معًا على إيجاد حلول تكنولوجية لتحسين التواصل الصحي الرقمي، فإننا ندرك أهمية المنتجات الرقمية مثل Google التي تقدم معلومات صحية دقيقة. كما نقول في بحثنا الجديد في مجلة الاتصالات الصحية، نعتقد أن أدوات الذكاء الاصطناعي التوليدية تتمتع بالقدرة على ذلك محتمل أن تكون مصادر موثوقة وموثوقة للمعلومات الصحية. لكنهم لم يصلوا بعد إلى هذه القمة.

برج الجوزاء، على سبيل المثال، يمكن أن ينتج معلومات غير دقيقة وربما ضارة تتعلق بالصحة. وسرعان ما انتقل المستخدمون إلى وسائل التواصل الاجتماعي لمناقشة بعض النتائج الأكثر غرابة، مثل “إضافة غراء إلمر إلى صلصة البيتزا لمنع الجبن من الانزلاق” و”يوصي الجيولوجيون بتناول صخرة صغيرة واحدة على الأقل كل يوم”.

ليست كل المعلومات الخاطئة واضحة وروح الدعابة. ومن النتائج الأخرى المشتركة على نطاق واسع من الجوزاء “يوصي الأطباء بتدخين 2-3 سجائر يوميًا أثناء الحمل”.

إن الابتكار في مجال الذكاء الاصطناعي يتقدم بوتيرة سريعة للغاية. وتتمتع نماذج اللغة الكبيرة الأساسية وغيرها من تقنيات الذكاء الاصطناعي التوليدي بالقدرة على توسيع نطاق الحلول لمعالجة مشاكل الوصول إلى الرعاية الصحية، والمعلومات الطبية المضللة، والإرهاق بين الأطباء وغيرهم من العاملين في مجال الرعاية الصحية والصحة العامة، من بين أمور أخرى.

وبما أن منتجات الذكاء الاصطناعي يتم تنفيذها من قبل المطورين التجاريين الكبار والصغار على حد سواء، إلا أنها تتمتع أيضًا بالقدرة على تفاقم مشكلة المعلومات الطبية الخاطئة والتسبب في ضرر حقيقي للأفراد. في حين أن الأمثلة التي نستشهد بها تبدو وكأنها إجابات معزولة بين ملايين الأمثلة عالية الجودة، فإنها تؤكد أهمية النظر في التأثيرات الصحية على الأفراد من منتجات الذكاء الاصطناعي التي لم يتم تصميمها خصيصًا للمعلومات الصحية، حيث يمكن أن تكون الآثار المترتبة على ثقة المستخدم بهذه النصيحة بالغ.

عند تقديم المعلومات الصحية أو المشورة الطبية، يسترشد الأطباء والباحثون والمتصلون بالصحة العامة بأربعة مبادئ أساسية لأخلاقيات الطب – عدم الإيذاء، والإحسان، والاستقلالية، والعدالة – لإصدار أحكام سليمة أخلاقياً وحماية الأفراد من الأذى. ولا ينبغي أن تُعفى منتجات الذكاء الاصطناعي التي تهدف إلى إنتاج معلومات صحية أو مشورة طبية أو قد تنتجها، من اتباع هذه المبادئ الأخلاقية، التي ينبغي أن تنطبق على تطويرها ونشرها.

إن عدم الإيذاء، والمعروف أيضًا باسم “عدم الإضرار”، هو حجر الأساس في اتخاذ القرارات السريرية والبحثية. في الطب، يعد هذا تقديرًا معقدًا لمخاطر وفوائد التدخل، مما يذكر مقدمي الخدمة بعدم التقليل من قدرتهم على التسبب في الضرر حتى أثناء محاولتهم المساعدة. وعندما يؤخذ هذا المبدأ بشكل حرفي للغاية، فإنه يهدد بالركود، واحتمال خلق الضرر من خلال التقاعس عن التحرك. ويمكن رسم تشابه مع الطيف الحالي من فلسفة التطوير السريع للذكاء الاصطناعي، حيث تقع الإيثار الفعال والتسريع الفعال على كلا الطرفين.

بينما فوائد منتجات الذكاء الاصطناعي يمكن إذا كانت تفوق المخاطر، فإن تجنب الضرر المتعمد يجب أن يكون في صميم تطوير منتجات الذكاء الاصطناعي ونشرها، خاصة عند إنشاء محتوى صحي. من الناحية العملية، يمكن لمطوري التكنولوجيا اتباع هذا المبدأ الأخلاقي من خلال إعطاء الأولوية للسلامة من خلال جهود الفريق الأحمر، وضمان استخدام مصادر عالية الجودة وموثوقة وتصنيفها بدرجة عالية في بيانات التدريب، وإجراء دراسات بحثية حول تفاعلات المستخدم مع منتجاتهم. قبل يتم شحنه.

إن الإحسان، وهو مبدأ فعل الخير، يوازن بين عدم الإضرار ويدفع الابتكار والاستباقية واتخاذ القرارات الوقائية. ويجب أن يجسد تطوير الذكاء الاصطناعي للمنتجات التي ستنقل المعلومات الصحية هذا المبدأ وأن يضع مصالح المستخدم في مركز كل خطوة في عملية التطوير. ويمكن للنهج الوقائي لتطوير منتجات الذكاء الاصطناعي أن يستخدم الهندسة السريعة للكشف عن متى تكون الاستعلامات مرتبطة بالصحة وإعطاء الأولوية لاستخدام التوليد المعزز بالاسترجاع في تلك الحالات لتقليل فرصة عدم الدقة والهلوسة. ويشير التوليد المعزز بالاسترجاع (أو RAG) إلى قاعدة معرفية خارج بيانات تدريب نموذج اللغة الكبيرة قبل توليد استجابة لتحسين دقة الإخراج.

الاستقلالية في أخلاقيات الطب تعني أن للمرضى الحق في اتخاذ قراراتهم الخاصة فيما يتعلق بالرعاية الطبية الشخصية. تتمتع منتجات الذكاء الاصطناعي التي تعمل على توسيع نطاق نشر المعلومات الصحية الدقيقة بإمكانات هائلة لتحسين الاستقلالية الفردية في اتخاذ القرارات الصحية والطبية. ومع ذلك، فمن الضروري أن يدرك مطورو التكنولوجيا أن توسيع نطاق الاستقلالية يعني أنه يتعين عليهم تدريب منتجات الذكاء الاصطناعي الخاصة بهم لتوفير معلومات صحية متوازنة ودقيقة وغير متحيزة.

العدالة في أخلاقيات الطب تعني معاملة الجميع على قدم المساواة والإنصاف. عندما يتعلق الأمر بالتطوير الأخلاقي للذكاء الاصطناعي في مجال الصحة، فقد لا يكون هناك مجال أكثر احتياجًا من ضمان العدالة لجميع المستخدمين. يتأثر السكان المهمشون تاريخيًا بشكل غير متناسب بالمعلومات الصحية الكاذبة، ومن المرجح أن يتأثروا بالتحيز. وفي كل خطوة من خطوات عملية التنمية تكمن احتمالية ظهور تحيزات يمكن أن تؤدي إلى تفاقم أوجه عدم المساواة هذه وزيادة أوجه عدم المساواة النظامية. يمكن لمطوري الذكاء الاصطناعي منع التحيز والحد منه من خلال الحلول التكنولوجية، مثل تنظيم بيانات التدريب غير المتحيزة، والاستراتيجيات الهندسية السريعة مثل معالجة سلسلة الأفكار، واستراتيجيات ما بعد التدريب مثل إعادة الترتيب وتعديل وظائف الخسارة. ولكن هناك أيضًا حاجة إلى تضمين وجهات نظر مجتمعية متنوعة في تطوير التكنولوجيا المبكر من خلال البحث التشاركي لفهم أفضل لكيفية التمثيل العادل لتلك المجتمعات.

إن التقديم المبكر للمبادئ الأخلاقية الطبية والصحة العامة والبحثية التي تركز على المستخدم والتي تم تكييفها لتطوير منتجات الذكاء الاصطناعي يمكن أن يؤثر على النتائج الصحية بطرق إيجابية. لقد شهد المجتمع عواقب التقنيات السابقة التي لم تعطي الأولوية دائمًا لدقة المعلومات على المشاركة، وهناك فرصة الآن لمنع تكرار تلك الأخطاء السابقة على مستوى الصناعة.

يعد البحث عن تفاعلات المستخدم مع أدوات genAI وتأثيراتها على المواقف والمعتقدات والسلوكيات المتعلقة بالصحة أمرًا ضروريًا لتوجيه تطوير هذه الأطر الأخلاقية. في NORC بجامعة شيكاغو، يشرع فريقنا في جداول أعمال بحثية لاستكشاف هذه التفاعلات ويهدف إلى تقديم رؤى قيمة يمكن أن تركز على الترويج لعدم الإيذاء والإحسان والاستقلالية والعدالة في الاتصالات الصحية التي يولدها الذكاء الاصطناعي لجميع الناس.

ريبيكا سوسكين هيكس، طبيبة تعمل في مجال تقاطع الطب السريري والتكنولوجيا المبتكرة وزميلة في NORC بجامعة شيكاغو. أميليا بيرك جارسيا هي محاورة صحية ومديرة مركز علوم الاتصالات الصحية في NORC بجامعة شيكاغو.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *