تستخدم Google الذكاء الاصطناعي للإجابة على أسئلتك الصحية. هل يجب أن تثق به؟

هل تعاني من الصداع أم أنه التهاب في الجيوب الأنفية؟ كيف يبدو الكسر الإجهادي؟ هل يجب أن تقلق بشأن الألم في صدرك؟ إذا بحثت عن هذه الأسئلة الآن على جوجل، فقد تكون الإجابات مكتوبة بواسطة الذكاء الاصطناعي.

طرحت جوجل هذا الشهر ميزة جديدة تسمى AI Overviews التي تستخدم الذكاء الاصطناعي التوليدي، وهو نوع من تكنولوجيا التعلم الآلي التي يتم تدريبها على المعلومات من عبر الإنترنت وتنتج إجابات تحادثية لبعض أسئلة البحث في غضون ثوانٍ.

في الأسابيع التي تلت إطلاق الأداة، واجه المستخدمون مجموعة واسعة من المعلومات غير الدقيقة والإجابات الغريبة حول مجموعة من المواضيع. ولكن عندما يتعلق الأمر بكيفية الإجابة على الأسئلة الصحية، قال الخبراء إن المخاطر مرتفعة بشكل خاص. يمكن لهذه التكنولوجيا أن توجه الناس نحو عادات صحية أو الرعاية الطبية اللازمة، ولكنها أيضًا لديها القدرة على تقديم معلومات غير دقيقة. يمكن للذكاء الاصطناعي في بعض الأحيان اختلاق الحقائق. وإذا تم تشكيل إجاباتها من خلال مواقع الويب التي لا ترتكز على أسس علمية، فقد تقدم نصائح تتعارض مع الإرشادات الطبية أو تشكل خطراً على صحة الشخص.

لقد ثبت بالفعل أن النظام ينتج إجابات سيئة يبدو أنها تعتمد على مصادر معيبة. عندما سُئل “كم عدد الصخور التي يجب أن أتناولها”، على سبيل المثال، طلبت AI ​​Overviews من بعض المستخدمين تناول صخرة واحدة على الأقل يوميًا للحصول على الفيتامينات والمعادن. (تم أخذ النصيحة من موقع The Onion الساخر).

قال الدكتور كارانديب سينغ، كبير مسؤولي الذكاء الاصطناعي الصحي في جامعة كاليفورنيا في سان دييغو هيلث: “لا يمكنك أن تثق في كل ما تقرأه”. وقال إنه في مجال الصحة، فإن مصدر معلوماتك ضروري.

قالت هيما بوداراجو، مديرة إدارة المنتجات في جوجل والتي تساعد في قيادة العمل في نظرة عامة على الذكاء الاصطناعي، إن عمليات البحث الصحية بها “حواجز حماية إضافية”، لكنها رفضت وصفها بالتفصيل. وقالت إن عمليات البحث التي تعتبر خطيرة أو صريحة، أو التي تشير إلى أن شخصًا ما في موقف ضعيف، مثل إيذاء النفس، لا تؤدي إلى ملخصات الذكاء الاصطناعي.

ورفضت جوجل تقديم قائمة مفصلة بمواقع الويب التي تدعم المعلومات الموجودة في AI Overviews، لكنها قالت إن الأداة تعمل جنبًا إلى جنب مع Google Knowledge Graph، وهو نظام معلومات موجود استخرج مليارات الحقائق من مئات المصادر.

تحدد استجابات البحث الجديدة بعض المصادر؛ بالنسبة للأسئلة الصحية، غالبًا ما تكون هذه مواقع ويب مثل Mayo Clinic وWebMD ومنظمة الصحة العالمية ومركز البحث العلمي PubMed. ولكنها ليست قائمة شاملة: يمكن للأداة أيضًا السحب من ويكيبيديا ومنشورات المدونات وReddit ومواقع التجارة الإلكترونية. ولا يخبر المستخدمين عن الحقائق التي جاءت من أي مصادر.

باستخدام نتيجة بحث قياسية، سيتمكن العديد من المستخدمين من التمييز فورًا بين موقع ويب طبي حسن السمعة وشركة حلوى. لكن كتلة نصية واحدة تجمع معلومات من مصادر متعددة قد تسبب ارتباكًا.

قالت الدكتورة سيما ياسمين، مديرة مبادرة الاتصالات الصحية في جامعة ستانفورد: “هذا إذا كان الناس ينظرون إلى المصدر”، مضيفة: “لا أعرف ما إذا كان الناس ينظرون، أو ما إذا كنا قد علمناهم حقًا بشكل كافٍ”. للنظر.” وقالت إن بحثها الخاص حول المعلومات الخاطئة جعلها متشائمة بشأن اهتمام المستخدم العادي بالنظر إلى ما هو أبعد من الإجابة السريعة.

أما عن دقة إجابة الشوكولاتة، فقال الدكتور داريوش مظفريان، طبيب القلب وأستاذ الطب بجامعة تافتس، إنها تحتوي على بعض الحقائق في الغالب صحيحة، وأنها تلخص الأبحاث حول فوائد الشوكولاتة الصحية. لكنه قال إنه لا يميز بين الأدلة القوية المقدمة من التجارب العشوائية والأدلة الأضعف من الدراسات الرصدية، أو يقدم أي محاذير بشأن الأدلة.

وقال الدكتور مظفريان: صحيح أن الشوكولاتة تحتوي على مضادات الأكسدة. لكن الادعاء بأن استهلاك الشوكولاتة يمكن أن يساعد في منع فقدان الذاكرة؟ وقال إن ذلك لم يتم إثباته بشكل واضح، و”يحتاج إلى الكثير من التحذيرات”. إن إدراج مثل هذه الادعاءات بجانب بعضها البعض يعطي الانطباع بأن بعضها مثبت بشكل أفضل مما هو عليه بالفعل.

يمكن أن تتغير الإجابات أيضًا مع تطور الذكاء الاصطناعي نفسه، حتى لو لم يتغير العلم وراء إجابة معينة.

وقال متحدث باسم جوجل في بيان إن الشركة عملت على إظهار إخلاء المسؤولية بشأن الردود عند الحاجة إليها، بما في ذلك الملاحظات التي تفيد بأن المعلومات لا ينبغي التعامل معها على أنها نصيحة طبية.

ليس من الواضح كيف تقوم ميزة AI Overviews بالضبط بتقييم قوة الأدلة، أو ما إذا كانت تأخذ في الاعتبار نتائج الأبحاث المتناقضة، مثل تلك المتعلقة بما إذا كانت القهوة مفيدة لك. قالت الدكتورة ياسمين: “العلم ليس مجموعة من الحقائق الثابتة”. وتساءلت هي وخبراء آخرون أيضًا عما إذا كانت الأداة ستعتمد على النتائج العلمية القديمة التي تم دحضها منذ ذلك الحين، أو أنها لا تلتقط الفهم الأحدث لقضية ما.

قالت الدكتورة دانييل بيترمان، الطبيبة والعالمة في مجال الذكاء الاصطناعي في معهد دانا فاربر للسرطان وبريغهام: «إن القدرة على اتخاذ قرار حاسم – للتمييز بين جودة المصادر – هو ما يفعله البشر طوال الوقت، وهو ما يفعله الأطباء. ومستشفى النساء. “إنهم يقومون بتحليل الأدلة.”

وقالت إنه إذا أردنا أن تلعب أدوات مثل AI Overviews هذا الدور، “فنحن بحاجة إلى فهم أفضل لكيفية التنقل عبر المصادر المختلفة وكيفية تطبيق عدسة نقدية للوصول إلى ملخص”.

قال الخبراء إن هذه الأمور المجهولة مثيرة للقلق، نظرًا لأن النظام الجديد يرفع استجابة نظرة عامة على الذكاء الاصطناعي مقارنة بالروابط الفردية لمواقع الويب الطبية ذات السمعة الطيبة مثل تلك الخاصة بـ Mayo Clinic و Cleveland Clinic. وقد ارتفعت مثل هذه المواقع تاريخيًا إلى أعلى نتائج العديد من عمليات البحث الصحية.

وقال متحدث باسم جوجل إن AI Overviews ستطابق أو تلخص المعلومات التي تظهر في أهم نتائج البحث، ولكنها ليست مصممة لتحل محل هذا المحتوى. وبدلاً من ذلك، قال المتحدث الرسمي، إنها مصممة لمساعدة الأشخاص في التعرف على المعلومات المتاحة.

ورفضت Mayo Clinic التعليق على الردود الجديدة. قال ممثل من كليفلاند كلينك إن الأشخاص الذين يبحثون عن معلومات صحية يجب عليهم “البحث مباشرة في المصادر المعروفة والموثوقة” والتواصل مع مقدم الرعاية الصحية إذا كانوا يعانون من أي أعراض.

قال ممثل من Scripps Health، وهو نظام رعاية صحية مقره كاليفورنيا تم الاستشهاد به في بعض ملخصات نظرة عامة على الذكاء الاصطناعي، في بيان له إن “الاستشهادات في الاستجابات الناتجة عن الذكاء الاصطناعي من Google يمكن أن تكون مفيدة لأنها تجعل Scripps Health مصدرًا موثوقًا للمعلومات الصحية”.

ومع ذلك، أضاف الممثل: “لدينا مخاوف من أننا لا نستطيع ضمان المحتوى الذي يتم إنتاجه من خلال الذكاء الاصطناعي بنفس الطريقة التي يمكننا بها المحتوى الخاص بنا، والذي يتم فحصه من قبل المتخصصين الطبيين لدينا”.

وقال الخبراء إنه بالنسبة للأسئلة الطبية، فإن دقة الإجابة ليست فقط ما يهم، ولكن كيفية تقديمها للمستخدمين. خذ السؤال “هل أعاني من نوبة قلبية؟” وقال الدكتور ريتشارد جومينا، مدير طب القلب والأوعية الدموية في مركز ويكسنر الطبي بجامعة ولاية أوهايو، إن استجابة الذكاء الاصطناعي كانت تحتوي على ملخص مفيد للأعراض.

لكنه أضاف أنه كان عليه أن يقرأ قائمة طويلة من الأعراض قبل أن تنصحه الرسالة النصية بالاتصال برقم 911. كما بحث الدكتور جومينا أيضًا عن “هل أعاني من سكتة دماغية؟” لمعرفة ما إذا كانت الأداة قد تنتج استجابة أكثر إلحاحًا – وهو ما فعلته، حيث طلبت من المستخدمين في السطر الأول الاتصال برقم 911. وقال إنه سينصح على الفور المرضى الذين يعانون من أعراض نوبة قلبية أو سكتة دماغية بطلب المساعدة.

وشجع الخبراء الأشخاص الذين يبحثون عن معلومات صحية على التعامل مع الاستجابات الجديدة بحذر. قالوا بشكل أساسي، إنه يجب على المستخدمين ملاحظة التفاصيل الدقيقة تحت بعض إجابات AI Overviews: “هذا لأغراض إعلامية فقط. للحصول على المشورة الطبية أو التشخيص، استشر أحد المتخصصين. الذكاء الاصطناعي التوليدي هو أمر تجريبي.

داني بلوم ساهمت في التقارير.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *