Image
5 Takeaways from a Discussion on How Generative AI Can Support QI
رؤى

5 نقاط مستفادة من مناقشة حول الذكاء الاصطناعي التوليدي والتحسين النوعي

لماذا هذا مهم؟

"في نهاية المطاف، من المرجح أن يصبح الذكاء الاصطناعي مستخدمًا على نطاق واسع في مجال الرعاية الصحية. وهناك العديد من الآثار المترتبة على ذلك والتي يجب مراعاتها. ويمكن أن يبدأ الاستعداد الآن".

في الآونة الأخيرة، حضر أكثر من 300 مشارك ندوة عبر الإنترنت لمدة ساعة نظمها Institute for Healthcare Improvement (IHI) حول استخدام الذكاء الاصطناعي التوليدي لتحسين الجودة. وبينما أجبنا على الأسئلة، فقد اتبعنا في الغالب نهج "الجميع يعلمون، الجميع يتعلمون" في مناقشتنا لكيفية تطبيق أدوات الذكاء الاصطناعي التوليدي في سياق تحسين الجودة وتعلمنا ما يثير حماس المشاركين ويقلقهم بشأن القائمة الحالية من الأدوات المتاحة.

وقد سلطت محادثتنا الضوء على الحاجة إلى التعليم المستمر وتطوير السياسات والتفكير المدروس في التأثيرات الأخلاقية والخاصة بالخصوصية والبيئة مع تزايد تكامل الذكاء الاصطناعي في ممارسة الرعاية الصحية.

فيما يلي، نلخص ما استخلصناه من الجلسة.

  • لم يتم استخدام الذكاء الاصطناعي التوليدي على نطاق واسع حتى الآن، ولكن هناك إقبال عليه .   أجرينا استطلاعًا للرأي بين الحضور ووجدنا أن أغلبهم (65%) لا يستخدمون الذكاء الاصطناعي في العمل الجيد. أما أولئك الذين يستخدمون الذكاء الاصطناعي فيستخدمونه في العصف الذهني للتغييرات (25%)، وتحليل المشكلات (16%)، وبناء الحلول مثل العمل القياسي (16%). وكان العديد من الحضور نشطين في الدردشة وشاركوا في أنواع حالات الاستخدام التالية:

    إدارة البيانات - تضمنت الحالات الموصوفة استخدام الذكاء الاصطناعي لمعالجة البيانات وتلخيصها لتبسيط المهام المعقدة أو التي تستغرق وقتًا طويلاً.

    التخطيط السريري — أظهر مشروع تجريبي يستخدم الذكاء الاصطناعي التوليدي للتخطيط في الرعاية الأولية إمكاناته في أتمتة التوثيق.

    الكتابة والأبحاث الطبية — لاحظ المشاركون أن قضايا الدقة الموثقة على نطاق واسع تتطلب الحذر. ولا ينبغي لأي شخص يستخدم الذكاء الاصطناعي لدعم البحث أن يستخدم أو يستشهد بالمعلومات التي يولدها الذكاء الاصطناعي دون التحقق من المصادر.

    الترجمة - شارك المشاركون بتجارب متباينة في استخدام الذكاء الاصطناعي لترجمة المعلومات بين اللغات، مشيرين إلى فائدته ولكن أيضًا إلى الحاجة إلى المراجعة الدقيقة من قبل شخص لديه خبرة في اللغات ذات الاهتمام، وخاصة عندما يتعلق الأمر بالمصطلحات التقنية.

    إنشاء المحتوى - استخدم المشاركون الذكاء الاصطناعي التوليدي للمساعدة في إعداد العروض التقديمية والمناقشات الجماعية وتطوير المقترحات وبالتالي توضيح كيف يمكن للذكاء الاصطناعي أن يؤدي وظيفة إبداعية وأن يكون شريكًا فعالًا للعصف الذهني.

    التكهن والتحليلات التنبؤية - هذه الحالة الاستخدامية ذات صلة بالذكاء الاصطناعي بشكل أوسع (بدلاً من الذكاء الاصطناعي التوليدي على وجه التحديد)، وكان أحد المشاركين على الأقل يستخدم الذكاء الاصطناعي بالفعل في مشروع للتنبؤ بالإنتان.
  • إن القيود والمخاطر التي تفرضها أدوات الذكاء الاصطناعي الحالية تحد من الرغبة في استخدامها . وقد سلط المشاركون الضوء على تحديات جسيمة، مثل ضمان دقة المحتوى الذي ينتجه الذكاء الاصطناعي (على سبيل المثال، تحديد الهلوسة والتحقق من المراجع نظرًا لميل الذكاء الاصطناعي إلى توليد مراجع واقعية ولكنها خيالية)، وتعزيز الشفافية فيما يتعلق بحدود الذكاء الاصطناعي، ومعالجة التحيز.

    أثار المشاركون قضية المعلومات القديمة. على سبيل المثال، لا تتضمن النسخة المجانية من ChatGPT (GPT-3.5) سوى البيانات المتاحة حتى يناير 2022. أحد الحلول المحتملة للتعامل مع مشكلة المعلومات القديمة التي قد توفرها أدوات الذكاء الاصطناعي هو طلب مراجع يمكن التحقق منها لتقييم المخرجات.

    إن الشفافية والثقة أمران حيويان للاستخدام المستمر لأدوات الذكاء الاصطناعي. فإذا لم يثق العاملون في مجال الرعاية الصحية في النتائج، فلن يستخدموا الأدوات. وقد يساعد الفهم الأفضل للخوارزميات وكيفية توليد استجاباتها في معالجة مخاوف المستخدمين. وسأل أحد المشاركين عن شركات الذكاء الاصطناعي التي تعترف باحتمالية عدم دقة النتائج. والجدير بالذكر أن OpenAI أضافت إخلاء مسؤولية إلى واجهة ChatGPT يشير إلى احتمال عدم الدقة.

    كما أعرب المشاركون عن قلقهم إزاء التحيز في خوارزميات الذكاء الاصطناعي التي تؤدي إلى اتخاذ قرارات سريرية لا تتوافق مع أفضل ممارسات الرعاية القائمة على الأدلة. وقد تكون هذه الإجراءات ضارة وغير عادلة. وتبني بعض الشركات احتياطات مثل التعلم المعزز مع ردود الفعل البشرية في أدواتها، ولكن يجب أن يدرك المستخدمون أنها ليست مضمونة.
  • أدى التبني المتزايد للذكاء الاصطناعي التوليدي إلى مجموعة من المخاوف . أعرب أحد المشاركين عن قلقه بشأن اعتماد المستخدمين بشكل مفرط على منصات الذكاء الاصطناعي. ناقش ثلاثة مساهمين الآثار المترتبة على الخصوصية، بما في ذلك التعامل مع البيانات الحساسة والامتثال للوائح مثل HIPAA في الولايات المتحدة. (ومن الجدير بالذكر أنه في وقت كتابة هذا التقرير، لا تتوافق أدوات الذكاء الاصطناعي التجارية مع HIPAA ، لذلك لا ينبغي إدخال أي معلومات صحية محمية عند استخدامها.) شبه أحد المشاركين البصمة البيئية للذكاء الاصطناعي بتأثير تعدين البيتكوين . قضية الوصول   وقد طرح هذا السؤال عندما ناقشنا ما إذا كانت الأدوات المناسبة للمبتدئين من شأنها أن تساهم في إضفاء الطابع الديمقراطي على تحسين الجودة من خلال جعل الأدوات والموارد متاحة على نطاق أوسع، أم أنها من شأنها أن تؤدي إلى تفاقم الفجوات بين الإعدادات ذات الموارد العالية والمنخفضة.
  • هناك مجال للتفاؤل إلى جانب المخاوف العميقة الجذور . وقد غطت حالات الاستخدام والسياسات الأخرى موضوع دمج الذكاء الاصطناعي في أنظمة الرعاية الصحية (على سبيل المثال، أنظمة فرز الذكاء الاصطناعي). وقد ظهرت إمكانية الإنتاج المشترك المدعوم بالذكاء الاصطناعي مع المجتمعات المحرومة وأثارت إمكانية تعزيز أفضل ممارسات تحسين الجودة والتصميم المشترك العادل كنقطة مقابلة لمناقشة التحيز الخوارزمي.
  • في نهاية المطاف، من المرجح أن يصبح الذكاء الاصطناعي مستخدمًا على نطاق واسع في الرعاية الصحية. وهناك العديد من الآثار المترتبة على ذلك والتي يجب مراعاتها. ويمكن البدء في الاستعداد الآن. ونظرًا للانتشار السريع للذكاء الاصطناعي في مجتمع تحسين الجودة، أثار المساهمون الحاجة إلى تدريب الطلاب والمهنيين على استخدام الذكاء الاصطناعي بشكل فعال وآمن. ناقشنا مجموعة من القضايا التي يجب مراعاتها الآن وفي المستقبل القريب للتعامل بشكل مسؤول مع الذكاء الاصطناعي.

    ينبغي على المنظمات الكبيرة التي تمتلك كميات كبيرة من الملكية الفكرية والتي تريد توظيف الذكاء الاصطناعي التوليدي أن تبدأ الآن (إن لم تكن قد فعلت ذلك بالفعل) في إنشاء سياسات تتعلق بالاستخدام التنظيمي المسؤول ومخاطر التضحية بمعلوماتها الخاصة عند إرسالها إلى المجال العام.

    هل سيعتبر عدم استخدام الذكاء الاصطناعي في الرعاية الصحية إهمالاً في يوم من الأيام؟ بالنظر إلى تأثيره المتزايد وإمكاناته في إنتاج تنبؤات وتشخيصات عالية الدقة، فإن هذا احتمال آخر يستحق الدراسة.

مصادر لمعرفة المزيد

نظرًا للوتيرة السريعة للتغيير والوفرة من المعلومات الجديدة التي تأتي عبر الإنترنت يوميًا تقريبًا، فمن المفيد معرفة كيفية مواكبة تطور الذكاء الاصطناعي. وقد طرحت المناقشة ثلاث ملفات بودكاست للنظر فيها: Everyday AI و The AI ​​Breakdown و Perspectives . بالإضافة إلى ذلك، نصح الميسرون المشاركين بالبحث في الدورات التدريبية المفتوحة المجانية الضخمة عبر الإنترنت (MOOCs) التي تدرس مهارات مثل الهندسة السريعة وتوفر معلومات أساسية لغير علماء الكمبيوتر حول كيفية عمل هذه الأدوات الجديدة.

الدكتور جاريث إس. كانتور هو مستشار سريري في Insight Actuaries & Consultants. مارينا رينتون، ماجستير في الفلسفة، هي باحثة مشاركة في IHI ، قسم الابتكار والتصميم. جيفري راكوفير، ماجستير في السياسة العامة، هو مدير IHI ، قسم الابتكار والتصميم. بيير إم. باركر، دكتور في الطب، بكالوريوس في الطب والجراحة، هو كبير مسؤولي العلوم في Institute for Healthcare Improvement.

قد تكون مهتمًا أيضًا بـ:

لا يزال بإمكانك التسجيل للاستماع إلى تسجيل ندوة الذكاء الاصطناعي لتحسين الجودة .

الكلمة الرئيسية في IHI Forum 2023 - بيتر لي، دكتوراه، نائب رئيس قسم الأبحاث والحاضنات في Microsoft

الجيل الحالي من أدوات الذكاء الاصطناعي: ثلاثة اعتبارات لقادة الجودة

الذكاء الاصطناعي في الرعاية الصحية: بيتر لي يتحدث عن التعاطف والتمكين والمساواة

الذكاء الاصطناعي وخصوصية البيانات وكيفية الحفاظ على سلامة المرضى عبر الإنترنت

Share