مع قوائم الانتظار الطويلة والتكاليف المتزايدة في أنظمة الرعاية الصحية المثقلة بالأعباء ، يلجأ الكثير من الناس إلى chatbots التي تعمل بالنيابة مثل ChatGPT للتشخيص الذاتي الطبي. حوالي واحد من كل ستة أشخاص بالغين يستخدمون بالفعل chatbots للحصول على المشورة الصحية على الأقل شهريًا ، وفقًا لمسح حديث واحد.
لكن وضع الكثير من الثقة في مخرجات chatbots يمكن أن يكون محفوفًا بالمخاطر ، ويرجع ذلك جزئيًا إلى أن الناس يكافحون لمعرفة المعلومات التي يجب تقديمها لدردشة للحصول على أفضل التوصيات الصحية الممكنة ، وفقًا لدراسة بقيادة تقودها أكسفورد.
وقال آدم مهدي ، مدير الدراسات العليا في معهد أكسفورد للإنترنت ومؤلف مشارك للدراسة ، لـ TechCrunch: “كشفت الدراسة عن انهيار اتصال ثنائي الاتجاه”. “أولئك الذين يستخدمون [chatbots] لم يتخذ قرارات أفضل من المشاركين الذين اعتمدوا على الأساليب التقليدية مثل عمليات البحث عبر الإنترنت أو حكمهم. “
للدراسة ، جند المؤلفون حوالي 1300 شخص في المملكة المتحدة ومنحهم سيناريوهات طبية كتبها مجموعة من الأطباء. تم تكليف المشاركين بتحديد الظروف الصحية المحتملة في السيناريوهات واستخدام مجموعات الدردشة ، وكذلك أساليبهم الخاصة ، لمعرفة مسارات العمل المحتملة (على سبيل المثال ، رؤية طبيب أو الذهاب إلى المستشفى).
استخدم المشاركون طراز AI الافتراضي الذي يعمل على تشغيل ChatGpt و GPT-4O ، بالإضافة إلى Comme’s Command R+ و Meta’s Llama 3 ، والذي كان يدعمه مساعداً من AI Meta. وفقًا للمؤلفين ، لم تجعل Chatbots المشاركين أقل احتمالًا لتحديد حالة صحية ذات صلة ، ولكنها جعلتهم أيضًا أكثر عرضة للتقليل من شدة الظروف التي حددها.
قال مهدي إن المشاركين غالبًا ما حذفوا التفاصيل الرئيسية عند الاستعلام عن دردشة الدردشة أو تلقوا إجابات يصعب تفسيرها.
“[T]ردود التي تلقوها [from the chatbots] وأضاف: “توصيات جيدة وضعيفة في كثير من الأحيان ،” طرق التقييم الحالية ل [chatbots] لا تعكس تعقيد التفاعل مع المستخدمين البشريين. “
حدث TechCrunch
بيركلي ، كاليفورنيا
|
5 يونيو
كتاب الآن
تأتي النتائج في الوقت الذي تدفع فيه شركات التكنولوجيا منظمة العفو الدولية بشكل متزايد كوسيلة لتحسين النتائج الصحية. وبحسب ما ورد تقوم شركة Apple بتطوير أداة منظمة العفو الدولية التي يمكنها تقديم المشورة المتعلقة بالتمرينات والنظام الغذائي والنوم. تستكشف Amazon طريقة قائمة على الذكاء الاصطناعى لتحليل قواعد البيانات الطبية لـ “المحددات الاجتماعية للصحة”. وتساعد Microsoft في بناء رسائل منظمة العفو الدولية لمقدمي الرعاية المرسلة من المرضى.
ولكن كما ذكرت شركة TechCrunch سابقًا ، يتم خلط كل من المهنيين والمرضى فيما إذا كان الذكاء الاصطناعي جاهزًا للتطبيقات الصحية ذات المخاطر العالية. توصي الجمعية الطبية الأمريكية بعدم استخدام الأطباء لدردشة مثل ChatGPT للمساعدة في القرارات السريرية ، وشركات الذكاء الاصطناعى الكبرى ، بما في ذلك Openai ، تحذر من إجراء التشخيصات بناءً على مخرجات chatbots الخاصة بهم.
وقال مهدي: “نوصي بالاعتماد على مصادر معلومات موثوق بها لقرارات الرعاية الصحية”. “طرق التقييم الحالية ل [chatbots] لا تعكس تعقيد التفاعل مع المستخدمين البشريين. مثل التجارب السريرية للأدوية الجديدة ، [chatbot] يجب اختبار الأنظمة في العالم الحقيقي قبل نشرها. “
Source link
اكتشاف المزيد من مؤسسة اشراق العالم لتقنية المعلومات-خدمات مواقع ومتاجر الإنترنت
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.