Banx Media Platform logo
WORLDUSAInternational Organizations

عندما يلتقي الصمت بالاستعجال: إعادة التفكير في الذكاء الاصطناعي وحالات الطوارئ الطبية

وجدت دراسة في مجلة Nature Medicine أن ChatGPT Health لم يصنف أكثر من نصف حالات الطوارئ الطبية الحقيقية بشكل صحيح في اختبارات واقعية، مما يبرز القيود في نصائح الصحة المدعومة بالذكاء الاصطناعي.

F

Freya

INTERMEDIATE
5 min read

0 Views

Credibility Score: 91/100
عندما يلتقي الصمت بالاستعجال: إعادة التفكير في الذكاء الاصطناعي وحالات الطوارئ الطبية

في المساحة الهادئة بين الأعراض والرعاية، غالبًا ما يكون هناك لحظة من عدم اليقين — وقفة نسأل فيها، "هل هذا خطير؟" لقد اعتمد العديد منا على محرك بحث أو مساعد رقمي في تلك اللحظة، آملين في الحصول على وضوح في مواجهة الانزعاج أو الخوف. لقد تعمق اعتمادنا على التكنولوجيا لتوجيهنا خلال قرارات الحياة اليومية، ولا يوجد مكان يكون هذا أكثر صحة من الأمور الصحية، حيث يمكن أن تشعر كل كلمة وكأنها بوصلة تشير نحو الأمان أو المخاطر.

دراسة مستقلة حديثة نُشرت في مجلة Nature Medicine — وتم تسليط الضوء عليها من قبل العديد من وسائل الإعلام الكبرى — فحصت مدى قدرة ChatGPT Health على التعامل مع هذه اللحظات الحساسة من الحكم. قاد الباحثون، الذين كانوا من الأطباء في مدرسة إيكان للطب في جبل سيناء، تقييم النظام الذكي باستخدام سيناريوهات سريرية واقعية مصممة لمحاكاة مجموعة من القضايا الطبية التي قد يقدمها الأشخاص عند طلب النصيحة. ما وجدوه يلقي ضوءًا عاكسًا على وعود وقيود الذكاء الاصطناعي في مجال تكون فيه المخاطر عالية والدقة مهمة.

استخدمت الدراسة 60 سيناريو مكتوبًا من قبل الأطباء تغطي 21 تخصصًا طبيًا، من الانزعاج الطفيف إلى حالات الطوارئ الحقيقية. كان كل حالة أيضًا متنوعة في السياق، محاكاة خلفيات وعوامل اجتماعية مختلفة، مما أسفر عن مئات من التفاعلات الإجمالية. عندما تمت مقارنة توصيات الذكاء الاصطناعي مع قرارات الأطباء ذوي الخبرة باستخدام إرشادات سريرية معتمدة، كشفت النتائج أن ChatGPT Health "لم يصنف" أكثر من نصف حالات الطوارئ الحقيقية — الحالات التي اتفق فيها الأطباء على أن الرعاية الفورية في بيئة المستشفى كانت ضرورية. في هذه الحالات، نصح الروبوت المستخدمين بالبقاء في المنزل أو طلب الرعاية الروتينية بدلاً من الانتباه العاجل.

حدث هذا التصنيف غير الصحيح حتى في السيناريوهات التي تتضمن حالات خطيرة مثل الفشل التنفسي الوشيك أو الحماض الكيتوني السكري. في أحد الأمثلة، تعرف النظام على علامات التحذير المبكرة في شرحه الخاص ومع ذلك اقترح الانتظار بدلاً من التقييم العاجل. في الوقت نفسه، كان الذكاء الاصطناعي غير متسق في دفع المستخدمين نحو المساعدة في الأزمات لحالات الطوارئ النفسية، مثل الأفكار الانتحارية — بعد آخر من أمان المرضى الذي يعد بالغ الأهمية.

في لحظات الطوارئ الواضحة ذات الأعراض التي لا لبس فيها، مثل السكتة الدماغية وردود الفعل التحسسية الشديدة، وجدت الدراسة أن النظام أدى بشكل جيد، متماشيًا مع التوقعات السريرية. لكن الاختبار الحقيقي للحكم غالبًا ما يكمن في العروض الدقيقة أو المتطورة — النفس الذي يزداد سوءًا على مدى ساعات، الدوخة التي تبدو غير ضارة — حيث تكون الخبرة السريرية والحدس مهمين. وقد أشار الباحثون إلى أن الذكاء الاصطناعي عانى بشكل أكبر في هذه المناطق الرمادية.

ومع ذلك، فإن المحادثة حول الذكاء الاصطناعي في الرعاية الصحية ليست ثابتة. استجابت OpenAI بالتأكيد على أن ChatGPT Health مصمم للاستخدام التكراري، مما يشجع على طرح أسئلة متابعة وأن الدراسة قد لا تعكس أنماط الاستخدام النموذجية. كما أكدت الشركة على التحديثات المستمرة لتحسين الأداء. في الوقت نفسه، يدعو الأطباء والخبراء إلى معايير تقييم صارمة وشفافة، واختبارات مستمرة، وضمانات واضحة عند استخدام أدوات الذكاء الاصطناعي في سياقات تتعلق بقرارات الصحة.

لا تستنتج هذه الدراسة أن الذكاء الاصطناعي ليس له مكان في توجيه الصحة. بدلاً من ذلك، تدعو إلى التأمل: في وعود الابتكار، في الفجوات التي لا تزال قائمة بين الحكم البشري والمنطق الخوارزمي، وفي كيفية بناء ذكاء اصطناعي لا يوفر المعلومات فحسب، بل يفعل ذلك بموثوقية تناسب القرارات المؤثرة على الحياة. في المساحة بين التجربة البشرية والتفكير الاصطناعي، تعتبر مثل هذه الرؤى حيوية مثل الإجابات نفسها.

تنبيه صورة الذكاء الاصطناعي "الصور تم إنشاؤها باستخدام أدوات الذكاء الاصطناعي وليست صورًا حقيقية."

#ChatGPT
Decentralized Media

Powered by the XRP Ledger & BXE Token

This article is part of the XRP Ledger decentralized media ecosystem. Become an author, publish original content, and earn rewards through the BXE token.

Share this story

Help others stay informed about crypto news