بغداد- العراق اليوم: أظهرت دراسة جديدة أن أنظمة الذكاء الاصطناعي تميل لتصديق النصائح الطبية الخاطئة أكثر عندما تأتي من مصادر رسمية.
وأجرى الباحثون تحليلًا على 20 نموذجًا لغويًا كبيرًا، شمل ملاحظات خروج طبية حقيقية احتوت على توصيات ملفقة، وخرافات صحية شائعة على منصة Reddit، إضافة إلى 300 سيناريو سريري كتبها أطباء.
وبيّنت النتائج أن الذكاء الاصطناعي تعامل مع المعلومات المضللة كحقائق في حوالي 32% من الحالات، لكن النسبة ارتفعت إلى 47% عند صياغتها في مذكرات رسمية من مقدمي الرعاية الصحية.
وأوضح الدكتور إيال كلانج من كلية إيكان للطب في جبل سيناء أن المشكلة ليست في صحة المعلومات بقدر ما تكمن في أسلوب تقديمها: "النماذج تميل إلى قبول اللغة الطبية الواثقة على أنها صحيحة، حتى لو كانت مغلوطة".
كما أظهرت الدراسة أن نبرة السؤال وطريقة الصياغة تؤثر بشكل كبير على استجابة الذكاء الاصطناعي، فالنماذج كانت أكثر انصياعًا للمعلومات الخاطئة عندما صيغت بصياغة رسمية وموحية بالخبرة، مثل الإشارة إلى أن السائل طبيب أو خبير صحي.
وأكد الدكتور جيريش نادكارني، كبير مسؤولي الذكاء الاصطناعي في نظام ماونت سيناي الصحي، أن النماذج مثل GPT من OpenAI أظهرت قدرة أفضل على كشف المعلومات المضللة مقارنة بأنظمة أخرى، التي سجلت معدل خطأ وصل إلى 63.6%.
وأشار الباحثون إلى أن الاعتماد على هذه الأنظمة في الرعاية الصحية يتطلب تطوير ضوابط دقيقة للتحقق من صحة المعلومات قبل عرضها للمرضى والأطباء، محذرين من الخلط بين الصياغة الرسمية وموثوقية المحتوى.
كما لفتت دراسة منشورة في Nature Medicine إلى أن الاعتماد على الذكاء الاصطناعي للاستفسار عن الأعراض لم يتجاوز فعالية البحث التقليدي عبر الإنترنت في مساعدة المرضى على اتخاذ قرارات صحية سليمة.
*
اضافة التعليق
وداعاً لقاعدة الـ8 ساعات.. كشف المعايير الحقيقية للنوم الصحي
تسجيل أول حالة إدمان على الذكاء الاصطناعي في إيطاليا!
كوكب "برائحة غريبة" يذهل العلماء.. ما سبب تسميته الطريفة؟
ما الذي يحدث للقهوة بعد إعادة تسخينها؟
لماذا يكره الأذكياء والعباقرة الضجيج؟ إليك التفسير العلمي
باحثون صينيون يطوّرون بطارية مائية قد تعمل 300 عام