لا تثق بروبوت الدردشة.. دراسة: الذكاء الاصطناعي ينشر معلومات طبية مضللة

2 قراءة دقيقة
لا تثق بروبوت الدردشة.. دراسة: الذكاء الاصطناعي ينشر معلومات طبية مضللة تعبيرية

"ثق بطبيبك، لا بروبوت الدردشة"، هذا هو استنتاج صارم لدراسة جديدة نُشرت في مجلة Annals of Internal Medicine، تكشف كيف يمكن إساءة استخدام الذكاء الاصطناعي لنشر معلومات صحية "مضللة" و"خطيرة".

 

فقد أجرى الباحثون تجارب على خمسة نماذج ذكاء اصطناعي رائدة، طورتها شركات (أنثروبيك، وغوغل، وميتا، وأوبن أي آي، وإكس كورب). وتُستخدم هذه الأنظمة على نطاق واسع، وتشكل الأساس للعديد من روبوتات الدردشة المنتشرة في المواقع والتطبيقات حول العالم.

 

وباستخدام أدوات مطورين غير متاحة عادة للجمهور، تمكن الباحثون من برمجة بعض هذه الأنظمة بسهولة لتقديم إجابات صحية خاطئ وقد تكون ضارة رداً على أسئلة المستخدمين. وكانت روبوتات الدردشة تقدم هذه الإجابات الخاطئة بأسلوب مقنع.

 

وقال ناتانش مودي، مؤلف الدراسة من جامعة جنوب إفريقيا، في بيان: "بلغت نسبة الإجابات الخاطئة 88% من إجمالي الردود".

 

وأضاف: "مع ذلك، قُدمت تلك المعلومات بلغة علمية، ونبرة رسمية، ومراجع مختلقة، مما جعلها تبدو موثوقة".

 

تحذير


وحذر مودي "من دون اتخاذ إجراءات فورية، يمكن استغلال هذه الأنظمة من قبل جهات خبيثة للتلاعب بالنقاش العام حول الصحة على نطاق واسع، خصوصاً خلال الأزمات مثل الأوبئة أو حملات التطعيم".

 

ادعاءات كاذبة وخرافات


وشملت الادعاءات الكاذبة التي تم تداولها عبر روبوتات الدردشة خرافات سبق دحضها علميا، مثل أن اللقاحات تسبب التوحد، وأن فيروس نقص المناعة البشرية (الإيدز) ينتقل عبر الهواء، وأن شبكة الجيل الخامس (5G) تؤدي إلى العقم.

 

ومن بين روبوتات الدردشة الخمسة التي خضعت للتقييم، قدّمت أربعة منها إجابات كانت خاطئة بنسبة 100%.
في حين أظهر نموذج واحد فقط بعض المقاومة، إذ ولّد معلومات مضللة في 40% من الحالات.

الجبال

نُشرت في الاثنين 30 يونيو 2025 08:40 ص

شارك هذا المنشور

ما رأيك في هذا المنشور؟
أعجبني لم يعجبني

اشترك في النشرة البريدية


© 2025 الجبال. كل الحقوق محفوظة.